JP2842561B2 - Feature point extraction method - Google Patents

Feature point extraction method

Info

Publication number
JP2842561B2
JP2842561B2 JP5030653A JP3065393A JP2842561B2 JP 2842561 B2 JP2842561 B2 JP 2842561B2 JP 5030653 A JP5030653 A JP 5030653A JP 3065393 A JP3065393 A JP 3065393A JP 2842561 B2 JP2842561 B2 JP 2842561B2
Authority
JP
Japan
Prior art keywords
trajectory
point
feature point
error
given
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP5030653A
Other languages
Japanese (ja)
Other versions
JPH06243293A (en
Inventor
安弘 和田
光男 川人
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ei Tei Aaru Ningen Joho Tsushin Kenkyusho Kk
Original Assignee
Ei Tei Aaru Ningen Joho Tsushin Kenkyusho Kk
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ei Tei Aaru Ningen Joho Tsushin Kenkyusho Kk filed Critical Ei Tei Aaru Ningen Joho Tsushin Kenkyusho Kk
Priority to JP5030653A priority Critical patent/JP2842561B2/en
Publication of JPH06243293A publication Critical patent/JPH06243293A/en
Application granted granted Critical
Publication of JP2842561B2 publication Critical patent/JP2842561B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】この発明は特徴点抽出方法に関
し、特に、文字認識や音声認識あるいは時系列データの
情報圧縮などに利用でき、データの特徴点を抽出するよ
うな特徴点抽出方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a feature point extracting method, and more particularly to a feature point extracting method which can be used for character recognition, voice recognition or information compression of time-series data, and extracts data feature points.

【0002】[0002]

【従来の技術】手で文字を書く運動(書字運動)は文字
パターンの生成と言えるが、これは多経由点の軌道生成
問題としてとらえることができる。逆に、運動軌道を与
えてその軌道が通過している経由点を推定することは、
ある種の運動パターン認識の問題と考えることができ
る。パターン認識の問題は、与えられたパターンの特徴
量を推定する問題であり、経由点はパターンの特徴量で
あると考えられるからである。特に、文字パターンを考
えると、各文字ごとに経由点が異なっており、シンボル
である文字と経由点の間に良い対応があると考えられ
る。また、パターン認識の問題を運動制御の観点から考
えると、経由点を与えられた軌道上に存在するとして
も、その後、位置の組合わせは無数に存在すると言え、
パターン生成と同様に不良設定問題でもある。
2. Description of the Related Art The movement of writing a character by hand (writing movement) can be said to be the generation of a character pattern, which can be regarded as a problem of generating a trajectory at multiple via points. Conversely, giving a motion trajectory and estimating the waypoint through which the trajectory passes,
It can be considered as a kind of motion pattern recognition problem. This is because the problem of pattern recognition is a problem of estimating the feature of a given pattern, and the waypoint is considered to be the feature of the pattern. In particular, considering the character pattern, the waypoints are different for each character, and it is considered that there is a good correspondence between the symbol character and the waypoints. Also, considering the problem of pattern recognition from the viewpoint of motion control, it can be said that even though the via points exist on a given trajectory, there are countless combinations of positions after that,
This is also a defect setting problem as in the case of pattern generation.

【0003】[0003]

【発明が解決しようとする課題】上述の手書き文字デー
タのような時系列データまたは音声波形データから特徴
点を抽出するには、フーリエ変換あるいはif〜the
n〜ルールに代表されるような知識工学的手法がとられ
ているが、推定された特徴点から逆に与えられた軌道を
再生することは困難であった。
To extract feature points from time-series data such as the above-described handwritten character data or voice waveform data, a Fourier transform or if-the
Although knowledge engineering techniques represented by n to rules are employed, it is difficult to reproduce a given trajectory from the estimated feature points.

【0004】それゆえに、この発明の主たる目的は、抽
出された特徴点を軌道生成モデルに入力することによっ
て与えられた軌道を再生することができ、時系列データ
の情報圧縮が行なえるような特徴点抽出方法を提供する
ことである。
[0004] Therefore, a main object of the present invention is to provide a trajectory that can be reproduced by inputting extracted feature points to a trajectory generation model, and to perform information compression of time-series data. A point extraction method is provided.

【0005】[0005]

【課題を解決するための手段】請求項1に係る発明は、
生物の運動によって生成される軌道の特徴点を抽出する
特徴点抽出方法において、軌道の始点と終点だけを位
置,速度,加速度の境界条件とする軌道を生成する第1
のステップと、与えられた軌道と第1のステップで生成
された軌道の2乗誤差を計算し、この誤差が最大点とな
る点付近の点を次の特徴点とする第2のステップと、始
点と第2のステップで選択した特徴点およびこの特徴点
と終点を境界条件とする軌道を生成する第3のステップ
と、第3のステップにおいて得られた軌道の与えられた
軌道に対する誤差が予め定める範囲外であるとき、第3
のステップで生成された軌道と与えられた軌道の2乗誤
差を計算し、この誤差が最大となる付近を次の特徴点と
する第4のステップと、第4のステップで抽出された特
徴点と既に抽出された1つあるいは複数個の特徴点を時
系列順に並べてp1,p2,p3,…とするとき、始
点、p1,p2,p3,…、終点を境界条件とする軌道
を生成する第5のステップと、第5のステップで得られ
た軌道の与えられた軌道に対する誤差が予め定める範囲
内になったことに応じて、特徴点の推定を終了する第6
のステップとを備えて構成される。
The invention according to claim 1 is
Te feature point extraction method smell of extracting feature points of trajectory generated by motion of the organism, only the position start and end points of the track, the first for generating a trajectory for speed, the boundary conditions of an acceleration
And a second step of calculating a square error between the given trajectory and the trajectory generated in the first step, and using a point near the point where the error is the maximum as the next feature point; A third step of generating a trajectory having the feature point selected in the start point and the second step and the feature point and the end point as boundary conditions, and an error of the trajectory obtained in the third step with respect to the given trajectory is determined in advance. When it is out of the defined range, the third
Calculating the square error between the trajectory generated in the step and the given trajectory, and setting the vicinity where the error is the maximum as the next feature point, and the feature point extracted in the fourth step When one or a plurality of feature points already extracted are arranged in chronological order to be p1, p2, p3,..., A trajectory that generates a trajectory with the start point, p1, p2, p3,. Step 5 and terminating the feature point estimation in response to the error of the trajectory obtained in the fifth step with respect to the given trajectory being within a predetermined range.
And the following steps.

【0006】請求項2にかかる発明は、請求項1の第6
のステップにおいて、軌道の誤差が予め定める範囲外で
あるとき、第4から第5のステップを繰り返す。
[0006] The invention according to claim 2 is the sixth aspect of the invention.
When the error of the trajectory is out of the predetermined range in the step (i), the fourth to fifth steps are repeated.

【0007】請求項3にかかる発明は、請求項1の第2
のステップにおいて、誤差が予め定める設定値以下にな
っていることに応じて、線形モデルよりも精度の高い非
線形モデルによって軌道を生成し直す第7のステップ
と、第7のステップにおいて再度生成された軌道と与え
られた軌道の差が設定値以上であれば第2のステップに
戻す第8のステップを含む。
[0007] The invention according to claim 3 is the second invention of claim 1.
In the step, the trajectory is regenerated by a non-linear model having higher accuracy than the linear model in response to the error being equal to or less than the predetermined set value, and the trajectory is generated again in the seventh step. An eighth step of returning to the second step if the difference between the trajectory and the given trajectory is greater than or equal to a set value;

【0008】[0008]

【作用】第1請求項にかかる発明の特徴点抽出方法は、
最初のステップにおいて、軌道の始点と終点だけを境界
条件とする軌道を生成し、この軌道と外部から与えられ
た軌道との2乗誤差を求め、この誤差が最大となる点付
近を次の特徴点とし、この特徴点と始点およびこの特徴
点と終点を境界条件とする軌道を生成し、得られた軌道
の与えられた軌道に対する誤差が予め定める範囲外であ
るとき、第3のステップで生成された軌道と与えられた
軌道の2乗誤差を計算し、この誤差が最大となる付近を
次の特徴点とし、この特徴点と既に抽出された1つある
いは複数個の特徴点を時系列順に並べてp1,p2,p
3…とするとき、始点、p1,p2,p3…、終点を境
界条件とする軌道を生成し、この軌道に対する誤差が予
め定める範囲内になったことに応じて、特徴点の推定を
終了する。
According to the first aspect of the present invention, there is provided a feature point extracting method comprising:
In the first step, a trajectory with only the starting point and the ending point of the trajectory as a boundary condition is generated, the square error between this trajectory and the trajectory given from the outside is determined, and the vicinity of the point where this error is the maximum is defined as A trajectory is generated using the characteristic point and the starting point and the characteristic point and the ending point as boundary conditions. When an error of the obtained trajectory with respect to a given trajectory is out of a predetermined range, the trajectory is generated in a third step. Calculates the square error of the given trajectory and the given trajectory, and sets the vicinity where the error is the maximum as the next feature point. This feature point and one or more feature points already extracted are chronologically determined. Side by side p1, p2, p
3, a trajectory having the start point, p1, p2, p3, and the end point as boundary conditions is generated, and when the error with respect to this trajectory falls within a predetermined range, the estimation of the feature point ends. .

【0009】請求項2にかかる発明では、請求項1の第
6のステップにおいて、軌道の誤差が予め定める範囲外
であるとき、第4から第5のステップを繰り返す、請求
項3にかかる発明は、請求項1の第2のステップにおい
て、誤差が予め定める設定値以下になっていることに応
じて、線形モデルよりも精度の高い非線形モデルによっ
て軌道を生成し直し、この軌道と与えられた軌道の差が
設定値以上であれば第2のステップに戻す。
According to a second aspect of the present invention, in the sixth step of the first aspect, when the trajectory error is out of a predetermined range, the fourth to fifth steps are repeated. In the second step of claim 1, the trajectory is regenerated by a nonlinear model having a higher accuracy than the linear model in response to the error being equal to or less than a predetermined set value, and the trajectory and the given trajectory are generated. If the difference is equal to or larger than the set value, the process returns to the second step.

【0010】[0010]

【実施例】図1はこの発明の一実施例のブロック図であ
る。図1において、入力装置1は軌道や波形のデータを
計算機2に入力するものであり、計算機2は入力された
データを、プログラムメモリ3に記憶されているプログ
ラムに従って特徴点を抽出するための処理を行なう。特
徴点ファイル4は計算機2で演算された特徴点を記憶す
る。
FIG. 1 is a block diagram showing an embodiment of the present invention. In FIG. 1, an input device 1 inputs trajectory and waveform data to a computer 2. The computer 2 processes the input data according to a program stored in a program memory 3 to extract feature points. Perform The feature point file 4 stores the feature points calculated by the computer 2.

【0011】図2はこの発明の一実施例の動作を説明す
るためのフロー図であり、図3および図4はこの発明の
一実施例の動作を説明するための図である。次に、図1
ないし図4を参照して、この発明の一実施例の動作につ
いて説明する。図1に示した入力装置1から軌道データ
が与えられる。この軌道データとは、人間によって描か
れた文字のパターンや発音された音声信号などのように
生物の運動によって生成される軌道のデータをいう。与
えられた軌道の始点,終点の境界条件をP0,Pfとす
る。文字軌道をモデルで生成するには、位置,速度,加
速度の境界条件を必要とする。位置に関しては与えられ
た軌道の座標であり、速度と加速度は通常0となる。2
つの特徴点が与えられたときに、その間の軌道を生成す
るモデルをFとすると、このモデルによって生成され、
始点,終点を境界条件とする軌道T1は第(1)式のよ
うに与えられる。
FIG. 2 is a flowchart for explaining the operation of one embodiment of the present invention, and FIGS. 3 and 4 are diagrams for explaining the operation of one embodiment of the present invention. Next, FIG.
The operation of the embodiment of the present invention will be described with reference to FIGS. Orbit data is provided from the input device 1 shown in FIG. This orbit data is drawn by humans
Like a letter pattern or a pronounced audio signal
Orbital data generated by the movement of living things . The boundary conditions of the start point and end point of the given trajectory are P0 and Pf. To generate a character trajectory using a model, boundary conditions of position, velocity, and acceleration are required. The position is the coordinates of a given trajectory, and the speed and acceleration are usually zero. 2
Given a feature point, given a model that generates a trajectory therebetween, F is generated by this model,
The trajectory T1 having the start point and the end point as boundary conditions is given as in the following equation (1).

【0012】 T1(t)=F(t,P0,Pf) …(1) ただし、Fは位置を生成するものとし、tは時間を表わ
す。上述の(1)式は、P0,Pfが与えられたときに
軌道を生成する一般的なモデル式を表わしており、どの
ような式であってもかまわない。具体的な例としては、
加速度の時間微分(躍度)の2乗を運動時間にわたって
積分したものを最小にすることによって得られるモデル
が考えられる。これは次のように定義される軌道生成モ
デルである。
T1 (t) = F (t, P0, Pf) (1) where F represents a position and t represents time. The above equation (1) represents a general model equation for generating a trajectory when P0 and Pf are given, and any equation may be used. As a specific example,
A model obtained by minimizing the integral of the square of the time derivative (jerk) of acceleration over the exercise time can be considered. This is a trajectory generation model defined as follows.

【0013】[0013]

【数1】 (Equation 1)

【0014】この第(1)式に基づいて、ステップ(図
示ではSPと略称する)SP1において、図3に示すよ
うに始点P0と終点Pfを境界条件とする軌道T1を生
成する。
At step SP1 (abbreviated as SP in the figure) based on the equation (1), a trajectory T1 having a start point P0 and an end point Pf as boundary conditions is generated as shown in FIG.

【0015】ステップSP2において、前述のステップ
SP1で生成した軌道T1と図4の太線で示すような予
め与えられている軌道Tgとを同じ軌道とするために両
者の差がある設定値以下になっているか否かを判別し、
設定値以下でなければステップSP3に進む。計算機2
はステップSP3において、ステップSP1で生成した
軌道T1と、与えられた軌道Tgとの2乗誤差の最大点
MAX(Tg−T1)2 とする時刻t1を探す。そし
て、軌道Tg(t1)を新たに推定された特徴点p1と
し、その境界条件をP1とする。特徴点p1は特徴点フ
ァイル4に記憶される。また、速度,加速度の軌道が与
えられていないものとし、軌道生成モデルを加速度の時
間微分(躍度)の2乗を運動時間にわたって積分したも
のを最小にすることによって得られるモデルとすると、
特徴点p1の位置に関する境界条件はTg(t1)−T
1(t1)である。
In step SP2, in order to make the trajectory T1 generated in step SP1 described above and the trajectory Tg given in advance as shown by the thick line in FIG. 4 the same trajectory, the difference between the two becomes less than a set value. To determine whether
If not, the process proceeds to step SP3. Calculator 2
In step SP3, search for a time t1 at which the maximum point MAX (Tg-T1) 2 of the square error between the trajectory T1 generated in step SP1 and the given trajectory Tg is found. Then, the trajectory Tg (t1) is set as a newly estimated feature point p1, and its boundary condition is set as P1. The feature point p1 is stored in the feature point file 4. Assuming that the trajectory of velocity and acceleration is not given, and the trajectory generation model is a model obtained by minimizing the integral of the square of the time derivative (jerk) of acceleration over the exercise time,
The boundary condition for the position of the feature point p1 is Tg (t1) -T
1 (t1).

【0016】すなわち、ある時刻t1における軌道T1
と軌道Tgの位置に関する誤差はTg(t1)−T1
(t1)となり、次に生成する軌道が時刻t1において
少なくともTg(t1)−T1(t1)の位置を通過す
るように生成すれば、そのときモデルによって生成され
ている軌道は時刻t1においては、与えられた軌道との
位置に関する誤差がなくなる。また、モデルによって与
えられた文字軌道を再現することを考えた場合、各点
(時刻)での位置,速度,加速度を一致させる必要があ
る。もし、各点の位置,速度,加速度のデータが与えら
れている場合には、上述の説明と同様にして、モデルで
の速度(あるいは加速度)と与えられた軌道の速度(あ
るいは加速度)との差を次に生成する軌道の境界条件と
して与えることが可能である。
That is, the trajectory T1 at a certain time t1
And the error relating to the position of the trajectory Tg is Tg (t1) -T1.
(T1), and if the next generated trajectory is generated so as to pass at least the position of Tg (t1) -T1 (t1) at time t1, the trajectory generated by the model at that time will be Errors in position with respect to a given trajectory are eliminated. In order to reproduce the character trajectory given by the model, it is necessary to match the position, velocity, and acceleration at each point (time). If data of the position, velocity, and acceleration of each point is given, the speed (or acceleration) of the model and the velocity (or acceleration) of the given trajectory are calculated in the same manner as described above. The difference can be given as a boundary condition for the next generated trajectory.

【0017】しかしながら、通常速度と加速度のデータ
を採取することは困難であり、この実施例では、特徴点
p1での速度,加速度の境界条件を、モデルFの時間3
階微分(躍度)の2乗を始点〜特徴点p1まで積分した
ものと、特徴点p1〜終点まで積分したものの和を最小
にする速度,加速度を求めることによって境界条件P1
を定めている。ただし、始点,終点での境界条件はすべ
て0である。
However, it is difficult to collect the data of the normal speed and the acceleration. In this embodiment, the boundary condition of the speed and the acceleration at the characteristic point p1 is obtained by the time 3 of the model F.
The boundary condition P1 is obtained by calculating the velocity and acceleration that minimize the sum of the integral of the square of the differential (jerk) from the start point to the feature point p1 and the integral of the square of the derivative from the feature point p1 to the end point.
Has been established. However, the boundary conditions at the start point and the end point are all zero.

【0018】また、陽に特徴点p1の境界条件を定めな
くても、スプライン関数を使うことによって、始点P
0,特徴点p1,終点Pfを通る軌道を生成することも
できる。
Even if the boundary condition of the feature point p1 is not explicitly determined, the starting point P can be obtained by using the spline function.
A trajectory passing through 0, the feature point p1, and the end point Pf can also be generated.

【0019】次に、ステップSP4において、始点P0
〜特徴点p1,特徴点p1〜終点Pfの軌道T2をモデ
ルFによって生成し、ステップSP5においてその軌道
T2を軌道T1に足し込み、軌道T2′を生成する。
Next, at step SP4, the starting point P0
A trajectory T2 of the feature point p1 and the feature point p1 to the end point Pf is generated by the model F, and in step SP5, the trajectory T2 is added to the trajectory T1 to generate a trajectory T2 '.

【0020】 T2=F(P0,P1)+F(P1,Pf) …(2) T2′=T1+T2 …(3) 第(2)式から明らかなように、軌道T2は、始点P0
と特徴点p1の境界条件で生成される軌道(=F(P
0,P1))と特徴点p1と終点Pfとの境界条件で生
成される軌道(=F(P1,Pf))の和(連結)で表
わされる。ただし、このときF(P0,P1)は特徴点
p1から終点Pfまでの時間に対しては0であり、F
(P1,Pf)は始点P0から特徴点p1までの時間に
対しては0である。
T2 = F (P0, P1) + F (P1, Pf) (2) T2 ′ = T1 + T2 (3) As is clear from the equation (2), the trajectory T2 is at the starting point P0
Trajectory (= F (P
0, P1)) and the trajectory (= F (P1, Pf)) generated under the boundary condition between the feature point p1 and the end point Pf. However, at this time, F (P0, P1) is 0 for the time from the feature point p1 to the end point Pf,
(P1, Pf) is 0 for the time from the starting point P0 to the feature point p1.

【0021】また、第(3)式から明らかなように、軌
道T2′は図4において始点P0から特徴点p1を経由
して終点Pfを結ぶ下にふくらんだ曲線となる。
As is apparent from the equation (3), the trajectory T2 'is a curved line extending downward from the start point P0 to the end point Pf via the characteristic point p1 in FIG.

【0022】以下、同様にして、軌道T2′(=T2+
F(P0,P1)+F(P1,Pf))と与えられた軌
道とを比較し、MAX(Tg−T2)2 とする時刻t2
を軌道Tg(t2)の特徴点p2とし、もし特徴点p2
が始点P0と特徴点p1の間に存在すれば、新たな軌道
T3は次の第(4)式のように与えられる。
Hereinafter, similarly, the trajectory T2 '(= T2 +
F (P0, P1) + F (P1, Pf)) is compared with the given trajectory, and the time t2 is set as MAX (Tg-T2) 2.
Is the feature point p2 of the trajectory Tg (t2), and if the feature point p2
Exists between the starting point P0 and the feature point p1, a new trajectory T3 is given as in the following Expression (4).

【0023】 T3=T2′+F(P0,P2)+F(P2,P1) …(4) 今、i番目に抽出された軌道をTiとしてMAX(Tg
−Ti)2 が設定したしきい値よりも小さくなったこと
をステップSP5において判別したとき、処理を終了す
る。この段階で生成されている軌道は図4の太線で示す
ようになる。
T 3 = T 2 ′ + F (P 0, P 2) + F (P 2, P 1) (4) Now, the trajectory extracted at the i-th position is assumed to be MAX (Tg
-Ti) When it is determined in step SP5 that 2 has become smaller than the set threshold value, the process ends. The trajectory generated at this stage is as shown by the thick line in FIG.

【0024】図5(a)は文字「a」の計測データを示
し、図5(b)は推定した特徴点を●で示し、これらの
特徴点に基づいて図2に示す処理で再生された軌道を実
線で示している。図5(c)は文字「b」の計測データ
であり、図5(d)は特徴点と再生された軌道を示して
いる。図5(e)は文字「abc」の計測データであ
り、図5(f)は文字「abc」の特徴点と再生された
軌道を示している。この図5(f)から明らかなよう
に、文字と文字の切れ目においても経由点を推定してい
ることがわかる。
FIG. 5 (a) shows the measurement data of the character "a", and FIG. 5 (b) shows the estimated characteristic points by ●, and reproduced based on these characteristic points by the processing shown in FIG. The trajectory is indicated by a solid line. FIG. 5C shows measurement data of the character “b”, and FIG. 5D shows feature points and reproduced trajectories. FIG. 5E shows measurement data of the character “abc”, and FIG. 5F shows feature points of the character “abc” and the reproduced trajectory. As is apparent from FIG. 5 (f), it is understood that the waypoint is estimated even at the character breaks.

【0025】図6はこの発明の他の実施例の動作を説明
するためのフロー図である。この図6に示した実施例に
おいて、ステップSP1〜SP5は前述の図2と同じで
あり、新たにステップSP6とSP7の処理が付加され
ている。すなわち、ステップSP2において、生成した
軌道と与えられた軌道の差がある設定値以下になってい
れば、ステップSP6において、線形モデルよりも精度
の高い非線形モデルによって軌道を生成し直し、ステッ
プSP7において、再度生成した軌道と与えられた軌道
の差がある設定値以下になっているか否かを判別し、も
し設定以上の場合はステップSP2に戻り、特徴点の抽
出を行なう。なお、非線形モデルについては、たとえば
“制御対象の順・逆モデルを含む神経回路網による腕の
軌道生成”、電子情報通信学会論文誌D−II、No.
5,pp991〜999(1992)において既に周知
の技術である。
FIG. 6 is a flow chart for explaining the operation of another embodiment of the present invention. In the embodiment shown in FIG. 6, steps SP1 to SP5 are the same as those in FIG. 2 described above, and steps SP6 and SP7 are newly added. That is, in step SP2, if the difference between the generated trajectory and the given trajectory is equal to or smaller than a certain set value, in step SP6, the trajectory is regenerated using a non-linear model having higher accuracy than the linear model. Then, it is determined whether or not the difference between the regenerated trajectory and the given trajectory is equal to or less than a certain set value. For the nonlinear model, for example,
“Analysis of the arm by a neural network including forward and inverse models of the controlled object
Orbit Generation ", IEICE Transactions D-II, No.
5, pp 991-999 (1992)
Technology.

【0026】[0026]

【発明の効果】以上のように、この発明によれば、軌道
の始点と終点だけを境界条件とする軌道を生成し、この
軌道と外部から与えられた軌道との2乗誤差が最大とな
る点付近を次の特徴点とし、この特徴点と始点およびこ
の特徴点と終点を境界条件とする軌道を生成し、この軌
道と最初に生成した軌道とを足し合わせて、その誤差が
予め定める範囲内であれば特徴点とするようにしたの
で、時系列情報の情報圧縮を行なうことができる。ま
た、文字認識、音声認識における特徴点としても利用で
きる。
As described above, according to the present invention, a trajectory having only the starting point and the ending point of the trajectory as a boundary condition is generated, and the square error between the trajectory and an externally provided trajectory is maximized. A trajectory with the vicinity of the point as the next feature point, a trajectory with this feature point and the starting point and the feature point and the ending point as boundary conditions is generated, and the trajectory and the first generated trajectory are added together, and the error is within a predetermined range. If it is within the range, the feature point is set as a feature point, so that information compression of the time-series information can be performed. It can also be used as a feature point in character recognition and voice recognition.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施例の概略ブロック図である。FIG. 1 is a schematic block diagram of one embodiment of the present invention.

【図2】この発明の一実施例の動作を説明するためのフ
ロー図である。
FIG. 2 is a flowchart for explaining the operation of one embodiment of the present invention.

【図3】この発明の一実施例における特徴点を経由して
軌道を生成する過程を説明するための図である。
FIG. 3 is a diagram for explaining a process of generating a trajectory via a feature point in one embodiment of the present invention.

【図4】この発明の一実施例によって生成された軌道を
示す図である。
FIG. 4 is a diagram illustrating a trajectory generated according to an embodiment of the present invention.

【図5】この発明の一実施例の効果を説明するための図
である。
FIG. 5 is a diagram for explaining an effect of one embodiment of the present invention.

【図6】この発明の他の実施例の動作を説明するための
フロー図である。
FIG. 6 is a flowchart for explaining the operation of another embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1 入力装置 2 計算機 3 プログラムメモリ 4 特徴ファイル Reference Signs List 1 input device 2 computer 3 program memory 4 feature file

フロントページの続き (72)発明者 川人 光男 京都府相楽郡精華町大字乾谷小字三平谷 5番地 株式会社エイ・ティ・アール人 間情報通信研究所内 (56)参考文献 特開 平2−10476(JP,A) 特開 平3−129482(JP,A) 特開 昭63−298575(JP,A) 特開 平4−233084(JP,A) 電子情報通信学会技術研究報告 NC 89−63 1990年3月16日「逆ダイナミク ス内部モデルを用いた腕の最適軌道生 成」Continuation of the front page (72) Inventor Mitsuo Kawato 5th Sanraya, Seiyacho, Soraku-cho, Soraku-gun, Kyoto ATR Co., Ltd. ATI Co., Ltd. Interpersonal Information and Communication Laboratories (56) References JP-A-2-10476 ( JP, A) JP-A-3-129482 (JP, A) JP-A-63-298575 (JP, A) JP-A-4-233084 (JP, A) IEICE Technical Report, NC 89-63 1990 March 16 “Optimal arm trajectory generation using an inverse dynamics internal model”

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 生物の運動によって生成される軌道の特
徴点を抽出する特徴点抽出方法において、 軌道の始点と終点だけを、位置,速度,加速度境界条
件とする軌道を生成する第1のステップと、 与えられた軌道と前記第1のステップで生成された軌道
の2乗誤差を計算し、この誤差が最大となる点付近の点
を次の特徴点とする第2のステップと、 始点と前記第2のステップで選択した特徴点およびこの
特徴点と終点を境界条件とする軌道を生成する第3のス
テップと、 前記第3のステップにおいて得られた軌道の与えられた
軌道に対する誤差が予め定める範囲外であるとき、前記
第3のステップで生成された軌道と与えられた軌道の2
乗誤差を計算し、この誤差が最大となる付近を次の特徴
点とする第4のステップと、 前記第4のステップで抽出された特徴点と既に抽出され
た1つあるいは複数個の特徴点を時系列順に並べてp
1,p2,p3,…とするとき、始点、p1,p2,p
3,…、終点を境界条件とする軌道を生成する第5のス
テップと、 前記第5のステップで得られた軌道の与えられた軌道に
対する誤差が予め定める範囲内になったことに応じて、
特徴点の推定を終了する第6のステップとを備えた、特
徴点抽出方法。
Te [Claim 1] feature point extraction method odor extracts feature points of the track produced by the organism of movement, only the start and end points of the trajectory, position, the first for generating a trajectory for speed, the boundary conditions of an acceleration A second step of calculating a square error between the given trajectory and the trajectory generated in the first step, and setting a point near a point where the error is maximum as a next feature point; A third step of generating a trajectory with the start point, the feature point selected in the second step and the feature point and the end point as boundary conditions, and an error of the trajectory obtained in the third step with respect to a given trajectory Is outside the predetermined range, the trajectory generated in the third step and the given trajectory 2
A fourth step in which a squared error is calculated, and the vicinity where the error is maximized is set as the next feature point; the feature point extracted in the fourth step and one or more feature points already extracted Are arranged in chronological order and p
1, p2, p3, ..., the starting point, p1, p2, p
3,..., A fifth step of generating a trajectory having the end point as a boundary condition, and in accordance with that an error of the trajectory obtained in the fifth step with respect to a given trajectory falls within a predetermined range,
And a sixth step of ending the estimation of the feature points.
【請求項2】 前記第6のステップにおいて、前記軌道
の誤差が前記予め定める範囲外であるとき、前記第4か
ら第5のステップを繰返すことを特徴とする、請求項1
の特徴点抽出方法。
2. The method according to claim 1, wherein, in the sixth step, when the error of the trajectory is outside the predetermined range, the fourth to fifth steps are repeated.
Feature point extraction method.
【請求項3】 前記第2のステップにおいて、前記誤差
が予め定める設定値以下になっていることに応じて、線
形モデルよりも精度の高い非線形モデルによって軌道を
生成し直す第7のステップと、 前記第7のステップにおいて再度生成された軌道と与え
られた軌道の差が前記設定値以上であれば前記第2のス
テップに戻す第8のステップを含む、請求項1の特徴点
抽出方法。
3. In the second step, a seventh step of regenerating a trajectory using a nonlinear model having higher accuracy than a linear model in response to the error being equal to or less than a predetermined set value; 2. The feature point extracting method according to claim 1, further comprising an eighth step of returning to the second step if the difference between the trajectory generated again in the seventh step and the given trajectory is equal to or greater than the set value.
JP5030653A 1993-02-19 1993-02-19 Feature point extraction method Expired - Fee Related JP2842561B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5030653A JP2842561B2 (en) 1993-02-19 1993-02-19 Feature point extraction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5030653A JP2842561B2 (en) 1993-02-19 1993-02-19 Feature point extraction method

Publications (2)

Publication Number Publication Date
JPH06243293A JPH06243293A (en) 1994-09-02
JP2842561B2 true JP2842561B2 (en) 1999-01-06

Family

ID=12309754

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5030653A Expired - Fee Related JP2842561B2 (en) 1993-02-19 1993-02-19 Feature point extraction method

Country Status (1)

Country Link
JP (1) JP2842561B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4164286B2 (en) * 2002-04-25 2008-10-15 キヤノン株式会社 Line segment approximation method of figure, program for realizing line segment approximation method of figure, and line segment approximation apparatus of figure
JP5362189B2 (en) * 2006-05-10 2013-12-11 株式会社トプコン Image processing apparatus and processing method thereof

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63298575A (en) * 1987-05-29 1988-12-06 Ricoh Co Ltd Polygonal line approximation processing system for graphic data
JP2538645B2 (en) * 1988-06-29 1996-09-25 富士通株式会社 Curved line approximation device
JPH03129482A (en) * 1989-10-13 1991-06-03 Toshiba Corp Curve fitting system
CA2042849A1 (en) * 1990-06-14 1991-12-15 Bindiganavele A. Prasad Curve approximation algorithms for rapid decomposition of outlines

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
電子情報通信学会技術研究報告 NC89−63 1990年3月16日「逆ダイナミクス内部モデルを用いた腕の最適軌道生成」

Also Published As

Publication number Publication date
JPH06243293A (en) 1994-09-02

Similar Documents

Publication Publication Date Title
US6249606B1 (en) Method and system for gesture category recognition and training using a feature vector
CN101354569A (en) Information processing apparatus, information processing method, and computer program
JPH06266495A (en) Method and apparatus for message analysis of message given to man-machine dialog system by dialog means
JPH06208653A (en) Method for normalization of symbol
JP7364041B2 (en) Object tracking device, object tracking method, and program
CN107346207B (en) Dynamic gesture segmentation recognition method based on hidden Markov model
JP2842561B2 (en) Feature point extraction method
Kankanhalli et al. Experiential sampling in multimedia systems
CN113674318A (en) Target tracking method, device and equipment
CN111895990B (en) Method for detecting and repositioning mobile robot based on multi-index binding frame
WO2021070258A1 (en) Learning data generation device, learning data generation method, and recording medium
JP6985230B2 (en) Business analysis server, business analysis method, and business analysis program
Nechyba et al. On the fidelity of human skill models
WO2019026716A1 (en) Information processing device and information processing method
JP3680658B2 (en) Image recognition method and image recognition apparatus
CN115200584A (en) Path planning method, device and equipment and readable storage medium
Schreiner et al. Using machine learning techniques to reduce data annotation time
CN112507940A (en) Skeleton action recognition method based on difference guidance representation learning network
Krüger et al. Using hidden markov models for recognizing action primitives in complex actions
KR20140133417A (en) Method for learning task skill using temporal and spatial entrophies
JP2966076B2 (en) Learning device self-learning method
JP3278829B2 (en) Online handwritten character segmentation method and apparatus
JP4219543B2 (en) Acoustic model generation apparatus and recording medium for speech recognition
CN116469279B (en) Automobile click-to-read teaching method and system
CN112578979B (en) Method and device for generating operation script, readable medium and equipment

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 19960319

LAPS Cancellation because of no payment of annual fees