JP2005149178A - Gesture processing device and method - Google Patents

Gesture processing device and method Download PDF

Info

Publication number
JP2005149178A
JP2005149178A JP2003386378A JP2003386378A JP2005149178A JP 2005149178 A JP2005149178 A JP 2005149178A JP 2003386378 A JP2003386378 A JP 2003386378A JP 2003386378 A JP2003386378 A JP 2003386378A JP 2005149178 A JP2005149178 A JP 2005149178A
Authority
JP
Japan
Prior art keywords
stroke
gesture
latest
strokes
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003386378A
Other languages
Japanese (ja)
Other versions
JP4287250B2 (en
Inventor
Yojiro Touchi
洋次郎 登内
Kei Sakamoto
圭 坂本
Tomohiro Haniyu
知浩 羽生
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2003386378A priority Critical patent/JP4287250B2/en
Publication of JP2005149178A publication Critical patent/JP2005149178A/en
Application granted granted Critical
Publication of JP4287250B2 publication Critical patent/JP4287250B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a gesture processing device and method capable of precisely recognizing gestures whose forms are difficult to recognize, such as those which could have characters similar in shape to them. <P>SOLUTION: The gesture processing device includes a coordinate extracting part 12 which outputs continuous coordinates inputted to a coordinate input part 11, and a gesture recognizing part 13 by which the newest stroke of a plurality of strokes outputted from the coordinate extracting part 12 is recognized as a gesture according to the positional relationship between the newest stroke and the strokes thus far and to the shape of the newest stroke. This makes it possible to discriminate between characters with similar shapes that are difficult to distinguish one from another according to only the shape of each stroke, and gestures. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、タブレット等の座標入力装置を介して入力される座標情報を処理するコンピューターや携帯情報端末、ワードプロセッサ等の情報処理装置に用いられるジェスチャ−処理に関する。   The present invention relates to a gesture process used in an information processing apparatus such as a computer, a portable information terminal, or a word processor that processes coordinate information input via a coordinate input apparatus such as a tablet.

タブレット等の座標入力装置から得られる情報処理装置において、ユーザは特殊な形状を持つ筆跡(ジェスチャー)を入力することで、情報処理装置に対する操作を指示することがある。通常、ジェスチャーの形状を文字とは異なる形状に定めることで、文字とジェスチャーの区別ができるようしている。ジェスチャーで操作するために、例えば手書きの丸印の中にジェスチャーを記入し、このジェスチャーを各座標点の方向ベクトルを求めて、この方向ベクトルのパターンからジェスチャーを判定するようなことがなされていた。(例えば、特許文献1を参照)   In an information processing device obtained from a coordinate input device such as a tablet, a user may instruct an operation on the information processing device by inputting a handwriting (gesture) having a special shape. Usually, the shape of a gesture is determined to be different from that of a character so that the character and the gesture can be distinguished. In order to operate with a gesture, for example, a gesture is entered in a handwritten circle, the direction vector of each coordinate point is obtained for this gesture, and the gesture is determined from the pattern of this direction vector. . (For example, see Patent Document 1)

また、タブレットにより筆記し文字列について文字認識をする際、文字列の一部を省略して筆記した文字列の後に横線をジェスチャー記号として筆記して、入力したい文字列全体が認識される方法もあった。(例えば、特許文献2を参照)   In addition, when recognizing a character string written by a tablet, a method of recognizing the entire character string to be input by writing a horizontal line as a gesture symbol after a character string that is partly omitted and written. there were. (For example, see Patent Document 2)

特公平5−84540号公報(第6図)Japanese Patent Publication No. 5-84540 (Fig. 6) 特開平7−254050号公報([0027][0028]、図3)Japanese Patent Laid-Open No. 7-254050 ([0027] [0028], FIG. 3)

しかし、上述したタブレット等による入力では、文字と類似した形状のジェスチャーを用いることがある。例えば、図1(a)のように改行を意味するジェスチャーを割り当てることがある(矢印が終点部を表す)。また、図1(b)のように省略した文字列の認識を意味するジェスチャーを割り当てることがある。英語の場合、図1(a)の形状に類似した文字はないため問題はないのだが、日本語の場合、かぎ括弧“」”と形が類似しているため、形状から改行ジェスチャーなのかかぎ括弧なのかを判別するのは困難になってしまう。図1(b)の場合は、“_”(下線)、“−”(ハイフン)等と形状が類似してしまう。更に、改行ジェスチャーは、かぎ括弧“」”と類似した形状であるが、出版や印刷時の校正記号に由来する形状であるため、別の形状を充てることはしにくく、仮に別の形状を充てたとしても、ジェスチャーによる操作指示をするユーザの負担が高くなってしまうといった問題がある。   However, in the input using the above-described tablet or the like, a gesture having a shape similar to a character may be used. For example, as shown in FIG. 1A, a gesture meaning a line break may be assigned (an arrow indicates an end point). In addition, as shown in FIG. 1B, a gesture that means recognition of a omitted character string may be assigned. In English, there is no problem because there is no character similar to the shape in Fig. 1 (a), but in Japanese, the shape is similar to the angle bracket "" ", so the key is a line feed gesture from the shape. In the case of Fig. 1 (b), the shape is similar to "_" (underline), "-" (hyphen), etc. Furthermore, the linefeed gesture is The shape is similar to the bracket "" ", but because it is derived from the proofreading symbol at the time of publication or printing, it is difficult to use another shape. Even if another shape is used, the gesture There is a problem that the burden on the user who gives an operation instruction is increased.

本発明は、上記問題を鑑みてなされたものであり、ジェスチャーと類似した形状を持つ文字が存在するような、判定が困難な形状を持つジェスチャーに対して正確に判定することができるジェスチャー処理装置及びジェスチャー処理方法を提供することを目的とする。   The present invention has been made in view of the above problems, and is a gesture processing device capable of accurately determining a gesture having a shape that is difficult to determine, such as a character having a shape similar to a gesture. It is another object of the present invention to provide a gesture processing method.

本発明は、上記課題を解決するために、 入力された座標から座標が連続するストロークを出力する座標抽出手段と、前記座標抽出手段から出力される複数のストロークに対して、最新のストロークとそれまでのストロークとの位置関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うジェスチャー判定手段とを具備することを特徴とする。   In order to solve the above-described problems, the present invention provides a coordinate extraction unit that outputs a stroke in which coordinates are continuous from input coordinates, a latest stroke and a plurality of strokes output from the coordinate extraction unit. It is characterized by comprising gesture determining means for performing gesture determination on the latest stroke based on the positional relationship with the previous stroke and the latest stroke shape.

また、 入力された座標から座標が連続するストロークを出力する座標抽出手段と、前記座標抽出手段から出力される複数のストロークに対して、最新のストロークとそれまでのストロークとの位置関係と、最新のストロークとそれ以外のストロークとの大小関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うジェスチャー判定手段と、最新のストロークとそれまでのストロークとの位置関係からそれまでのストロークの中からジェスチャーに対応する操作の対象を選択するジェスチャー対象選択手段とを具備することを特徴とする。   In addition, a coordinate extraction unit that outputs a stroke in which coordinates are continuous from input coordinates, a positional relationship between the latest stroke and the previous stroke, and a plurality of strokes output from the coordinate extraction unit, Based on the size relationship between the stroke and other strokes and the shape of the latest stroke, the gesture determination means for determining the gesture for the latest stroke, and the positional relationship between the latest stroke and the previous stroke And a gesture target selecting means for selecting an operation target corresponding to the gesture from the strokes up to that point.

さらに、前記座標抽出手段から出力されるストロークを記憶するストローク記憶手段を具備し、前記ジェスチャー判定部でジェスチャーと判定された場合、前記ストローク記憶手段からジェスチャーに該当するストロークを削除することを特徴とする。   Furthermore, it comprises a stroke storage means for storing a stroke output from the coordinate extraction means, and deletes a stroke corresponding to a gesture from the stroke storage means when the gesture determination unit determines that it is a gesture. To do.

本発明によれば、ジェスチャー判定したいストロークの形状だけではなく、他のストロークとの位置関係あるいは大小関係をジェスチャー判定条件に加えることにより、ストロークの形状だけからは判定するのが困難だった類似する形状を持つ文字とジェスチャーを区別して、正確に筆記による文字入力をすることができる。   According to the present invention, it is difficult to determine only from the shape of the stroke by adding not only the shape of the stroke to be determined by gesture but also the positional relationship or magnitude relationship with other strokes to the gesture determination condition. Characters with shapes can be distinguished from gestures and characters can be input accurately by writing.

以下に本発明の実施形態の詳細について図面を用いて説明する。   Details of embodiments of the present invention will be described below with reference to the drawings.

図2は、本発明の一実施例の構成を示す図である。図2に示したジェスチャー処理装置は、座標入力部11、座標抽出部12、ジェスチャー判定部13、ジェスチャー処理部14、ストローク記憶部15、ジェスチャーDB16から構成される。このジェスチャー処理装置の動作について、図3に示したフローチャートを用いて説明する。   FIG. 2 is a diagram showing the configuration of an embodiment of the present invention. The gesture processing device shown in FIG. 2 includes a coordinate input unit 11, a coordinate extraction unit 12, a gesture determination unit 13, a gesture processing unit 14, a stroke storage unit 15, and a gesture DB 16. The operation of this gesture processing device will be described with reference to the flowchart shown in FIG.

座標入力部11から得られる座標は(X(1),Y(1))、...、(X(a),Y(a))、(X(a+1),Y(a+1))、.... (X(b),Y(b))、(X(b+1),Y(b+1))、...、(X(i),Y(i))、... (X(N),Y(N))という2次元座標の時系列として座標抽出部に出力される。   The coordinates obtained from the coordinate input unit 11 are (X (1), Y (1)), ..., (X (a), Y (a)), (X (a + 1), Y (a + 1). )), .... (X (b), Y (b)), (X (b + 1), Y (b + 1)), ..., (X (i), Y (i)) , ... (X (N), Y (N)) are output to the coordinate extraction unit as a time series of two-dimensional coordinates.

座標抽出部12では、座標入力部11から得られる座標情報を時間的に連続するものを1つのストロークとしてまとめ、1ストロークごとに出力する(S11)。
ストローク1:(X(1),Y(1))、...、(X(a),Y(a))
ストローク2:(X(a+1),Y(a+1))、...、(X(b),Y(b))
...
ストロークi;...、(X(i),Y(i))
...
ストロークN:...、(X(N),Y(N))
となる。
ジェスチャー判定部13は、図4に示すように形状判定処理131、位置判定処理132、およびジェスチャー判定処理133から構成され、ストローク記憶部15から最新のストロークNとそれまでのストローク…,N-2,N-1に関する情報を用いてジェスチャーDB16内の判定条件に基づいて、ジェスチャーの種類(ジェスチャーではないという判定を含む)を判定して出力する。ジェスチャー判定部13でジェスチャーと判定されたストロークについては、ストローク記録部から削除される。
The coordinate extraction unit 12 collects the coordinate information obtained from the coordinate input unit 11 in time as a single stroke and outputs it for each stroke (S11).
Stroke 1: (X (1), Y (1)), ..., (X (a), Y (a))
Stroke 2: (X (a + 1), Y (a + 1)), ..., (X (b), Y (b))
...
Stroke i; ..., (X (i), Y (i))
...
Stroke N: ..., (X (N), Y (N))
It becomes.
The gesture determination unit 13 includes a shape determination process 131, a position determination process 132, and a gesture determination process 133 as shown in FIG. , N-1 is used to determine and output the type of gesture (including the determination that it is not a gesture) based on the determination condition in the gesture DB 16 using information on N-1. The stroke determined as a gesture by the gesture determination unit 13 is deleted from the stroke recording unit.

形状判定処理131の処理は、例えばストロークの各座標点の方向ベクトルを求めて、この方向ベクトルのパターンからジェスチャーを判定する(S12)。このとき各ジェスチャーは図5の方向パターンで表記される。方向パターンの数字は、図6の方向、”E”は終了を意味する。ジェスチャーDB16内の判定条件に基づいてジェスチャーでないと判定された場合には、次のストロークのについて形状判定処理を行う(S17、S18)。  In the shape determination process 131, for example, a direction vector of each coordinate point of the stroke is obtained, and a gesture is determined from the pattern of the direction vector (S12). At this time, each gesture is represented by the direction pattern of FIG. The number of the direction pattern means the direction in FIG. 6, and “E” means the end. If it is determined that the gesture is not a gesture based on the determination condition in the gesture DB 16, shape determination processing is performed for the next stroke (S17, S18).

図7のようにジェスチャー番号1と判定された場合には、図7中の位置判定条件があるので、位置判定処理を行う。また、ジェスチャー番号2と判定された場合には、図7中の位置判定条件に「必要なし」と書かれているので、形状判定だけで判断されるジェスチャーであり、ジェスチャー判定が終了する(S13、S14)。通常は、類似した形状の文字が存在しないジェスチャーが「必要なし」となる。   When it is determined that the gesture number is 1 as shown in FIG. 7, the position determination process is performed because there is the position determination condition in FIG. If it is determined that the gesture number is 2, the position determination condition in FIG. 7 indicates “No need”, so that the gesture is determined only by the shape determination, and the gesture determination ends (S13). , S14). Usually, a gesture that does not have a similar-shaped character is “not required”.

位置判定処理132の処理は、一例として、ジェスチャー1では以下の方法で判定を行うことができる。それまでにストローク記録部15に記憶されたストロークが、1,2,...,n-1,nとする(時間順に並んでいる)。   As an example of the process of the position determination process 132, the gesture 1 can be determined by the following method. The strokes stored in the stroke recording unit 15 so far are 1, 2,..., N−1, n (arranged in time order).

このとき、ジェスチャー判定したいストロークがn、それ以外のストロークが...n-2,n-1となる。ストロークi(i=1,2,..,n)の座標は、
(X(i,1),Y(i,1)), (X(i,2),Y(i,2)),..., (X(i,N(i)),Y(i,N(i)))
とする。ただし、N(i)は、ストロークiの座標の点数とする。
さらに、ストローク1からn-1までの座標で、x、y座標が最大になる座標値をそれぞれ
Xmax(1〜n-1), Ymax(1〜n-1)
とする。このときに、ストロークnの始点 (X(n,1),Y(n,1))と終点(X(n,N(n)),Y(n,Y(n)))が以下を満たすときに、「それまでの筆跡の下側を通る」という条件を満たすと判定する。
At this time, the stroke to be determined for gesture is n, and the other strokes are ... n-2, n-1. The coordinates of stroke i (i = 1,2, .., n) are
(X (i, 1), Y (i, 1)), (X (i, 2), Y (i, 2)), ..., (X (i, N (i)), Y (i , N (i)))
And N (i) is the number of coordinates of the stroke i.
Furthermore, the coordinate values where the x and y coordinates are the maximum in the coordinates from stroke 1 to n-1 are
Xmax (1 to n-1), Ymax (1 to n-1)
And At this time, the start point (X (n, 1), Y (n, 1)) and end point (X (n, N (n)), Y (n, Y (n))) of stroke n satisfy the following: Sometimes, it is determined that the condition “pass under the previous handwriting” is satisfied.

X(n,1)> Xmax(1〜n-1)でありY(n,1)< Ymax(1〜n-1)である(始点に関する条件)。
かつ X(n,N(n))< Xmax(1〜n-1)でありY(n,Y(n)))> Ymax(1〜n-1)である(終点に関する条件)。
この判定条件を図にすると図8のようになる。つまり、それまでのストローク1〜n−1の外接四角形の座標値が最大となる座標よりも外側にストロークnがあると、ジェスチャーと判定される(S15、16)。このように、図7中の形状判定条件と位置判定条件は、わかりやすいように図で表しているが、実際には式で判定を行っている。
X (n, 1)> Xmax (1 to n-1) and Y (n, 1) <Ymax (1 to n-1) (conditions regarding the start point).
And X (n, N (n)) <Xmax (1 to n-1) and Y (n, Y (n)))> Ymax (1 to n-1) (conditions regarding the end point).
FIG. 8 shows this determination condition. That is, if there is a stroke n outside the coordinates where the coordinate values of the circumscribed rectangles of the strokes 1 to n-1 so far are maximum, it is determined as a gesture (S15, 16). As described above, the shape determination condition and the position determination condition in FIG. 7 are illustrated in a diagram for easy understanding, but in actuality, the determination is performed using equations.

ジェスチャー処理部14は、ジェスチャー判定部13からのストロークがジェスチャーと判定された場合に、判定されたジェスチャーに対応するコマンドを実行する。ジェスチャー処理部14では、図7のようにジェスチャー番号1と判定された場合には、それまでの筆跡に対して、文字認識処理を行い、ストローク記憶部の情報をすべて削除する。また、ジェスチャー番号2と判定された場合には、空白記号(“ ”)が出力される。   The gesture processing unit 14 executes a command corresponding to the determined gesture when the stroke from the gesture determination unit 13 is determined to be a gesture. When it is determined that the gesture number is 1 as shown in FIG. 7, the gesture processing unit 14 performs a character recognition process on the handwriting so far and deletes all information in the stroke storage unit. If it is determined that the gesture number is 2, a blank symbol (“”) is output.

このように、本実施例によれば、ストロークの形状だけからは判定するのが困難だった類似する形状を持つ文字とジェスチャーを区別でき、ジェスチャーによる操作指示を実行することができる。   As described above, according to the present embodiment, it is possible to distinguish a character having a similar shape and a gesture, which are difficult to determine only from the shape of the stroke, and to execute an operation instruction using the gesture.

本発明の他の実施例について図9〜図12を用いて説明する。図9は本発明の他の実施例の構成を示す図である。前述した図2で示した同じ構成について同じ番号を付して説明は省略する。図9に示したジェスチャー処理装置は、座標入力部11、座標抽出部12、ジェスチャー判定部13、ストローク記憶部15、ジェスチャー対象選択部17から構成される。   Another embodiment of the present invention will be described with reference to FIGS. FIG. 9 is a diagram showing the configuration of another embodiment of the present invention. The same components as those shown in FIG. 2 described above are denoted by the same reference numerals and description thereof is omitted. The gesture processing apparatus shown in FIG. 9 includes a coordinate input unit 11, a coordinate extraction unit 12, a gesture determination unit 13, a stroke storage unit 15, and a gesture target selection unit 17.

例えば、図1(b)に示したストロークを省略した文字列の認識を操作指示するジェスチャー(予測ジェスチャー)とすることがある。図10(a)に示したように文字列をすべて筆記する代わりに、図10(b)に示すような文字列を入力することで、「コン」に続く文字を予測して「コンピューター」に変換してくれる機能である。ところが筆跡の形状や位置関係だけを見ると文字列「コン_」と区別することが困難である。そこで、それまでのストロークと最後のストロークの大小関係を用いて区別を行う。ストローク番号1からn-1までのストロークの外接四角形のy方向のサイズをDy(1〜n-1)とし、最後のストロークの横幅をDx(n)とする。   For example, there may be a gesture (predictive gesture) that gives an operation instruction to recognize a character string in which the stroke shown in FIG. 1B is omitted. Instead of writing the entire character string as shown in FIG. 10 (a), by inputting the character string as shown in FIG. 10 (b), the character following “con” is predicted and “computer” is entered. It is a function that converts it. However, it is difficult to distinguish from the character string “con_” only by looking at the shape and positional relationship of the handwriting. Therefore, a distinction is made using the magnitude relationship between the previous stroke and the last stroke. The size in the y direction of the circumscribed rectangle of strokes 1 to n-1 is Dy (1 to n-1), and the horizontal width of the last stroke is Dx (n).

この後、上記2つの値を使ってジェスチャーの判定を行う(図10(c))。
Dy(1〜n-1)×K< Dx(n)
Kはアンダーライン「_」や横棒「−」を予測ジェスチャーと誤判定しないためのマージンであり、通常は例えば1.5程度に設定する。図11に示したように、大小判定を行う場合のジェスチャー判定部の構成は、図4の位置判定処理132が大小判定処理に置き換わった構成となる。
Thereafter, the gesture is determined using the above two values (FIG. 10C).
Dy (1 to n-1) x K <Dx (n)
K is a margin for preventing erroneous determination of underline “_” and horizontal bar “−” as a prediction gesture, and is normally set to about 1.5, for example. As shown in FIG. 11, the configuration of the gesture determination unit when performing size determination is a configuration in which the position determination process 132 in FIG. 4 is replaced with a size determination process.

さらに、予測ジェスチャーの判定条件に位置関係を加えても良い。
例えば、
Xmax(1〜n-1)< X(n,N(n)) かつ(Ymin(1〜n-1)+ Ymax(1〜n-1))/2< Y(n,1)
という位置関係の判定条件を加える。これは、予測ジェスチャー(の始点)がそれまでのストロークよりも右側にあり、かつ下半分にあるという条件を意味する(図10(d))。
Further, the positional relationship may be added to the judgment condition for the prediction gesture.
For example,
Xmax (1 to n-1) <X (n, N (n)) and (Ymin (1 to n-1) + Ymax (1 to n-1)) / 2 <Y (n, 1)
The positional relationship judgment condition is added. This means that the prediction gesture (start point) is on the right side of the previous stroke and in the lower half (FIG. 10D).

また、ジェスチャー対象選択部17により書かれた筆跡のうちどの部分について予測を行うか(予測の対象)を予測ジェスチャーで指定することもできる。その場合、以下のように、予測の対象部分となる筆跡の下側を通るように予測ジェスチャーを書くように定める。図10(e)では、筆跡「とコン」のうち「コン」に続く文字列の予測を意味する。   It is also possible to specify with a prediction gesture which part of the handwriting written by the gesture target selection unit 17 is to be predicted (target of prediction). In that case, it is determined that the prediction gesture is written so as to pass below the handwriting that is the target portion of the prediction as follows. In FIG. 10 (e), it means prediction of a character string following “CON” in the handwriting “TO CON”.

このときのジェスチャー対象選択部17の動作を図12のフローチャートを用いて説明する。図12のフローチャートに従って、ストローク番号1からn-1のストロークの中から予測の対象を選択する(S21)。   The operation of the gesture target selection unit 17 at this time will be described with reference to the flowchart of FIG. According to the flowchart of FIG. 12, a prediction target is selected from the stroke numbers 1 to n-1 (S21).

まずは、予測対象集合Ωを空にして、予測対象の選択を始める(S22)。
ストローク番号iの最大値及び最小値を
Xmin(i),Ymin(i),Xmax(i),Ymax(i)
とする。予測ジェスチャーはストローク番号nである。
Xmin(n)≦Xmin(i) かつ
Xmax(i)≦Xmax(n) かつ
Ymax(i)<Ymin(n)
を満たすストローク番号iを予測対象とする(S23)。
予測対象の条件と一致するストロークを予測対象集合Ωに追加(S24)して、次のストロークについて予測対象選択をする(S25)。予測ジェスチャーのストローク番号の1つ前まで予測対象を選択すると、ジェスチャー対象選択部の処理を終了する(S26)。
First, the prediction target set Ω is emptied and selection of a prediction target is started (S22).
Set the maximum value and minimum value of stroke number i.
Xmin (i), Ymin (i), Xmax (i), Ymax (i)
And The prediction gesture is stroke number n.
Xmin (n) ≦ Xmin (i) and
Xmax (i) ≦ Xmax (n) and
Ymax (i) <Ymin (n)
The stroke number i that satisfies the condition is set as a prediction target (S23).
A stroke that matches the prediction target condition is added to the prediction target set Ω (S24), and a prediction target is selected for the next stroke (S25). When the prediction target is selected up to the previous stroke number of the prediction gesture, the process of the gesture target selection unit is ended (S26).

このように、本発明の他の実施例では、ストロークの形状だけからは判定するのが困難だった類似する形状を持つ文字とジェスチャーを区別し、筆記する文字列全体を筆記することなく省略した予測ジェスチャーを判定することができるので、タブレット等の筆記による文字入力の煩わしさを軽減することができる。   As described above, in another embodiment of the present invention, a character having a similar shape that was difficult to determine only from the shape of a stroke is distinguished from a gesture, and the entire character string to be written is omitted without writing. Since the prediction gesture can be determined, it is possible to reduce the trouble of inputting characters by writing on a tablet or the like.

筆記されたジェスチャーを示す図。The figure which shows the written gesture. 本発明の一実施例に係るジェスチャー装置の構成を示すブロック図。The block diagram which shows the structure of the gesture apparatus which concerns on one Example of this invention. 本発明の一実施例に係るジェスチャー装置の動作を示すフローチャート。The flowchart which shows operation | movement of the gesture apparatus which concerns on one Example of this invention. ジェスチャー判定部の詳細を示すブロック図。The block diagram which shows the detail of a gesture determination part. 形状判定処理結果を示す図。The figure which shows a shape determination process result. 方向パターンの基準を示す図。The figure which shows the reference | standard of a direction pattern. ジェスチャーDBの内容の一例を示す図。The figure which shows an example of the content of gesture DB. 位置判定処理を説明する図。The figure explaining a position determination process. 本発明の他の実施例に係るジェスチャー装置の構成を示すブロック図。The block diagram which shows the structure of the gesture apparatus which concerns on the other Example of this invention. 予測ジェスチャーの判定について説明する図。The figure explaining determination of a prediction gesture. ジェスチャー判定部の詳細を示すブロック図。The block diagram which shows the detail of a gesture determination part. 予測対象選択部の動作を示すフローチャート。The flowchart which shows operation | movement of a prediction object selection part.

符号の説明Explanation of symbols

11・・・座標入力部
12・・・座標抽出部
13・・・ジェスチャー判定部
14・・・ジェスチャー処理部
15・・・ストローク記憶部
16・・・ジェスチャーDB
17・・・ジェスチャー対象選択部
131・・・形状判定処理
132・・・位置判定処理
133・・・ジェスチャー判定処理
134・・・大小判定処理
DESCRIPTION OF SYMBOLS 11 ... Coordinate input part 12 ... Coordinate extraction part 13 ... Gesture determination part 14 ... Gesture processing part 15 ... Stroke memory | storage part 16 ... Gesture DB
17 ... Gesture target selection unit 131 ... Shape determination process 132 ... Position determination process 133 ... Gesture determination process 134 ... Size determination process

Claims (9)

入力された座標から座標が連続するストロークを出力する座標抽出手段と、前記座標抽出手段から出力される複数のストロークに対して、最新のストロークとそれまでのストロークとの位置関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うジェスチャー判定手段とを具備することを特徴とするジェスチャー処理装置。   Coordinate extraction means for outputting a stroke in which coordinates are continuous from the input coordinates, the positional relationship between the latest stroke and the previous stroke, and the latest stroke for a plurality of strokes output from the coordinate extraction means And a gesture determination means for performing gesture determination on the latest stroke based on the shape of the gesture processing device. 入力された座標から座標が連続するストロークを出力する座標抽出手段と、前記座標抽出手段から出力される複数のストロークに対して、最新のストロークとそれ以外のストロークとの大小関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うジェスチャー判定手段とを具備することを特徴とするジェスチャー処理装置。   Coordinate extraction means for outputting strokes in which coordinates are continuous from the input coordinates, the magnitude relationship between the latest stroke and the other strokes for the plurality of strokes output from the coordinate extraction means, and the latest stroke And a gesture determination means for performing gesture determination on the latest stroke based on the shape of the gesture processing device. 入力された座標から座標が連続するストロークを出力する座標抽出手段と、前記座標抽出手段から出力される複数のストロークに対して、最新のストロークとそれまでのストロークとの位置関係と、最新のストロークとそれ以外のストロークとの大小関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うジェスチャー判定手段とを具備することを特徴とするジェスチャー処理装置。   Coordinate extraction means for outputting a stroke in which coordinates are continuous from the input coordinates, the positional relationship between the latest stroke and the previous stroke, and the latest stroke for a plurality of strokes output from the coordinate extraction means A gesture processing apparatus comprising gesture determining means for performing gesture determination on the latest stroke based on a magnitude relationship between the stroke and other strokes and a shape of the latest stroke. 入力された座標から座標が連続するストロークを出力する座標抽出手段と、前記座標抽出手段から出力される複数のストロークに対して、最新のストロークとそれまでのストロークとの位置関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うジェスチャー判定手段と、最新のストロークとそれまでのストロークとの位置関係からそれまでのストロークの中からジェスチャーに対応する操作の対象を選択するジェスチャー対象選択手段とを具備することを特徴とするジェスチャー処理装置。   Coordinate extraction means for outputting a stroke in which coordinates are continuous from the input coordinates, the positional relationship between the latest stroke and the previous stroke, and the latest stroke for a plurality of strokes output from the coordinate extraction means Based on the shape of the stroke, the gesture determination means for determining the gesture with respect to the latest stroke, and the target of the operation corresponding to the gesture from the previous stroke based on the positional relationship between the latest stroke and the previous stroke. A gesture processing apparatus comprising: a gesture target selecting means for selecting. 入力された座標から座標が連続するストロークを出力する座標抽出手段と、前記座標抽出手段から出力される複数のストロークに対して、最新のストロークとそれ以外のストロークとの大小関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うジェスチャー判定手段と、最新のストロークとそれまでのストロークとの位置関係から、それまでのストロークの中からジェスチャーに対応する操作の対象を選択するジェスチャー対象選択手段とを具備することを特徴とするを備えるジェスチャー処理装置   Coordinate extraction means for outputting strokes in which coordinates are continuous from the input coordinates, the magnitude relationship between the latest stroke and the other strokes for the plurality of strokes output from the coordinate extraction means, and the latest stroke Based on the shape of the gesture, the gesture determination means for determining the gesture for the latest stroke, and the position of the latest stroke and the previous stroke, the target of the operation corresponding to the gesture from the previous stroke A gesture processing apparatus comprising: a gesture target selecting means for selecting 入力された座標から座標が連続するストロークを出力する座標抽出手段と、前記座標抽出手段から出力される複数のストロークに対して、最新のストロークとそれまでのストロークとの位置関係と、最新のストロークとそれ以外のストロークとの大小関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うジェスチャー判定手段と、最新のストロークとそれまでのストロークとの位置関係からそれまでのストロークの中からジェスチャーに対応する操作の対象を選択するジェスチャー対象選択手段とを具備することを特徴とするジェスチャー処理装置。   Coordinate extraction means for outputting a stroke in which coordinates are continuous from the input coordinates, the positional relationship between the latest stroke and the previous stroke, and the latest stroke for a plurality of strokes output from the coordinate extraction means Based on the magnitude relationship between the stroke and other strokes and the shape of the latest stroke, the gesture determination means for performing gesture determination on the latest stroke, and the positional relationship between the latest stroke and the previous stroke. A gesture processing apparatus comprising gesture target selection means for selecting an operation target corresponding to a gesture from the strokes up to. 前記座標抽出手段から出力されるストロークを記憶するストローク記憶手段を具備し、前記ジェスチャー判定部でジェスチャーと判定された場合、前記ストローク記憶手段からジェスチャーに該当するストロークを削除することを特徴とする請求項1乃至請求項6記載のジェスチャー処理装置。   A stroke storage unit that stores a stroke output from the coordinate extraction unit is provided, and when the gesture determination unit determines that the gesture is a gesture, the stroke corresponding to the gesture is deleted from the stroke storage unit. The gesture processing device according to any one of claims 1 to 6. 入力された座標から座標が連続するストロークを出力するステップと、このステップから出力される複数のストロークに対して、最新のストロークとそれまでのストロークとの位置関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うステップとを有することを特徴とするジェスチャー処理方法。   A step of outputting a continuous stroke from the input coordinates, the positional relationship between the latest stroke and the previous stroke, and the shape of the latest stroke for the multiple strokes output from this step And a step of performing gesture determination on the latest stroke based on the method. 入力された座標から座標が連続するストロークを出力するステップと、このステップから出力される複数のストロークに対して、最新のストロークとそれまでのストロークとの位置関係と、最新のストロークとそれ以外のストロークとの大小関係と、最新のストロークの形状とに基づいて、最新のストロークに対してジェスチャー判定を行うステップと、最新のストロークとそれまでのストロークとの位置関係からそれまでのストロークの中からジェスチャーに対応する操作の対象を選択するステップとを有することを特徴とするジェスチャー処理方法。   The step of outputting the stroke with continuous coordinates from the input coordinates, the positional relationship between the latest stroke and the previous stroke, and the latest stroke and other strokes for the multiple strokes output from this step Based on the magnitude relationship with the stroke and the shape of the latest stroke, the step of performing gesture judgment on the latest stroke, and the positional relationship between the latest stroke and the previous stroke, and the previous stroke And a step of selecting an operation target corresponding to the gesture.
JP2003386378A 2003-11-17 2003-11-17 Gesture processing device and gesture processing method Expired - Lifetime JP4287250B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003386378A JP4287250B2 (en) 2003-11-17 2003-11-17 Gesture processing device and gesture processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003386378A JP4287250B2 (en) 2003-11-17 2003-11-17 Gesture processing device and gesture processing method

Publications (2)

Publication Number Publication Date
JP2005149178A true JP2005149178A (en) 2005-06-09
JP4287250B2 JP4287250B2 (en) 2009-07-01

Family

ID=34694077

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003386378A Expired - Lifetime JP4287250B2 (en) 2003-11-17 2003-11-17 Gesture processing device and gesture processing method

Country Status (1)

Country Link
JP (1) JP4287250B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316889A (en) * 2006-05-25 2007-12-06 Xanavi Informatics Corp On-vehicle electronic apparatus
KR100791362B1 (en) 2006-06-09 2008-01-03 한국과학기술원 Multimedia storytelling system and method using Baby Sign Recognition
JP2008203973A (en) * 2007-02-16 2008-09-04 Softbank Mobile Corp Operation input processing method and portable information processor
JP2012123608A (en) * 2010-12-08 2012-06-28 Nippon Syst Wear Kk Gesture recognition device, method, program and computer readable medium storing program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007316889A (en) * 2006-05-25 2007-12-06 Xanavi Informatics Corp On-vehicle electronic apparatus
KR100791362B1 (en) 2006-06-09 2008-01-03 한국과학기술원 Multimedia storytelling system and method using Baby Sign Recognition
JP2008203973A (en) * 2007-02-16 2008-09-04 Softbank Mobile Corp Operation input processing method and portable information processor
JP2012123608A (en) * 2010-12-08 2012-06-28 Nippon Syst Wear Kk Gesture recognition device, method, program and computer readable medium storing program

Also Published As

Publication number Publication date
JP4287250B2 (en) 2009-07-01

Similar Documents

Publication Publication Date Title
JP4742132B2 (en) Input device, image processing program, and computer-readable recording medium
US7502017B1 (en) Handwriting recognizer user interface methods
US20140297276A1 (en) Editing apparatus, editing method, and computer program product
JP2004342101A (en) Data processing device and method
JP5661549B2 (en) Character recognition device for recognizing characters on a form, mask processing method, and mask processing program
JP4632886B2 (en) Braille translation apparatus, Braille translation method, Braille translation program, and computer-readable recording medium recording the same
JP4287250B2 (en) Gesture processing device and gesture processing method
JP4312429B2 (en) Handwriting input device and method, handwriting input program, and program recording medium
CN115004262B (en) Method and computing device for processing list in handwriting
JP2008027133A (en) Form processor, form processing method, program for executing form processing method, and recording medium
JP4698308B2 (en) Character input device, character input program, and recording medium for recording character input program
JP3217084B2 (en) Handwritten character recognition device
JP2005190199A (en) Handwritten character input display device, handwritten character input display method, and program of the same
JP3469816B2 (en) Gesture processing device and gesture processing method
JP6772629B2 (en) Information processing device, character input program and character input method
JP2006134360A (en) Handwritten character input apparatus
JP2007171808A (en) Information processor
JP6940625B2 (en) Input information correction method and information terminal
JP6471796B2 (en) Information processing apparatus, information processing apparatus control method, and program
KR101669799B1 (en) Apparatus and method for processing ink text
JPH05128297A (en) Character recognition device
JP2731394B2 (en) Character input device
JP2991909B2 (en) Document processing apparatus and document processing method
JPH01292586A (en) Back-up device for recognition of character
JP2010204745A (en) Document processing apparatus and document processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050415

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070817

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20071109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080108

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080128

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20080215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090326

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4287250

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120403

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130403

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140403

Year of fee payment: 5

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

Free format text: JAPANESE INTERMEDIATE CODE: R313121

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

EXPY Cancellation because of completion of term