JP2012203563A - Operation input detection device using touch panel - Google Patents

Operation input detection device using touch panel Download PDF

Info

Publication number
JP2012203563A
JP2012203563A JP2011066350A JP2011066350A JP2012203563A JP 2012203563 A JP2012203563 A JP 2012203563A JP 2011066350 A JP2011066350 A JP 2011066350A JP 2011066350 A JP2011066350 A JP 2011066350A JP 2012203563 A JP2012203563 A JP 2012203563A
Authority
JP
Japan
Prior art keywords
pattern
stroke
operation input
unit
touch panel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011066350A
Other languages
Japanese (ja)
Other versions
JP5682394B2 (en
Inventor
Zen Kon
禅 近
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2011066350A priority Critical patent/JP5682394B2/en
Publication of JP2012203563A publication Critical patent/JP2012203563A/en
Application granted granted Critical
Publication of JP5682394B2 publication Critical patent/JP5682394B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately detect operation input given as a gesture of a finger.SOLUTION: On the basis of signals from a touch panel 10, a finger contact representative point is recognized by a representative point recognition part 110, and the change pattern is analyzed in a pattern analysis part 120. A sample pattern sampling part 130 instructs a display device 20 to make a prescribed gesture, and stores an analysis pattern obtained at the time in a sample pattern storage part 150 as a sample pattern of the gesture. An operation input pattern sampling part 140 samples an analysis pattern obtained when detection request signals are given from an external unit 200 as an operation input pattern, and a pattern selection part 160 selects a pattern that matches the sampled pattern from the sample pattern storage part 150. A detection result output part 170 returns a detection result signal indicating the gesture corresponding to the selected pattern to the external unit 200.

Description

本発明は、タッチパネルを用いた操作入力検知装置に関し、特に、指を用いて行われたジェスチャーによる操作入力を検知する技術に関する。   The present invention relates to an operation input detection apparatus using a touch panel, and more particularly to a technique for detecting an operation input by a gesture performed using a finger.

タッチパネルは、様々な電子機器に対する入力手段として広く利用されており、コンピュータに対する入力装置としても、キーボードやマウスとともに普及しているデバイスである。たとえば、多くのノート型パソコンには、キーボードに隣接してタッチパネル(タッチパッド)が設けられ、マウスの代用となる入力機器として利用されている。また、キーボードを備えていないタブレット型のパソコン、携帯電話、その他の電子機器にもタッチパネルが利用されてきており、このような電子機器では、ディスプレイ画面がタッチパネルのタッチ面を構成し、ユーザからの操作入力を受け付ける構成になっている。   The touch panel is widely used as an input unit for various electronic devices, and is a device that is widely used together with a keyboard and a mouse as an input device for a computer. For example, many notebook personal computers are provided with a touch panel (touch pad) adjacent to a keyboard, and are used as input devices instead of a mouse. In addition, touch panels have been used for tablet PCs, mobile phones, and other electronic devices that do not have a keyboard. In such electronic devices, the display screen constitutes the touch surface of the touch panel, and the touch screen from the user. It is configured to accept operation input.

タッチパネルは、原理的には、ユーザの指が触れた位置を特定するデバイスであるが、指の接触位置の時間的変遷を解析することにより、指を用いて行われたジェスチャーによる操作入力を検知することが可能になる。特に、最近では、マルチタッチ入力が可能なタッチパネル装置が普及し始めており、複数の指によって行われた様々なジェスチャーを検知する技術が実用化している。この技術を利用すれば、ユーザは、タッチパネルに対して指を用いたジェスチャーを行うだけで、様々な指示を入力することが可能になる。   In principle, a touch panel is a device that identifies the position touched by a user's finger. By analyzing the temporal transition of the finger touch position, operation input by gestures performed using the finger is detected. It becomes possible to do. In particular, recently, touch panel devices capable of multi-touch input have begun to spread, and techniques for detecting various gestures performed by a plurality of fingers have been put into practical use. If this technique is used, the user can input various instructions simply by performing a gesture using a finger on the touch panel.

たとえば、下記の特許文献1には、アナログ抵抗膜方式のマルチタッチ対応型タッチパネル装置の構成が開示されており、特許文献2には、静電容量方式のマルチタッチ対応型タッチパネル装置の構成が開示されている。また、特許文献3には、このようなマルチタッチ対応型タッチパネル装置を用いて、ユーザが行った様々なジェスチャー動作を検知する技術が開示されている。具体的には、各指のタッチ面上での移動動作を組み合わせることにより、スライド、回転などのジェスチャーにより操作入力を行うことができる。   For example, the following Patent Document 1 discloses a configuration of an analog resistive film type multi-touch compatible touch panel device, and Patent Document 2 discloses a configuration of a capacitance type multi-touch compatible touch panel device. Has been. Patent Document 3 discloses a technique for detecting various gesture operations performed by a user using such a multi-touch type touch panel device. Specifically, by combining the movement operation of each finger on the touch surface, operation input can be performed by gestures such as slide and rotation.

特開2010−26641号公報JP 2010-26641 A 特開2008−097609号公報JP 2008-097609 A 特表2009−525538号公報Special table 2009-525538

タッチパネルを用いてユーザからの操作入力をジェスチャーとして受け付ける場合、ユーザがどのジェスチャーを行ったのかを正確に認識することが重要である。ところが、タッチパネルは、抵抗膜の抵抗変化や静電容量素子の容量変化などを電気的に検出する仕組を利用した装置であるため、使用する場所の温度や湿度などの環境によって、出力信号の強度が変化する性質をもっている。その上、ユーザによって、指の太さ、タッチパネルに対する押圧力、指の接触角度などに個人差が生じるため、従来提案されている技術では、ユーザが行ったジェスチャーを正確に認識することは困難である。   When accepting an operation input from a user as a gesture using a touch panel, it is important to accurately recognize which gesture the user has performed. However, a touch panel is a device that uses a mechanism that electrically detects resistance changes in resistive films, capacitance changes in capacitive elements, etc., so the strength of the output signal depends on the environment such as temperature and humidity in the location where it is used. Has a changing nature. In addition, there are individual differences in finger thickness, pressure on the touch panel, finger contact angle, etc., depending on the user, so it is difficult to accurately recognize the gesture performed by the user with the conventionally proposed technology. is there.

特に、マルチタッチ対応型タッチパネル装置を用いた場合、1本指によるジェスチャー、2本指によるジェスチャー、3本指によるジェスチャー、...などを混在させることが可能になり、多数のジェスチャーを定義して用いることができる。ところが、定義するジェスチャーの数が増えれば増えるほど、実際にユーザが行ったジェスチャーがどのジェスチャーであるのかを正確に認識することが難しくなる。ユーザが行ったジェスチャーが誤認識されると、電子機器に対しては、ユーザが意図した操作入力とは全く異なる別な操作入力が与えられることになるので、ユーザは、誤認識された操作入力を取り消す操作を行った上で、ジェスチャーをやり直す必要があり、操作性が低下することは避けられない。   In particular, when a multi-touch type touch panel device is used, it is possible to mix gestures with one finger, gestures with two fingers, gestures with three fingers, etc., and many gestures can be defined. Can be used. However, as the number of gestures to be defined increases, it becomes more difficult to accurately recognize which gesture the user actually performed. If the gesture performed by the user is erroneously recognized, another operation input that is completely different from the operation input intended by the user is given to the electronic device. It is necessary to redo the gesture after performing the operation of canceling, and it is inevitable that the operability will deteriorate.

そこで本発明は、ユーザからタッチ面上でのジェスチャーとして与えられた操作入力を正確に検知することができるタッチパネルを用いた操作入力検知装置を提供することを目的とする。   Therefore, an object of the present invention is to provide an operation input detection device using a touch panel that can accurately detect an operation input given as a gesture on a touch surface by a user.

(1) 本発明の第1の態様は、タッチパネルを用いた操作入力検知装置において、
タッチ面に対するユーザの指の接触状態を検知するタッチパネル装置と、ユーザに提示する情報を表示するディスプレイ装置と、デジタル処理ユニットと、を設け、
デジタル処理ユニットを、
タッチパネル装置から与えられる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する代表点認識部と、
代表点認識部の認識結果に基づいて、接触状態の時間的な変化態様を解析して解析パターンを得るパターン解析部と、
ディスプレイ装置の画面上にタッチ面上で複数m通りのジェスチャーを行う旨の指示を表示し、当該指示に基づくユーザのm通りのジェスチャー動作についてパターン解析部によって得られた各解析パターンを、それぞれサンプルパターンとして採取するサンプルパターン採取部と、
第k番目(1≦k≦m)のジェスチャーを行う旨の指示を表示したときに採取された解析パターンを、第k番目のジェスチャーに対応するサンプルパターンとして格納するサンプルパターン格納部と、
外部から操作入力の検知を要求する検知要求信号が与えられた後に、パターン解析部によって得られた解析パターンを操作入力パターンとして採取する操作入力パターン採取部と、
採取された操作入力パターンを、サンプルパターン格納部に格納されている複数m通りのサンプルパターンと比較し、合致もしくは近似したサンプルパターンを選択するパターン選択部と、
パターン選択部で選択されたサンプルパターンに対応するジェスチャーを示す情報を、操作入力の検知結果を示す検知結果信号として外部へ出力する検知結果出力部と、
によって構成するようにしたものである。
(1) According to a first aspect of the present invention, in the operation input detection device using a touch panel,
A touch panel device that detects a contact state of the user's finger with respect to the touch surface, a display device that displays information to be presented to the user, and a digital processing unit,
Digital processing unit
Based on a detection signal given from the touch panel device, a representative point recognition unit that recognizes a temporal transition of a representative point indicating a representative position of a contact area of a user's finger,
Based on the recognition result of the representative point recognition unit, a pattern analysis unit that analyzes the temporal change state of the contact state and obtains an analysis pattern;
An instruction to perform a plurality of m gestures on the touch surface is displayed on the screen of the display device, and each analysis pattern obtained by the pattern analysis unit for the m gesture operations of the user based on the instructions is sampled. A sample pattern collection unit to collect as a pattern;
A sample pattern storage unit that stores an analysis pattern collected when an instruction to perform the k-th (1 ≦ k ≦ m) gesture is displayed as a sample pattern corresponding to the k-th gesture;
An operation input pattern collection unit that collects an analysis pattern obtained by the pattern analysis unit as an operation input pattern after a detection request signal for requesting detection of an operation input is given from the outside,
A pattern selection unit that compares the collected operation input patterns with a plurality of m sample patterns stored in the sample pattern storage unit, and selects a sample pattern that matches or approximates;
A detection result output unit that outputs information indicating a gesture corresponding to the sample pattern selected by the pattern selection unit to the outside as a detection result signal indicating a detection result of the operation input;
It is made up by.

(2) 本発明の第2の態様は、上述した第1の態様に係るタッチパネルを用いた操作入力検知装置において、
デジタル処理ユニットが、現在利用中のユーザを特定する情報を入力しこれを保存するユーザ特定部を更に備え、
サンプルパターン採取部が、ユーザ特定部によって特定されたユーザごとにそれぞれ独立してサンプルパターンを採取し、
サンプルパターン格納部が、ユーザ特定部によって特定されたユーザごとにそれぞれ独立してサンプルパターンを格納し、
パターン選択部が、ユーザ特定部によって特定されたユーザについてのサンプルパターンとの比較を行うことによりパターン選択を行うようにしたものである。
(2) According to a second aspect of the present invention, in the operation input detection device using the touch panel according to the first aspect described above,
The digital processing unit further includes a user specifying unit that inputs information for specifying a user currently in use and stores the information.
The sample pattern collecting unit collects the sample pattern independently for each user specified by the user specifying unit,
The sample pattern storage unit stores the sample pattern independently for each user specified by the user specifying unit,
The pattern selection unit performs pattern selection by comparing with a sample pattern for the user specified by the user specifying unit.

(3) 本発明の第3の態様は、上述した第1または第2の態様に係るタッチパネルを用いた操作入力検知装置において、
サンプルパターン採取部が、タッチパネル装置のタッチ面を分割することによって得られる複数の領域について、それぞれ別個にジェスチャーを行う旨の指示を表示し、個々の領域ごとにそれぞれサンプルパターンを採取し、
サンプルパターン格納部が、個々の領域ごとにそれぞれ別個独立したサンプルパターンを格納し、
パターン選択部が、ジェスチャーが行われた主たる領域を認識し、当該認識領域についてのサンプルパターンとの比較を行うことによりパターン選択を行うようにしたものである。
(3) According to a third aspect of the present invention, in the operation input detection device using the touch panel according to the first or second aspect described above,
The sample pattern collecting unit displays an instruction to perform a gesture separately for each of a plurality of areas obtained by dividing the touch surface of the touch panel device, and collects a sample pattern for each area,
The sample pattern storage unit stores individual and independent sample patterns for each area,
The pattern selection unit recognizes the main area where the gesture is performed, and performs pattern selection by comparing with the sample pattern for the recognition area.

(4) 本発明の第4の態様は、上述した第3の態様に係るタッチパネルを用いた操作入力検知装置において、
タッチパネル装置が長方形のタッチ面を有しており、
サンプルパターン採取部が、タッチ面を横長状態で利用する横長モードと、タッチ面を縦長状態で利用する縦長モードと、について、それぞれ別個独立したサンプルパターンを採取し、
サンプルパターン格納部が、横長モードと縦長モードとについて、それぞれ別個独立してサンプルパターンを格納し、
パターン選択部が、現時点のモードを認識する機能を有し、当該認識モードについてのサンプルパターンとの比較を行うことによりパターン選択を行うようにしたものである。
(4) According to a fourth aspect of the present invention, in the operation input detection device using the touch panel according to the third aspect described above,
The touch panel device has a rectangular touch surface,
The sample pattern collection unit collects independent and independent sample patterns for the landscape mode that uses the touch surface in the landscape state and the portrait mode that uses the touch surface in the portrait state,
The sample pattern storage unit stores the sample pattern separately for each of the landscape mode and portrait mode,
The pattern selection unit has a function of recognizing the current mode, and performs pattern selection by comparing with a sample pattern for the recognition mode.

(5) 本発明の第5の態様は、上述した第4の態様に係るタッチパネルを用いた操作入力検知装置において、
タッチパネル装置が重力加速度を検出するセンサを有し、
パターン選択部が、センサの出力信号に基づいて現時点のモードを認識する機能を有するようにしたものである。
(5) According to a fifth aspect of the present invention, in the operation input detection device using the touch panel according to the fourth aspect described above,
The touch panel device has a sensor for detecting gravitational acceleration,
The pattern selection unit has a function of recognizing the current mode based on the output signal of the sensor.

(6) 本発明の第6の態様は、上述した第1〜第5の態様に係るタッチパネルを用いた操作入力検知装置において、
タッチパネル装置が、タッチ面上の個々の位置について指の接触度を示す信号を出力し、
代表点認識部が、接触度が所定の基準値以上の値を示すタッチ面上の閉領域を接触領域と認識し、「接触領域内で接触度がピークとなる位置」もしくは「タッチ面を水平面とし、接触度を高さ方向にとった座標系において、接触領域上に形成される山の重心位置」を代表点と認識するようにしたものである。
(6) According to a sixth aspect of the present invention, in the operation input detection device using the touch panel according to the first to fifth aspects described above,
The touch panel device outputs a signal indicating the degree of finger contact for each position on the touch surface,
The representative point recognition unit recognizes a closed region on the touch surface where the contact degree is a value greater than or equal to a predetermined reference value as a contact region, and “a position where the contact degree reaches a peak in the contact region” or “the touch surface is horizontal. In the coordinate system in which the degree of contact is taken in the height direction, the position of the center of gravity of the mountain formed on the contact area is recognized as a representative point.

(7) 本発明の第7の態様は、上述した第1〜第6の態様に係るタッチパネルを用いた操作入力検知装置において、
代表点認識部が、各接触領域について、タッチ面上に定義された二次元XY座標系における代表点の座標値(x,y)および現在時刻tを認識し、値(x,y,t)を含む代表点データを所定の時間間隔で出力し、
パターン解析部が、代表点データに基づいて、解析パターンを得るようにしたものである。
(7) According to a seventh aspect of the present invention, in the operation input detection device using the touch panel according to the first to sixth aspects described above,
The representative point recognition unit recognizes the coordinate value (x, y) and the current time t of the representative point in the two-dimensional XY coordinate system defined on the touch surface for each contact area, and the value (x, y, t). The representative point data including is output at a predetermined time interval,
The pattern analysis unit obtains an analysis pattern based on the representative point data.

(8) 本発明の第8の態様は、上述した第7の態様に係るタッチパネルを用いた操作入力検知装置において、
タッチパネル装置が、タッチ面上の個々の位置について指の接触度を示す信号を出力し、
代表点認識部が、各接触領域について、更に「接触領域内の接触度のピーク値」もしくは「タッチ面を水平面とし、接触度を高さ方向にとった座標系において、接触領域上に形成される山の体積」を接触領域の強度値aと認識し、値(x,y,a,t)を含む代表点データQ(x,y,a,t)を所定の時間間隔で出力し、
パターン解析部が、代表点データQ(x,y,a,t)に基づいて、解析パターンを得るようにしたものである。
(8) According to an eighth aspect of the present invention, in the operation input detection device using the touch panel according to the seventh aspect described above,
The touch panel device outputs a signal indicating the degree of finger contact for each position on the touch surface,
For each contact area, a representative point recognition unit is further formed on the contact area in a coordinate system in which the “contact level peak value in the contact area” or “the touch surface is a horizontal plane and the contact level is in the height direction”. The volume of the mountain ”is recognized as the intensity value a of the contact area, and representative point data Q (x, y, a, t) including the value (x, y, a, t) is output at a predetermined time interval.
The pattern analysis unit obtains an analysis pattern based on the representative point data Q (x, y, a, t).

(9) 本発明の第9の態様は、上述した第8の態様に係るタッチパネルを用いた操作入力検知装置において、
パターン解析部が、値aが所定の基準値以上の代表点データQ(x,y,a,t)のみに基づいてパターンの解析を行うようにしたものである。
(9) According to a ninth aspect of the present invention, in the operation input detection device using the touch panel according to the eighth aspect described above,
The pattern analysis unit analyzes the pattern based only on the representative point data Q (x, y, a, t) whose value a is equal to or greater than a predetermined reference value.

(10) 本発明の第10の態様は、上述した第7〜9の態様に係るタッチパネルを用いた操作入力検知装置において、
パターン解析部が、
代表点データを格納する代表点データ格納部と、
代表点データに基づいて、同一の指の動きを示す複数の代表点の集合体からなるストロークを認識するストローク認識部と、
ストローク認識部によって認識された個々のストロークの特性を認識する特性認識部と、
ストローク認識部および特性認識部による認識結果に基づいて、固有の特性をもった1つのストロークもしくは複数のストロークの組み合わせを1つのパターンに対応づけることにより、解析パターンを決定するパターン決定部と、
を有するようにしたものである。
(10) According to a tenth aspect of the present invention, in the operation input detection device using the touch panel according to the seventh to ninth aspects described above,
The pattern analyzer
A representative point data storage unit for storing representative point data;
Based on the representative point data, a stroke recognizing unit for recognizing a stroke composed of an aggregate of a plurality of representative points indicating the same finger movement;
A characteristic recognition unit for recognizing the characteristics of individual strokes recognized by the stroke recognition unit;
A pattern determination unit for determining an analysis pattern by associating one stroke having a unique characteristic or a combination of a plurality of strokes with one pattern based on the recognition result by the stroke recognition unit and the characteristic recognition unit;
It is made to have.

(11) 本発明の第11の態様は、上述した第10の態様に係るタッチパネルを用いた操作入力検知装置において、
ストローク認識部が、代表点認識部から出力された時間的に連続した一群の代表点データに基づいて、第i番目の時刻tに得られた代表点と第(i−1)番目の時刻ti−1に得られた代表点との距離が所定の基準以下となる2つの代表点を同一のストロークに所属する代表点と認識することにより、ストロークの認識を行うようにしたものである。
(11) According to an eleventh aspect of the present invention, in the operation input detection device using the touch panel according to the tenth aspect described above,
Stroke identification unit, based on the set of representative point data are temporally continuous output from the representative point recognition unit, a representative point obtained to the i-th time t i (i-1) th time The stroke is recognized by recognizing two representative points whose distance from the representative point obtained at t i-1 is equal to or less than a predetermined reference as representative points belonging to the same stroke. .

(12) 本発明の第12の態様は、上述した第10または第11の態様に係るタッチパネルを用いた操作入力検知装置において、
特性認識部が、少なくとも、1つのストロークを構成する複数の代表点を時系列に沿った順番で連結した場合の連結線の長さの総和を示すストローク長Lと、ストロークの湾曲の程度を示すストローク湾曲度Cとを、当該ストロークの特性を示す値として算出するようにしたものである。
(12) According to a twelfth aspect of the present invention, in the operation input detection device using the touch panel according to the tenth or eleventh aspect described above,
The characteristic recognition unit indicates at least the stroke length L indicating the sum of the lengths of the connecting lines when a plurality of representative points constituting one stroke are connected in order along the time series, and the degree of curvature of the stroke. The stroke curvature C is calculated as a value indicating the characteristics of the stroke.

(13) 本発明の第13の態様は、上述した第12の態様に係るタッチパネルを用いた操作入力検知装置において、
特性認識部が、合計n個の代表点の集合体からなるストロークについて、第i番目の代表点Qの座標値を(x,y)とし、第(i−1)番目の代表点Qi−1の座標値を(xi−1,yi−1)とし、代表点Qi−1から代表点Qへ向かうベクトルをV、第(i−2)番目の代表点Qi−2から代表点Qi−1へ向かうベクトルをVi−1とし、ベクトルVがベクトルVi−1に対してなす角度を変位角φとしたときに、
L=Σ i=2〜n ((x−xi−1+(y−yi−11/2
C=Σ i=3〜n ((x−xi−1+(y−yi−11/2・φ
/Σ i=3〜n ((x−xi−1+(y−yi−11/2
なる演算によって、ストローク長Lおよびストローク湾曲度Cを算出するようにしたものである。
(13) According to a thirteenth aspect of the present invention, in the operation input detection device using the touch panel according to the twelfth aspect described above,
The characteristic recognizing unit sets the coordinate value of the i-th representative point Q i to (x i , y i ) and (i−1) -th representative point for a stroke composed of a total of n representative points. The coordinate value of Q i-1 is (x i-1 , y i-1 ), the vector from the representative point Q i -1 to the representative point Q i is V i , and the (i-2) -th representative point Q When a vector from i-2 to the representative point Q i-1 is V i-1 and an angle formed by the vector V i with respect to the vector V i-1 is a displacement angle φ i ,
L = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
C = Σ i = 3 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · φ i
/ Σ i = 3 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
In this way, the stroke length L and the stroke curvature C are calculated.

(14) 本発明の第14の態様は、上述した第12または第13の態様に係るタッチパネルを用いた操作入力検知装置において、
パターン決定部が、ストローク長Lおよびストローク湾曲度Cに基づいて各ストロークを複数の種別に分類し、特定の種別もしくはその組み合わせに対して特定の解析パターンを対応させることにより、解析パターンを決定するようにしたものである。
(14) According to a fourteenth aspect of the present invention, in the operation input detection device using the touch panel according to the twelfth or thirteenth aspect described above,
The pattern determining unit classifies each stroke into a plurality of types based on the stroke length L and the stroke curvature C, and determines an analysis pattern by associating a specific analysis pattern with a specific type or a combination thereof. It is what I did.

(15) 本発明の第15の態様は、上述した第14の態様に係るタッチパネルを用いた操作入力検知装置において、
パターン決定部が、ストローク長Lが所定の基準値Lth未満のストロークを「点ストローク」なる種別に分類し、ストローク長Lが基準値Lth以上のストロークを「線ストローク」とし、「線ストローク」のうち、湾曲度Cの絶対値が所定の基準値Cth未満のストロークを「直線ストローク」なる種別に分類し、「線ストローク」のうち、湾曲度Cの絶対値が基準値Cth以上のストロークを「曲線ストローク」なる種別に分類し、「点ストローク」、「直線ストローク」、「曲線ストローク」なる種別もしくはこれらの組み合わせに対してそれぞれ特定の解析パターンを対応づけることにより、解析パターンの決定を行うようにしたものである。
(15) According to a fifteenth aspect of the present invention, in the operation input detection device using the touch panel according to the fourteenth aspect described above,
The pattern determination unit classifies strokes having a stroke length L less than a predetermined reference value Lth into a type of “point stroke”, sets strokes having a stroke length L equal to or greater than the reference value Lth as “line strokes”, Of these strokes, strokes having an absolute value of curvature C less than a predetermined reference value Cth are classified into types of “linear strokes”. Among “line strokes”, strokes having an absolute value of curvature C of at least the reference value Cth are classified as “ The analysis pattern is determined by classifying it into a type of “curve stroke” and associating a specific analysis pattern with the type of “point stroke”, “linear stroke”, “curve stroke”, or a combination thereof. It is a thing.

(16) 本発明の第16の態様は、上述した第15の態様に係るタッチパネルを用いた操作入力検知装置において、
ストロークが時計まわりに回転する場合と反時計まわりに回転する場合とで、互いに符号が異なるようにストローク湾曲度Cを定め、
パターン決定部が、ストローク湾曲度Cの符号に基づいて、「曲線ストローク」なる種別を、更に「時計まわり曲線ストローク」と「反時計まわり曲線ストローク」との2通りの種別に分けて取り扱い、パターンの決定を行うようにしたものである。
(16) According to a sixteenth aspect of the present invention, in the operation input detection device using the touch panel according to the fifteenth aspect described above,
The stroke curvature C is determined so that the sign differs between when the stroke rotates clockwise and when it rotates counterclockwise,
The pattern determining unit handles the type of “curve stroke” based on the sign of stroke curvature C, and further classifies it into two types of “clockwise curved stroke” and “counterclockwise curved stroke” The decision is made.

(17) 本発明の第17の態様は、上述した第15または第16の態様に係るタッチパネルを用いた操作入力検知装置において、
特性認識部が、更に、XY平面上でのストローク全体の方位を示すストローク方位Bを、当該ストロークの特性を示す値として算出するようにしたものである。
(17) According to a seventeenth aspect of the present invention, in the operation input detection device using the touch panel according to the fifteenth or sixteenth aspect described above,
The characteristic recognizing unit further calculates a stroke direction B indicating the direction of the entire stroke on the XY plane as a value indicating the characteristic of the stroke.

(18) 本発明の第18の態様は、上述した第17の態様に係るタッチパネルを用いた操作入力検知装置において、
特性認識部が、合計n個の代表点の集合体からなるストロークについて、第(i−1)番目の代表点Qi−1から第i番目の代表点Qへ向かうベクトルVが所定の基準座標軸に対してなす角度を方位角θとしたときに、
B=Σ i=2〜n ((x−xi−1+(y−yi−11/2・θ
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
なる演算によって、ストローク方位Bを算出するようにしたものである。
(18) According to an eighteenth aspect of the present invention, in the operation input detection device using the touch panel according to the seventeenth aspect described above,
The characteristic recognizing unit has a predetermined vector V i from the (i−1) -th representative point Q i−1 to the i-th representative point Q i for a stroke composed of a total of n representative points. When the angle formed with respect to the reference coordinate axis is azimuth angle θ i ,
B = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · θ i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
The stroke azimuth B is calculated by the following calculation.

(19) 本発明の第19の態様は、上述した第17または第18の態様に係るタッチパネルを用いた操作入力検知装置において、
パターン決定部が、ストローク方位Bに基づいて、「直線ストローク」なる種別を、更に、方位の異なる複数W通りの種別に分けて取り扱い、パターンの決定を行うようにしたものである。
(19) According to a nineteenth aspect of the present invention, in the operation input detection device using the touch panel according to the seventeenth or eighteenth aspect described above,
Based on the stroke direction B, the pattern determination unit handles the type of “straight stroke” by further dividing it into a plurality of W types having different directions, and determines the pattern.

(20) 本発明の第20の態様は、上述した第15〜第19の態様に係るタッチパネルを用いた操作入力検知装置において、
特性認識部が、更に、XY平面上でのストロークの位置を示すストローク位置Pを、当該ストロークの特性を示す値として算出するようにしたものである。
(20) According to a twentieth aspect of the present invention, in the operation input detection device using the touch panel according to the fifteenth to nineteenth aspects described above,
The characteristic recognizing unit further calculates a stroke position P indicating the position of the stroke on the XY plane as a value indicating the characteristic of the stroke.

(21) 本発明の第21の態様は、上述した第20の態様に係るタッチパネルを用いた操作入力検知装置において、
特性認識部が、合計n個の代表点の集合体からなるストロークについて、第i番目の代表点Qの座標値を(x,y)とし、第(i−1)番目の代表点Qi−1の座標値を(xi−1,yi−1)としたときに、
xp=Σ i=2〜n ((x−xi−1+(y−yi−11/2・x
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
yp=Σ i=2〜n ((x−xi−1+(y−yi−11/2・y
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
なる演算によって、ストローク位置P(xp,yp)の座標値を算出するようにしたものである。
(21) According to a twenty-first aspect of the present invention, in the operation input detection device using the touch panel according to the twentieth aspect described above,
The characteristic recognizing unit sets the coordinate value of the i-th representative point Q i to (x i , y i ) and (i−1) -th representative point for a stroke composed of a total of n representative points. When the coordinate value of Q i-1 is (x i-1 , y i-1 ),
xp = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · x i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
yp = Σ i = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · y i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
Thus, the coordinate value of the stroke position P (xp, yp) is calculated.

(22) 本発明の第22の態様は、上述した第20または第21の態様に係るタッチパネルを用いた操作入力検知装置において、
パターン決定部が、複数のストロークを含むパターンに対しては、ストローク位置Pを参照することにより相互位置関係を把握し、相互位置関係が異なるパターンを区別してパターンの決定を行うようにしたものである。
(22) According to a twenty-second aspect of the present invention, in the operation input detection device using the touch panel according to the twentieth or twenty-first aspect described above,
For a pattern including a plurality of strokes, the pattern determining unit grasps the mutual positional relationship by referring to the stroke position P, and determines the pattern by distinguishing patterns having different mutual positional relationships. is there.

(23) 本発明の第23の態様は、上述した第10〜第22の態様に係るタッチパネルを用いた操作入力検知装置において、
パターン選択部が、採取された操作入力パターンに合致するサンプルパターンが存在しない場合に、操作入力パターンに含まれるストロークの特性に近似した特性をもったストロークを含む近似サンプルパターンを選択するようにしたものである。
(23) According to a twenty-third aspect of the present invention, in the operation input detection device using the touch panel according to the tenth to twenty-second aspects described above,
The pattern selection unit selects an approximate sample pattern that includes a stroke with characteristics that approximate the characteristics of the stroke included in the operation input pattern when there is no sample pattern that matches the collected operation input pattern. Is.

(24) 本発明の第24の態様は、上述した第23の態様に係るタッチパネルを用いた操作入力検知装置において、
デジタル処理ユニットが、検知結果出力部が過去に出力した検知結果の履歴を格納する履歴格納部を更に備え、
パターン選択部が、近似サンプルパターンを選択する際に、上記履歴を参照し、過去の選択頻度が高いサンプルパターンほど、より近似するサンプルパターンとする判断を行うようにしたものである。
(24) According to a twenty-fourth aspect of the present invention, in the operation input detection device using the touch panel according to the twenty-third aspect described above,
The digital processing unit further includes a history storage unit that stores a history of detection results output in the past by the detection result output unit,
When the pattern selection unit selects an approximate sample pattern, the history is referred to, and a sample pattern having a higher past selection frequency is determined to be a more approximate sample pattern.

(25) 本発明の第25の態様は、上述した第12〜第22の態様に係るタッチパネルを用いた操作入力検知装置において、
パターン選択部が、採取された操作入力パターンに合致するもしくは近似するサンプルパターンが存在しない場合に、操作入力パターンに含まれる複数のストロークのうち、ストローク長Lの最も短いストロークを削除した修正操作入力パターンを作成し、修正操作入力パターンに合致するサンプルパターンを選択するようにしたものである。
(25) According to a twenty-fifth aspect of the present invention, in the operation input detection device using the touch panel according to the twelfth to twenty-second aspects described above,
When the pattern selection unit has no sample pattern that matches or approximates the collected operation input pattern, a corrected operation input in which the stroke with the shortest stroke length L is deleted from the plurality of strokes included in the operation input pattern A pattern is created, and a sample pattern that matches the correction operation input pattern is selected.

(26) 本発明の第26の態様は、上述した第1〜第25の態様に係るタッチパネルを用いた操作入力検知装置において、
タッチパネル装置およびディスプレイ装置を、表示画面がタッチ面を構成するタッチパネル付ディスプレイ装置によって構成したものである。
(26) According to a twenty-sixth aspect of the present invention, in the operation input detection device using the touch panel according to the first to the twenty-fifth aspects described above,
The touch panel device and the display device are configured by a display device with a touch panel in which a display screen forms a touch surface.

(27) 本発明の第27の態様は、上述した第1〜第26の態様に係るタッチパネルを用いた操作入力検知装置と、
当該操作入力検知装置に対して検知要求信号を与えるとともに、当該操作入力検知装置から検知結果信号の出力を受ける機能をもった外部ユニットと、
によって、電子機器を構成したものである。
(27) A twenty-seventh aspect of the present invention is an operation input detection device using the touch panel according to the first to twenty-sixth aspects described above,
An external unit having a function of receiving a detection request signal from the operation input detection device and receiving a detection result signal from the operation input detection device;
Thus, an electronic device is configured.

(28) 本発明の第28の態様は、上述した第1〜第25の態様に係るタッチパネルを用いた操作入力検知装置におけるデジタル処理ユニットを、コンピュータにプログラムを組み込むことにより構成したものである。   (28) According to a twenty-eighth aspect of the present invention, the digital processing unit in the operation input detection device using the touch panel according to the first to twenty-fifth aspects is configured by incorporating a program into a computer.

(29) 本発明の第29の態様は、タッチ面に対するユーザの指の接触状態を検知するタッチパネル装置と、ユーザに提示する情報を表示するディスプレイ装置と、が接続されたコンピュータによって、ユーザのタッチパネル装置に対する操作入力を検知するタッチパネルを用いた操作入力検知方法を、
予めユーザのサンプル操作を登録する準備段階と、ユーザの実操作入力を受け付けてこれを検知する検知段階と、によって構成し、
準備段階では、
コンピュータが、ディスプレイ装置の画面上にタッチ面上で所定のジェスチャーを行う旨の指示を表示し、当該指示に基づくユーザのジェスチャー動作によってタッチパネル装置から得られる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する段階と、
コンピュータが、代表点の時間的変遷に基づいて、接触状態の時間的な変化態様を解析し、その結果をジェスチャーに対応するサンプルパターンとして採取する段階と、
を複数m通りのジェスチャーについて実行し、個々のジェスチャーに対応するサンプルパターンを採取する処理が行われるようにし、
検知段階では、
コンピュータが、実操作入力の検知が必要なときに、タッチパネル装置から与えられる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する段階と、
コンピュータが、代表点の時間的変遷に基づいて、接触状態の時間的な変化態様を解析し、その結果を実操作入力に対応する操作入力パターンとして採取する段階と、
コンピュータが、採取された操作入力パターンを、準備段階で採取した複数m通りのサンプルパターンと比較し、合致もしくは近似したサンプルパターンを選択する段階と、
コンピュータが、選択されたサンプルパターンに対応する操作入力がなされた旨を検知する段階と、
が行われるようにしたものである。
(29) According to a twenty-ninth aspect of the present invention, there is provided a touch panel of a user by a computer to which a touch panel device that detects a contact state of the user's finger with respect to the touch surface and a display device that displays information to be presented to the user are connected. An operation input detection method using a touch panel that detects an operation input to the device,
It consists of a preparation stage for registering a user's sample operation in advance, and a detection stage for receiving and detecting the user's actual operation input,
In the preparation stage,
The computer displays an instruction to perform a predetermined gesture on the touch surface on the screen of the display device, and the user's finger contact based on the detection signal obtained from the touch panel device by the user's gesture operation based on the instruction Recognizing the temporal transition of the representative point indicating the representative position of the region;
The computer analyzes the temporal change mode of the contact state based on the temporal transition of the representative point, and collects the result as a sample pattern corresponding to the gesture;
Is executed for a plurality of m types of gestures so that a sample pattern corresponding to each gesture is collected,
In the detection stage,
When the computer needs to detect the actual operation input, based on the detection signal given from the touch panel device, recognizing the temporal transition of the representative point indicating the representative position of the contact area of the user's finger;
The computer analyzes the temporal change mode of the contact state based on the temporal transition of the representative point, and collects the result as an operation input pattern corresponding to the actual operation input;
The computer compares the collected operation input pattern with a plurality of m sample patterns collected in the preparation stage, and selects a sample pattern that matches or approximates.
A computer detecting that an operation input corresponding to the selected sample pattern has been made;
Is to be performed.

(30) 本発明の第30の態様は、上述した第29の態様に係るタッチパネルを用いた操作入力検知方法において、
準備段階で、コンピュータが、複数のユーザについてそれぞれ別個独立したサンプルパターンを採取する処理を行い、
検知段階で、コンピュータが、現在利用中のユーザを特定し、当該ユーザについてのサンプルパターンとの比較を行うことによりパターン選択を行うようにしたものである。
(30) According to a thirtieth aspect of the present invention, in the operation input detection method using the touch panel according to the twenty-ninth aspect described above,
In the preparation stage, the computer performs a process of collecting independent sample patterns for a plurality of users,
At the detection stage, the computer identifies a user currently in use, and performs pattern selection by comparing with a sample pattern for the user.

(31) 本発明の第31の態様は、上述した第29または第30の態様に係るタッチパネルを用いた操作入力検知方法において、
準備段階で、コンピュータが、タッチパネル装置のタッチ面を分割することによって得られる複数の領域について、それぞれ別個にジェスチャーを行う旨の指示を表示し、個々の領域ごとにそれぞれサンプルパターンを採取する処理を行い、
検知段階で、コンピュータが、ジェスチャーが行われた主たる領域を認識し、当該認識領域についてのサンプルパターンとの比較を行うことによりパターン選択を行うようにしたものである。
(31) According to a thirty-first aspect of the present invention, in the operation input detection method using the touch panel according to the twenty-ninth or thirtieth aspect described above,
In the preparatory stage, the computer displays an instruction to perform a gesture separately for each of a plurality of areas obtained by dividing the touch surface of the touch panel device, and collects a sample pattern for each area. Done
At the detection stage, the computer recognizes the main area where the gesture has been performed, and performs pattern selection by comparing with the sample pattern for the recognition area.

本発明に係るタッチパネルを用いた操作入力検知装置では、タッチパネル装置から与えられる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷が認識され、その変化パターンが解析される。しかも、ユーザは、準備段階において、様々なジェスチャーの解析パターンをサンプルパターンとして登録しておくことができる。そして、実際の検知段階では、ユーザが行ったジェスチャーのパターンが操作入力パターンとして採取され、当該採取パターンに合致もしくは近似するパターンが、サンプルパターンの中から選択され、選択されたサンプルパターンに対応するジェスチャーを示す情報が、操作入力の検知結果として出力される。このように、準備段階で予め登録しておいたサンプルパターンを用いて、操作入力パターンに合致もしくは近似するパターン選択が行われるため、ユーザの操作入力を正確に検知することができるようになる。   In the operation input detection device using the touch panel according to the present invention, the temporal transition of the representative point indicating the representative position of the contact area of the user's finger is recognized based on the detection signal given from the touch panel device, and the change pattern is Analyzed. In addition, the user can register various gesture analysis patterns as sample patterns in the preparation stage. In the actual detection stage, the pattern of the gesture performed by the user is collected as an operation input pattern, and a pattern that matches or approximates the collected pattern is selected from the sample patterns and corresponds to the selected sample pattern. Information indicating a gesture is output as an operation input detection result. As described above, since the pattern selection that matches or approximates the operation input pattern is performed using the sample pattern registered in advance in the preparation stage, it becomes possible to accurately detect the operation input of the user.

特に、マルチタッチ対応型タッチパネル装置を用いて、複数の指を用いた多様なジェスチャーによる操作入力を検知する場合でも、ユーザに固有のジェスチャー動作の特徴を予め採取してサンプルパターンとして登録しておくことができるので、当該ユーザが行ったジェスチャー動作を正確に認識することができ、正確な操作入力の検知が可能になる。   In particular, even when an operation input by various gestures using a plurality of fingers is detected by using a multi-touch type touch panel device, the features of gesture operations unique to the user are collected in advance and registered as sample patterns. Therefore, it is possible to accurately recognize the gesture operation performed by the user and to detect an accurate operation input.

また、複数のユーザによる利用が予定されている操作入力検知装置の場合は、現在利用中のユーザを特定する情報を入力しこれを保存するユーザ特定部を設け、個々のユーザごとにそれぞれ独立してサンプルパターンを採取するようにすれば、個々のユーザに固有の特徴をそれぞれ考慮した正確な操作入力の検知が可能になる。   Further, in the case of an operation input detection device scheduled to be used by a plurality of users, a user specifying unit for inputting information for specifying a user currently in use and storing the information is provided, and each user is independently provided. If the sample pattern is collected in this way, it becomes possible to detect an accurate operation input in consideration of the characteristics unique to each user.

更に、比較的大面積のタッチパネル装置の場合、ユーザが全く同一のジェスチャー動作を行ったつもりでも、タッチ面の位置によって、個々の指の接触の度合いが異なり、実際に得られる解析パターンが異なるケースが少なくない。このようなケースに対応するには、タッチパネル装置のタッチ面を分割して複数の領域を定義し、個々の領域ごとにそれぞれ別個独立したサンプルパターンを採取すればよい。そうすれば、ジェスチャーが行われた主たる領域を認識し、当該認識領域についてのサンプルパターンとの比較を行うことにより、正確な操作入力の検知が可能になる。タッチパネル装置が長方形のタッチ面を有している場合は、ユーザが縦長状態で利用しているのか、横長状態で利用しているのかを区別するようにすれば、一層正確な操作入力の検知が可能になる。   Furthermore, in the case of a touch panel device with a relatively large area, even if the user intends to perform exactly the same gesture operation, the degree of contact with each finger differs depending on the position of the touch surface, and the actual analysis pattern obtained varies. There are many. In order to deal with such a case, the touch surface of the touch panel device may be divided to define a plurality of areas, and individual sample patterns may be collected for each area. By doing so, it is possible to accurately detect an operation input by recognizing the main area where the gesture has been performed and comparing it with the sample pattern for the recognition area. When the touch panel device has a rectangular touch surface, it is possible to detect operation input more accurately by distinguishing whether the user is using the device in a portrait orientation or a landscape orientation. It becomes possible.

代表点の時間的変遷に基づく変化パターンの解析は、同一の指の動きを示す複数の代表点の集合体からなるストロークを認識するのが効果的である。複数のストロークが認識された場合、ユーザが複数の指を用いてジェスチャー動作を行っていることが認識できる。また、個々のストロークについて、ストローク長Lとストローク湾曲度Cとを求めるようにすれば、各ストロークを、点ストローク、直線ストローク、曲線ストロークに分けて把握することができ、これら異なるストロークもしくはその組み合わせによってパターンを定義できるので、類型的に複数のパターン定義が可能になる。更に、ストローク方位Bおよびストローク位置Pを求めるようにすれば、より詳細な類型バリエーションをもったパターン定義が可能になる。   In the analysis of the change pattern based on the temporal transition of the representative points, it is effective to recognize a stroke made up of a collection of a plurality of representative points showing the same finger movement. When a plurality of strokes are recognized, it can be recognized that the user is performing a gesture motion using a plurality of fingers. Further, if the stroke length L and the stroke curvature C are obtained for each stroke, each stroke can be divided into a point stroke, a straight stroke, and a curved stroke, and these different strokes or combinations thereof Since a pattern can be defined by, a plurality of patterns can be defined in a typical manner. Furthermore, if the stroke orientation B and the stroke position P are obtained, a pattern definition with more detailed type variations can be made.

パターン選択の際に、完全に合致したサンプルパターンが存在しない場合には、近似したサンプルパターンを選択することにより、サンプルパターン採取時とは多少異なったジェスチャー動作を行った場合でも、有効な操作入力として検知できる運用を行うことができるようになる。この場合、近似度を過去の履歴を参照して決定するようにすれば、より妥当な判断が可能になる。また、パターンが合致しない場合に、ストローク長Lの短いストロークを削除することにより、指が誤って触れたことによって生じたストロークを無視した取り扱いができるようになる。   When there is no perfectly matched sample pattern when selecting a pattern, even if a slightly different gesture operation is performed by selecting an approximate sample pattern, the operation input is effective. Operation that can be detected as In this case, if the degree of approximation is determined with reference to the past history, a more appropriate determination can be made. Further, when the pattern does not match, by deleting the stroke having a short stroke length L, it becomes possible to handle the stroke ignoring the stroke caused by touching the finger by mistake.

本発明の基本的な実施形態に係るタッチパネルを用いた操作入力検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the operation input detection apparatus using the touchscreen which concerns on fundamental embodiment of this invention. 図1に示すタッチパネル装置10のタッチ面に対する指の接触状態の一例を示す平面図である。It is a top view which shows an example of the contact state of the finger | toe with respect to the touch surface of the touch panel apparatus 10 shown in FIG. 図2に示す接触状態において、タッチパネル装置10から得られる検知信号を示すグラフである。3 is a graph showing a detection signal obtained from the touch panel device 10 in the contact state shown in FIG. 2. 図1に示す操作入力検知装置のパターン解析部120の詳細な構成を示すブロック図である。It is a block diagram which shows the detailed structure of the pattern analysis part 120 of the operation input detection apparatus shown in FIG. 図4に示すストローク認識部122によるストローク認識処理の原理を示す平面図である。It is a top view which shows the principle of the stroke recognition process by the stroke recognition part 122 shown in FIG. 図4に示す特性認識部123によって認識されるストローク特性を示す平面図である。It is a top view which shows the stroke characteristic recognized by the characteristic recognition part 123 shown in FIG. 図6に示すストローク特性を算出する原理を示すグラフである。It is a graph which shows the principle which calculates the stroke characteristic shown in FIG. 図6に示すストローク特性を算出する具体的な演算式を示す図である。It is a figure which shows the specific calculating formula which calculates the stroke characteristic shown in FIG. 図4に示すパターン決定部124によるパターン決定処理の手順を示す流れ図である。It is a flowchart which shows the procedure of the pattern determination process by the pattern determination part 124 shown in FIG. 図4に示すパターン決定部124によって決定された解析パターンのいくつかの例を示す平面図である。It is a top view which shows some examples of the analysis pattern determined by the pattern determination part 124 shown in FIG. 2本指を用いたジェスチャーの種類を例示する平面図である。It is a top view which illustrates the kind of gesture using two fingers. 図1に示す操作入力検知装置のディスプレイ装置20に表示される指示画面の一例を示す平面図である。It is a top view which shows an example of the instruction | indication screen displayed on the display apparatus 20 of the operation input detection apparatus shown in FIG. 図1に示す操作入力検知装置のサンプルパターン格納部150に格納されているサンプルパターンの一例を示す平面図である。It is a top view which shows an example of the sample pattern stored in the sample pattern storage part 150 of the operation input detection apparatus shown in FIG. 図13に示すサンプルパターンとは異なる別なユーザのサンプルパターンの一例を示す平面図である。It is a top view which shows an example of the sample pattern of another user different from the sample pattern shown in FIG. 本発明の変形例に係るタッチパネルを用いた操作入力検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the operation input detection apparatus using the touchscreen which concerns on the modification of this invention. 図15に示す操作入力検知装置のサンプルパターン格納部150に格納されているユーザごとのサンプルパターンの一例を示す平面図である。It is a top view which shows an example of the sample pattern for every user stored in the sample pattern storage part 150 of the operation input detection apparatus shown in FIG. タッチ面上に複数の領域を定義し、個々の領域ごとにサンプルパターンを採取した例を示す平面図である。It is a top view which shows the example which defined the some area | region on the touch surface and sampled the sample pattern for every area | region. 本発明の別な変形例に係るタッチパネルを用いた操作入力検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the operation input detection apparatus using the touchscreen which concerns on another modification of this invention. 図18に示す操作入力検知装置のタッチパネル付ディスプレイ装置30に表示される指示画面の一例を示す平面図である。It is a top view which shows an example of the instruction | indication screen displayed on the display apparatus 30 with a touch panel of the operation input detection apparatus shown in FIG. 図18に示す操作入力検知装置のサンプルパターン格納部150に格納されている領域ごとのサンプルパターンの一例を示す平面図である。It is a top view which shows an example of the sample pattern for every area | region stored in the sample pattern storage part 150 of the operation input detection apparatus shown in FIG. 図18に示す操作入力検知装置のタッチパネル付ディスプレイ装置30を横長状態で利用する場合と縦長状態で利用する場合を示す平面図である。It is a top view which shows the case where the display apparatus 30 with a touch panel of the operation input detection apparatus shown in FIG. 18 is used in a horizontally long state and in a vertically long state. ストローク方位Bに基づいて36通りの直線ストロークを定義した例を示す平面図である。It is a top view which shows the example which defined 36 types of linear strokes based on the stroke azimuth | direction B. FIG. ストローク方位Bに基づいて8通りの曲線ストロークを定義した例を示す平面図である。It is a top view which shows the example which defined eight types of curve strokes based on the stroke azimuth | direction B. FIG. ストローク湾曲度Cに基づいて4通りの曲線ストロークを定義した例を示す平面図である。It is a top view which shows the example which defined 4 types of curve strokes based on the stroke curvature degree C. FIG. 2本指を用いたジェスチャーのバリエーションを示す平面図である。It is a top view which shows the variation of the gesture using two fingers. 本発明の更に別な変形例に係るタッチパネルを用いた操作入力検知装置の構成を示すブロック図である。It is a block diagram which shows the structure of the operation input detection apparatus using the touchscreen which concerns on another modification of this invention. 2本指を上から下にスライドさせるジェスチャーを行った場合に得られた具体的な代表点データの一例を示す表である。It is a table | surface which shows an example of the specific representative point data obtained when performing the gesture which slides two fingers down from the top. 図27に示す代表点データを解析することにより得られたパターンを示す平面図である。It is a top view which shows the pattern obtained by analyzing the representative point data shown in FIG. 2本指を左から右にスライドさせるジェスチャーを行った場合に得られた具体的な代表点データの一例を示す表である。It is a table | surface which shows an example of the specific representative point data obtained when performing the gesture which slides two fingers from the left to the right. 図29に示す代表点データを解析することにより得られたパターンを示す平面図である。FIG. 30 is a plan view showing a pattern obtained by analyzing the representative point data shown in FIG. 29. 2本指による時計まわりのジェスチャーを行った場合に得られた具体的な代表点データの一例を示す表である。It is a table | surface which shows an example of the specific representative point data obtained when performing clockwise gesture with two fingers. 図31に示す代表点データを解析することにより得られたパターンを示す平面図である。FIG. 32 is a plan view showing a pattern obtained by analyzing the representative point data shown in FIG. 31. 2本指による反時計まわりのジェスチャーを行った場合に得られた具体的な代表点データの一例を示す表である。It is a table | surface which shows an example of the specific representative point data obtained when performing the counterclockwise gesture with two fingers. 図33に示す代表点データを解析することにより得られたパターンを示す平面図である。It is a top view which shows the pattern obtained by analyzing the representative point data shown in FIG. 本発明に係るタッチパネルを用いた操作入力検知方法の手順を示す流れ図である。It is a flowchart which shows the procedure of the operation input detection method using the touchscreen which concerns on this invention.

以下、本発明を図示する実施形態に基づいて説明する。   Hereinafter, the present invention will be described based on the illustrated embodiments.

<<< §1.本発明に係る操作入力検知装置の基本構成 >>>
図1は、本発明の基本的な実施形態に係るタッチパネルを用いた操作入力検知装置の構成を示すブロック図である。図示のとおり、この操作入力検知装置は、タッチパネル装置10,ディスプレイ装置20,デジタル処理ユニット100によって構成されており、外部ユニット200からの要求に基づいて、ユーザが指によるジェスチャー動作として行った操作入力を検知し、検知結果を外部ユニット200に返す機能を果たす。
<<< §1. Basic Configuration of Operation Input Detection Device According to the Present Invention >>
FIG. 1 is a block diagram showing a configuration of an operation input detection device using a touch panel according to a basic embodiment of the present invention. As shown in the figure, this operation input detection device is composed of a touch panel device 10, a display device 20, and a digital processing unit 100. Based on a request from the external unit 200, an operation input performed by a user as a gesture operation with a finger. Is detected, and the detection result is returned to the external unit 200.

ここで、タッチパネル装置10は、タッチ面に対するユーザの指の接触状態を検知し、検知信号を出力する装置である。このようなタッチパネル装置10としては、主として、抵抗膜方式の装置と静電容量方式の装置とが市販されている。また、ディスプレイ装置20は、ユーザに提示する情報を表示する一般的な装置であり、本発明では、準備段階において、ユーザに対して所定のジェスチャーを行う旨の指示を提示するために利用される。   Here, the touch panel device 10 is a device that detects a contact state of a user's finger with respect to the touch surface and outputs a detection signal. As such a touch panel device 10, a resistance film type device and a capacitance type device are mainly commercially available. The display device 20 is a general device that displays information to be presented to the user. In the present invention, the display device 20 is used to present an instruction to perform a predetermined gesture to the user in the preparation stage. .

一方、デジタル処理ユニット100は、図において一点鎖線で囲われた領域内の各ブロックから構成される。具体的には、デジタル処理ユニット100は、図示のとおり、代表点認識部110,パターン解析部120,サンプルパターン採取部130,操作入力パターン採取部140,サンプルパターン格納部150,パターン選択部160,検知結果出力部170によって構成される。ここに示す実施形態の場合、このデジタル処理ユニット100は、コンピュータに専用のプログラムを組み込むことによって実現されている。また、コンピュータとして、ノート型パソコンを用いた場合は、当該ノート型パソコンに備わっているタッチパッドをタッチパネル装置10としてそのまま利用することができ、当該ノート型パソコンに備わっている液晶ディスプレイ等をそのままディスプレイ装置20として利用することができる。   On the other hand, the digital processing unit 100 is composed of blocks in a region surrounded by a one-dot chain line in the figure. Specifically, the digital processing unit 100 includes a representative point recognition unit 110, a pattern analysis unit 120, a sample pattern collection unit 130, an operation input pattern collection unit 140, a sample pattern storage unit 150, a pattern selection unit 160, as illustrated. The detection result output unit 170 is configured. In the embodiment shown here, the digital processing unit 100 is realized by incorporating a dedicated program into a computer. Further, when a notebook computer is used as the computer, the touch pad provided in the notebook computer can be used as it is as the touch panel device 10, and the liquid crystal display or the like provided in the notebook computer can be used as it is. It can be used as the device 20.

外部ユニット200は、この操作入力検知装置を利用して、ユーザからの操作入力を受け付け、様々な処理を実行する装置であり、ここに示す実施形態の場合、この外部ユニット200も、コンピュータに専用のプログラムを組み込むことによって実現されている。具体的には、コンピュータにOSプログラムおよびアプリケーションプログラムを組み込むことにより外部ユニット200を構成することができ、当該OSプログラムもしくはアプリケーションプログラムがユーザからの操作入力を必要とした場合、外部ユニット200からデジタル処理ユニット100に対して検知要求信号が出され、検知結果がデジタル処理ユニット100から外部ユニット200に返されることになる。   The external unit 200 is an apparatus that accepts an operation input from a user and executes various processes using the operation input detection device. In the embodiment shown here, the external unit 200 is also dedicated to a computer. It is realized by incorporating the program. Specifically, the external unit 200 can be configured by incorporating an OS program and an application program into a computer. When the OS program or application program requires an operation input from a user, the external unit 200 performs digital processing. A detection request signal is issued to the unit 100, and the detection result is returned from the digital processing unit 100 to the external unit 200.

要するに、外部ユニット200は、操作入力検知装置に対して検知要求信号を与えるとともに、当該操作入力検知装置から検知結果信号の出力を受ける機能をもった装置であり、この検知結果信号により、ユーザがどのような操作入力を行ったかを認識し、当該操作入力に対応する処理を実行することになる。結局、この外部ユニット200に、操作入力検知装置(タッチパネル装置10,ディスプレイ装置20,デジタル処理ユニット100)を付加することにより構成される電子機器は、ユーザの指によるジェスチャー動作を操作入力として受け付け、何らかの処理を行う機器ということになる。   In short, the external unit 200 is a device having a function of giving a detection request signal to the operation input detection device and receiving an output of the detection result signal from the operation input detection device. It recognizes what operation input has been performed, and executes processing corresponding to the operation input. Eventually, an electronic device configured by adding an operation input detection device (touch panel device 10, display device 20, digital processing unit 100) to external unit 200 accepts a gesture operation by a user's finger as an operation input, It is a device that performs some kind of processing.

なお、図示の実施形態の場合、タッチパネル装置10およびディスプレイ装置20は、デジタル処理ユニット100と外部ユニット200とによって共用される構成になっているが、もちろん、外部ユニット200が別系統のユーザインターフェイスを備えている場合には、タッチパネル装置10およびディスプレイ装置20を外部ユニット200に利用させる必要はない。ただ、実用上は、ハードウエアを効率的に利用するため、図示の例のような共用形態を採るのが好ましい。特に、ノート型パソコンを利用した場合、タッチパネル装置10およびディスプレイ装置20を、当該ノート型パソコンに組み込まれたタッチパッドおよびディスプレイによって構成することができ、デジタル処理ユニット100および外部ユニット200を、当該ノート型パソコンに組み込んだプログラムによって構成することができる。   In the illustrated embodiment, the touch panel device 10 and the display device 20 are configured to be shared by the digital processing unit 100 and the external unit 200. Of course, the external unit 200 has a separate user interface. When it is provided, it is not necessary for the external unit 200 to use the touch panel device 10 and the display device 20. However, for practical use, in order to efficiently use hardware, it is preferable to adopt a shared form as in the illustrated example. In particular, when a notebook computer is used, the touch panel device 10 and the display device 20 can be configured by a touch pad and a display incorporated in the notebook computer, and the digital processing unit 100 and the external unit 200 are connected to the notebook computer. It can be configured by a program installed in a personal computer.

続いて、デジタル処理ユニット100の各構成要素の機能について説明する。まず、代表点認識部110は、タッチパネル装置10から与えられる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する機能を有する構成要素である。後述するように、タッチパネル装置10は、縦横に配置された多数の格子点位置における指の接触状態を電気信号として出力する装置であり、ユーザの指の接触領域は、複数の格子点の集合として認識される。代表点認識部110は、この接触領域の代表位置(たとえば、中心位置)を代表点として認識するとともに、その時間的変遷を認識する機能を果たす。   Next, functions of each component of the digital processing unit 100 will be described. First, the representative point recognizing unit 110 is a component having a function of recognizing a temporal transition of a representative point indicating a representative position of a contact area of a user's finger based on a detection signal given from the touch panel device 10. As will be described later, the touch panel device 10 is a device that outputs, as an electrical signal, finger contact states at a number of lattice point positions arranged vertically and horizontally, and a user's finger contact region is a set of a plurality of lattice points. Be recognized. The representative point recognizing unit 110 functions to recognize the representative position (for example, the center position) of the contact area as a representative point and to recognize its temporal transition.

一方、パターン解析部120は、この代表点認識部110の認識結果に基づいて、接触状態の時間的な変化態様を解析して解析パターンを得る機能を果たす。すなわち、代表点認識部110が認識した代表点が時間的にどのように移動するかを解析し、その移動形態をパターン化する処理を行うことになる。たとえば、ユーザがタッチ面上で、「1本の指を上から下へとスライドするジェスチャー」を行った場合、当該動作は、「1つの代表点が縦方向に移動するパターン」として認識される。ここでは、このパターン解析部120による解析によって得られたパターンを「解析パターン」と呼ぶことにする。こうして得られた解析パターンは、サンプルパターン採取部130もしくは操作入力パターン採取部140において利用される。   On the other hand, the pattern analysis unit 120 functions to obtain an analysis pattern by analyzing the temporal change state of the contact state based on the recognition result of the representative point recognition unit 110. That is, the representative point recognized by the representative point recognizing unit 110 is analyzed for how it moves in time, and a process for patterning the movement form is performed. For example, when the user performs a “gesture to slide one finger from top to bottom” on the touch surface, the operation is recognized as “a pattern in which one representative point moves in the vertical direction”. . Here, the pattern obtained by the analysis by the pattern analysis unit 120 is referred to as an “analysis pattern”. The analysis pattern thus obtained is used in the sample pattern collection unit 130 or the operation input pattern collection unit 140.

サンプルパターン採取部130は、ディスプレイ装置20の画面上に、タッチ面上で複数m通りのジェスチャーを行う旨の指示を表示し、当該指示に基づくユーザのm通りのジェスチャー動作についてパターン解析部120によって得られた各解析パターンを、それぞれサンプルパターンとして採取する機能を果たす。   The sample pattern collection unit 130 displays an instruction to perform a plurality of m gestures on the touch surface on the screen of the display device 20, and the pattern analysis unit 120 performs m gesture operations of the user based on the instructions. Each analysis pattern obtained functions as a sample pattern.

また、サンプルパターン格納部150は、サンプルパターン採取部130が、第k番目(1≦k≦m)のジェスチャーを行う旨の指示を表示したときに採取された解析パターンを、第k番目のジェスチャーに対応するサンプルパターンとして格納する機能を果たす。たとえば、「1本の指を上から下へとスライドするジェスチャー」を行うよう指示した場合に得られた解析パターンは、当該ジェスチャーに対応するサンプルパターンとして格納され、「2本の指を左から右へとスライドするジェスチャー」を行うよう指示した場合に得られた解析パターンは、当該ジェスチャーに対応するサンプルパターンとして格納される。   In addition, the sample pattern storage unit 150 displays the analysis pattern collected when the sample pattern collection unit 130 displays an instruction to perform the k-th (1 ≦ k ≦ m) gesture as the k-th gesture. The function of storing as a sample pattern corresponding to is performed. For example, the analysis pattern obtained when instructing to perform a “gesture to slide one finger from top to bottom” is stored as a sample pattern corresponding to the gesture, and “two fingers from the left The analysis pattern obtained when instructing to perform the “slide to the right” gesture is stored as a sample pattern corresponding to the gesture.

このように、本発明に係る操作入力検知装置を利用するには、事前に準備段階として、複数m通りのジェスチャー動作についてそれぞれサンプルパターンを採取し、これらをサンプルパターン格納部150に格納する登録作業を行う必要がある。このような準備段階が終了すれば、サンプルパターン採取部130の役割は完了する(もちろん、必要に応じて、新たなジェスチャー動作について新たなサンプルパターンを採取することも可能である)。準備段階が完了した後は、以下に述べる各構成要素の機能を利用して、実際の検出段階を行うことができる。   As described above, in order to use the operation input detection device according to the present invention, as a preparation stage, a sample pattern is collected for each of a plurality of m gesture operations and stored in the sample pattern storage unit 150 in advance. Need to do. When such a preparation stage is completed, the role of the sample pattern collection unit 130 is completed (of course, a new sample pattern can be collected for a new gesture operation as needed). After the preparation stage is completed, the actual detection stage can be performed using the function of each component described below.

まず、操作入力パターン採取部140は、外部ユニット200から操作入力の検知を要求する検知要求信号が与えられた後に、パターン解析部120によって得られた解析パターンを操作入力パターンとして採取する機能を果たす。一方、パターン選択部160は、操作入力パターン採取部140によって採取された操作入力パターンを、サンプルパターン格納部150に格納されている複数m通りのサンプルパターンと比較し、合致したサンプルパターンを選択する機能を果たす。選択結果は、検知結果出力部170に伝えられる。検知結果出力部170は、パターン選択部160で選択されたサンプルパターンに対応するジェスチャーを示す情報を、操作入力の検知結果を示す検知結果信号として外部ユニット200へ出力する機能を果たす。   First, the operation input pattern collection unit 140 performs a function of collecting an analysis pattern obtained by the pattern analysis unit 120 as an operation input pattern after a detection request signal for requesting detection of an operation input is given from the external unit 200. . On the other hand, the pattern selection unit 160 compares the operation input pattern collected by the operation input pattern collection unit 140 with a plurality of m types of sample patterns stored in the sample pattern storage unit 150, and selects a matching sample pattern. Fulfills the function. The selection result is transmitted to the detection result output unit 170. The detection result output unit 170 functions to output information indicating a gesture corresponding to the sample pattern selected by the pattern selection unit 160 to the external unit 200 as a detection result signal indicating the detection result of the operation input.

以上の処理を外部ユニット200側から見ると、ユーザによる何らかの操作入力が必要なときに、操作入力パターン採取部140に対して検知要求信号を与えると、ユーザがジェスチャー動作を終えた後に、検知結果出力部170から検知結果信号が出力されてくることになる。ここで、この検知結果信号は、ユーザが行ったジェスチャー動作が、予め登録してある複数m通りのジェスチャー動作のいずれに対応するものであるかを示す信号(もしくは、合致するジェスチャー動作が登録されていないことを示すエラー信号)になる。   When the above processing is viewed from the external unit 200 side, when some operation input by the user is required, if a detection request signal is given to the operation input pattern collection unit 140, the detection result is displayed after the user finishes the gesture operation. A detection result signal is output from the output unit 170. Here, the detection result signal is a signal indicating which gesture operation performed by the user corresponds to a plurality of m gesture operations registered in advance (or a matching gesture operation is registered). Error signal).

このように、本発明では、サンプルパターン格納部150内に予め登録しておいた複数m通りのサンプルパターンを用いて、操作入力パターン採取部140によって採取された操作入力パターンに合致するパターン選択が行われるため、たとえユーザのジェスチャー動作が標準的なジェスチャー動作とかけ離れていたとしても、ユーザのジェスチャー動作に基づいて正しい操作入力の検知が可能になる。   As described above, in the present invention, a plurality of m sample patterns registered in advance in the sample pattern storage unit 150 are used to select a pattern that matches the operation input pattern collected by the operation input pattern collection unit 140. Therefore, even if the user's gesture motion is far from the standard gesture motion, correct operation input can be detected based on the user's gesture motion.

一般に、1本指を縦もしくは横方向にスライドさせるような単純なジェスチャー動作は、ユーザ間でそれほど大きな相違は生じないであろう。しかしながら、2本指、3本指といった複数の指を用い、スライド、回転、タップなどを組み合わせた複雑なジェスチャーによって様々な操作入力を行う電子機器の場合、同じジェスチャーを行うように指示を与えたとしても、実際にタッチ面上で行われるジェスチャー動作には、ユーザ間にバラツキが生じ、パターン解析部120によってそれぞれ異なる解析パターンが得られる可能性がある。   In general, a simple gesture operation in which one finger is slid vertically or horizontally will not make much difference between users. However, in the case of electronic devices that use a plurality of fingers, such as two fingers or three fingers, and perform various operation inputs by complex gestures that combine slides, rotations, taps, etc., instructions were given to perform the same gestures However, the gesture operation actually performed on the touch surface may vary among users, and different analysis patterns may be obtained by the pattern analysis unit 120.

本発明では、準備段階において、ユーザ自身によって複数m通りのジェスチャー動作が実行され、そのときに得られた解析パターンがそれぞれ各ジェスチャーについてのサンプルパターンとして登録されることになる。そして、検出段階では、得られた操作入力パターンが複数m通りのサンプルパターンと比較され、特定のジェスチャーの選択が行われる。したがって、ジェスチャー動作にユーザに固有の特徴があったとしても、当該特徴を利用して、ユーザの操作入力を正確に検知することができるようになる。   In the present invention, in the preparation stage, a plurality of m gesture operations are executed by the user himself, and the analysis patterns obtained at that time are respectively registered as sample patterns for the respective gestures. In the detection stage, the obtained operation input pattern is compared with a plurality of m sample patterns, and a specific gesture is selected. Therefore, even if there is a characteristic unique to the user in the gesture operation, it becomes possible to accurately detect the user's operation input using the characteristic.

<<< §2.各構成要素による具体的処理 >>>
ここでは、図1に示すデジタル処理ユニット100を構成する個々の要素が実行する具体的な処理内容を説明する。もちろん、ここで説明する具体的な処理は、本発明の一実施例を示すものであり、本発明は、この実施例に限定されるものではない。
<<< §2. Specific processing by each component >>>
Here, specific processing contents executed by individual elements constituting the digital processing unit 100 shown in FIG. 1 will be described. Of course, the specific processing described here shows one embodiment of the present invention, and the present invention is not limited to this embodiment.

<2−1:代表点認識部の具体的な処理>
既に述べたとおり、代表点認識部110は、タッチパネル装置10から与えられる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する構成要素である。図2は、このタッチパネル装置10のタッチ面に対する指の接触状態の一例を示す平面図である。図示のとおり、一般的なタッチパネル装置10のタッチ面には、縦横に格子線が定義されており、この格子線の交点に配置された多数の格子点位置における指の接触状態が電気信号として検知される。抵抗膜方式のタッチパネル装置の場合は格子点位置における電気抵抗値の変化が電気信号として取り出され、静電容量方式のタッチパネル装置の場合は格子点位置における静電容量値の変化が電気信号として取り出される。
<2-1: Specific Processing of Representative Point Recognition Unit>
As already described, the representative point recognition unit 110 is a component that recognizes the temporal transition of the representative point indicating the representative position of the contact area of the user's finger based on the detection signal given from the touch panel device 10. FIG. 2 is a plan view showing an example of a contact state of a finger with respect to the touch surface of the touch panel device 10. As shown in the figure, grid lines are defined vertically and horizontally on the touch surface of a general touch panel device 10, and finger contact states at a number of grid point positions arranged at intersections of the grid lines are detected as electrical signals. Is done. In the case of the resistive touch panel device, the change in the electrical resistance value at the lattice point position is taken out as an electrical signal, and in the case of the capacitive touch panel device, the change in the capacitance value at the lattice point location is taken out as an electrical signal. It is.

ここでは、説明の便宜上、このタッチ面上に図示のような二次元XY座標系を定義し、タッチ面上の任意の点の位置を座標値(x,y)で示すことにする。たとえば、格子点Hの位置は、H(x,y)なる座標値で表される。図示の例では、縦方向の格子線はX軸方向にピッチdxで並んでおり、横方向の格子線はY軸方向にピッチdyで並んでいる。結局、指の接触状態を示す電気信号は、横方向にピッチdx、縦方向にピッチdyで配列された多数の格子点ごとの離散値として得られることになる。指の接触状態を検知する用途では、ピッチdx,dyは5mm程度以下であれば十分である。   Here, for convenience of explanation, a two-dimensional XY coordinate system as shown in the figure is defined on the touch surface, and the position of an arbitrary point on the touch surface is indicated by coordinate values (x, y). For example, the position of the lattice point H is represented by a coordinate value H (x, y). In the illustrated example, the vertical grid lines are arranged at a pitch dx in the X-axis direction, and the horizontal grid lines are arranged at a pitch dy in the Y-axis direction. Eventually, an electrical signal indicating the contact state of the finger is obtained as a discrete value for each of a large number of lattice points arranged with a pitch dx in the horizontal direction and a pitch dy in the vertical direction. In applications for detecting the contact state of a finger, it is sufficient that the pitches dx and dy are about 5 mm or less.

図2にハッチングを施して示す領域A1,A2は、指がタッチ面に接触した接触領域を示している。この例では、ユーザが2本の指の先端をタッチ面に接触させた状態が示されている。この場合、接触領域A1,A2内に位置する格子点について、接触状態を示す有意な信号が得られる。図3は、図2に示す接触状態において、Y座標値yで示される横方向の格子線上の検出値を示すグラフであり、ピッチdxで描かれたバーは、個々の格子点で得られた検出値を示している。実際には、格子点は二次元平面上に分布しているため、タッチパネル装置10から与えられる検知信号は、図3に示すグラフを紙面の奥行き方向にも拡張した三次元のグラフで表現される。このように、実際の検出値は、図の横方向にピッチdx、図の奥行き方向にピッチdyで配置された離散的な格子点について得られるだけであるが、これらの離散値を補間することにより、図示のような包絡面Eを求めることができる。 Areas A1 and A2 shown by hatching in FIG. 2 indicate contact areas where the finger contacts the touch surface. In this example, a state in which the user touches the touch surface with the tips of two fingers is shown. In this case, a significant signal indicating the contact state is obtained for the lattice points located in the contact areas A1 and A2. FIG. 3 is a graph showing detected values on the horizontal grid line indicated by the Y coordinate value y k in the contact state shown in FIG. 2, and bars drawn with the pitch dx are obtained at individual grid points. The detected value is shown. Actually, since the lattice points are distributed on a two-dimensional plane, the detection signal given from the touch panel device 10 is expressed by a three-dimensional graph obtained by extending the graph shown in FIG. 3 in the depth direction of the drawing. . As described above, the actual detection values can be obtained only for the discrete lattice points arranged with the pitch dx in the horizontal direction of the figure and the pitch dy in the depth direction of the figure, but these discrete values are interpolated. Thus, the envelope surface E as shown can be obtained.

図3に示すとおり、接触領域A1,A2に対応する部分は、山のような盛り上がりを示している。これは、指による接触状態が、各格子点の位置における抵抗値や静電容量値の変化量、すなわちアナログ量として検出されるためである。ここに示す例では、このアナログ量は8ビットのデジタル量(0〜255の数値)に変換され、代表点認識部110に取り込まれる。すなわち、指による接触状態を示す信号は、接触/非接触を示す二値信号として取り込まれるわけではない。タッチパネル装置10は、タッチ面上の個々の位置について、指の接触度(接触の程度・指の押圧力)を示す信号を出力し、代表点認識部110には、段階的な接触度を示す検出値が取り込まれることになる。もちろん、タッチ面に対する押圧力が大きければ、それだけ大きな検出値が取り込まれる。   As shown in FIG. 3, the portions corresponding to the contact areas A1 and A2 show a climax like a mountain. This is because the contact state with the finger is detected as a change amount of the resistance value or capacitance value at the position of each lattice point, that is, an analog amount. In the example shown here, this analog amount is converted into an 8-bit digital amount (a numerical value of 0 to 255) and is taken into the representative point recognition unit 110. That is, a signal indicating a contact state with a finger is not captured as a binary signal indicating contact / non-contact. The touch panel device 10 outputs a signal indicating a finger contact degree (degree of contact / finger pressing force) for each position on the touch surface, and the representative point recognition unit 110 indicates a stepwise contact degree. The detection value is captured. Of course, if the pressing force on the touch surface is large, a detection value that is larger is captured.

なお、抵抗膜の抵抗値や静電容量素子の容量値は、使用する場所の温度や湿度などの環境によっても変化するので、実際の使用環境では、指が全く触れていない領域についてもノイズ成分としての検出値が出力される。図3に示すグラフにおいて、接触領域A1,A2以外の部分(山の裾野)の検出値が0になっていないのは、このノイズ成分が検出されているためである。そこで、代表点認識部110は、接触度を示す検出値について、所定の基準値Thを定め、検出値が基準値Th以上の値を示すタッチ面上の閉領域を接触領域と認識する処理を行う。図3に示す例の場合、検出値が基準値Th以上の値を示す2つの山の部分が接触領域と認識され、その結果、図2にハッチングを施して示す接触領域A1,A2の認識が行われる。   Note that the resistance value of the resistive film and the capacitance value of the capacitive element also vary depending on the environment such as the temperature and humidity of the location where it is used. The detected value is output. In the graph shown in FIG. 3, the detected value of the part other than the contact areas A1 and A2 (mountain base) is not 0 because this noise component is detected. Therefore, the representative point recognition unit 110 performs a process of determining a predetermined reference value Th for the detection value indicating the contact degree, and recognizing the closed region on the touch surface where the detection value is equal to or greater than the reference value Th as the contact region. Do. In the case of the example shown in FIG. 3, the two peak portions whose detected values are equal to or greater than the reference value Th are recognized as the contact areas, and as a result, the contact areas A1 and A2 shown by hatching in FIG. Done.

ただ、ユーザが行ったジェスチャー動作は、このような接触領域の時間的な変遷パターンとして把握されるので、ジェスチャー動作のパターン解析を行う上では、面積をもった領域の情報のままよりも、位置を示す点の情報に変換した方が取り扱いに便利である。そこで、代表点認識部110では、個々の接触領域A1,A2について、それぞれ代表点Q1,Q2を求める処理が行われる。これらの代表点は、XY座標系の座標値を用いて、Q1(x1,y1),Q2(x2,y2)のような形式の位置データとして得ることができる。   However, since the gesture action performed by the user is grasped as such a temporal transition pattern of the contact area, in performing the pattern analysis of the gesture action, the position of the area rather than the area information with the area is used. It is more convenient to handle the information converted to point information. Therefore, the representative point recognition unit 110 performs processing for obtaining the representative points Q1 and Q2 for the respective contact areas A1 and A2. These representative points can be obtained as position data in a format such as Q1 (x1, y1), Q2 (x2, y2) using coordinate values in the XY coordinate system.

各代表点Q1,Q2は、各接触領域A1,A2の代表位置を示す点であれば、どのような方法で決定してもかまわない。図3に示す例では、「接触領域内で接触度がピークとなる位置」(要するに、山の頂点の位置)として、各接触領域A1,A2についての代表点Q1,Q2の位置を求めている。なお、図3では、説明の便宜上、山の頂点に点Q1,Q2をプロットしてあるが、実際の代表点Q1,Q2は、タッチ面(すなわち、XY平面)上に定義される点であるから、これら山の頂点をXY平面に投影した点が代表点Q1,Q2ということになる。また、図2に示すとおり、点Q1,Q2は、Y座標値yで示される横方向の格子線上の点ではないので、図3に示す点Q1は、実際には、グラフの紙面より若干手前の点であり、図3に示す点Q2は、実際には、グラフの紙面より若干奥の点ということになる。 Each representative point Q1, Q2 may be determined by any method as long as it is a point indicating the representative position of each contact area A1, A2. In the example shown in FIG. 3, the positions of the representative points Q1 and Q2 for each of the contact areas A1 and A2 are obtained as “a position where the contact degree reaches a peak in the contact area” (in short, the position of the peak of the mountain). . In FIG. 3, for convenience of explanation, the points Q1 and Q2 are plotted at the vertices of the mountain, but the actual representative points Q1 and Q2 are points defined on the touch surface (that is, the XY plane). Therefore, the points obtained by projecting the vertices of these peaks onto the XY plane are the representative points Q1 and Q2. Further, as shown in FIG. 2, the point Q1, Q2, so not in terms of the lateral direction of the grating lines for Y-coordinate value y k, Q1 points shown in Figure 3, in fact, slightly above the plane of the graph The point Q2 shown in FIG. 3 which is the front point is actually a point slightly behind the paper surface of the graph.

代表点を決定する別な方法は、基準値Th以上の部分からなる山の重心位置(より正確に表現すれば、タッチ面を水平面とし、接触度を高さ方向にとった座標系において、接触領域上に形成される山の重心位置)を代表点の位置とする方法である。この方法では、山の重心位置を決定する演算が必要になるが、山全体の体積分布を考慮して代表点を決定することができるので、より適切な代表点を求めることができる。   Another method for determining the representative point is the position of the center of gravity of the mountain that consists of the part of the reference value Th (or more accurately, in the coordinate system in which the touch surface is the horizontal plane and the contact degree is in the height direction) In this method, the position of the center of gravity of the mountain formed on the region is set as the representative point position. This method requires computation to determine the position of the center of gravity of the mountain. However, since the representative point can be determined in consideration of the volume distribution of the entire mountain, a more appropriate representative point can be obtained.

ユーザが、タッチ面上で指を動かしてジェスチャー動作を行うと、タッチパネル装置10から与えられる検知信号は、時々刻々と変化することになるので、当然ながら、代表点Qの位置も時間とともに変化する。そこで、代表点認識部110は、各接触領域について、タッチ面上に定義された二次元XY座標系における代表点Qの座標値(x,y)を上述した方法で認識するとともに、現在時刻tを認識し、値(x,y,t)を含む代表点データを所定の時間間隔で出力する処理を行う。   When the user moves the finger on the touch surface and performs a gesture operation, the detection signal given from the touch panel device 10 changes from moment to moment, so of course, the position of the representative point Q also changes with time. . Therefore, the representative point recognizing unit 110 recognizes the coordinate value (x, y) of the representative point Q in the two-dimensional XY coordinate system defined on the touch surface for each contact area by the method described above, and at the current time t. And representative point data including values (x, y, t) is output at predetermined time intervals.

たとえば、サンプリング期間を50msに設定しておけば、代表点認識部110は、50msおきに、タッチパネル装置10から与えられた検知信号に基づいて認識されたすべての代表点Qの位置座標(x,y)を、その時点の時刻tを示す情報とともに出力する処理を行うことになる。なお、タッチパネル装置10がイベントドリブン型の装置である場合は、指の接触状態に所定以上の変化が生じた場合にのみ、検知信号が出力されることになる。このような場合、代表点認識部110には、一定周期で検出信号が得られなくなるが、時間軸上での補間処理を行うことにより、たとえば、50msというサンプリング期間ごとの位置座標(x,y)を求めればよい。もちろん、サンプリング期間は、必ずしも50msのような一定周期にする必要はないので、イベントドリブン型の装置から検知信号が与えられるたびに、その時点の代表点Qの位置座標(x,y)とその時点の時刻tを出力するようにしてもかまわない。   For example, if the sampling period is set to 50 ms, the representative point recognizing unit 110 has the position coordinates (x, x, x) of all the representative points Q recognized based on the detection signal given from the touch panel device 10 every 50 ms. A process of outputting y) together with information indicating the time t at that time is performed. When the touch panel device 10 is an event-driven device, a detection signal is output only when a predetermined change or more occurs in the finger contact state. In such a case, the representative point recognizing unit 110 cannot obtain a detection signal at a fixed period, but by performing interpolation processing on the time axis, for example, the position coordinates (x, y for each sampling period of 50 ms). ). Of course, the sampling period does not necessarily have to be a constant cycle such as 50 ms. Therefore, every time a detection signal is given from the event-driven device, the position coordinate (x, y) of the representative point Q at that time and its position The time t at the time may be output.

ここで説明した実施例の場合、タッチパネル装置10から与えられる検知信号は、図3のグラフに示すように、接触度を示す8ビットの検出値によって構成されている。このように、タッチパネル装置10が、タッチ面上の個々の位置について指の接触度を示す信号を出力する機能をもっている場合、代表点Qの位置座標(x,y)だけでなく、当該代表点位置における指の押圧力を示す強度値aを求めることができる。   In the case of the embodiment described here, as shown in the graph of FIG. 3, the detection signal given from the touch panel device 10 is configured by an 8-bit detection value indicating the degree of contact. As described above, when the touch panel device 10 has a function of outputting a signal indicating the degree of finger contact for each position on the touch surface, not only the position coordinates (x, y) of the representative point Q but also the representative point. An intensity value a indicating the pressing force of the finger at the position can be obtained.

この強度値aは、たとえば、「接触領域内の接触度のピーク値」として定義することができる。図3に示す例の場合、接触領域A1についての強度値a1は、図に点Q1として示す山の頂点の高さ(接触度)として定義され、接触領域A2についての強度値a2は、図に点Q2として示す山の頂点の高さ(接触度)として定義される。あるいは、山の体積(正確に表現すれば、タッチ面を水平面とし、接触度を高さ方向にとった座標系において、接触領域上に形成される山の体積)として、強度値aを定義することもできる。   This intensity value a can be defined as, for example, “a peak value of the degree of contact in the contact area”. In the case of the example shown in FIG. 3, the intensity value a1 for the contact area A1 is defined as the height (contact degree) of the top of the mountain shown as point Q1 in the figure, and the intensity value a2 for the contact area A2 is It is defined as the height (contact degree) of the peak of the mountain shown as point Q2. Alternatively, the intensity value a is defined as the volume of a mountain (in terms of accuracy, the volume of a mountain formed on the contact area in a coordinate system in which the touch surface is a horizontal plane and the degree of contact is in the height direction). You can also

この実施例の場合、代表点認識部110は、各接触領域について、それぞれ強度値aを認識し、値(x,y,a,t)を含む代表点データQ(x,y,a,t)を所定の時間間隔で出力する処理を行う。結局、この代表点データQ(x,y,a,t)は、時刻tに、座標値(x,y)で示される代表点Qの付近に、強度値aで示される押圧力をもって指が接触した、という事実を示す情報ということになる。複数の指が同時にタッチ面に接触した場合は、時刻tが同一の複数の代表点データQ(x,y,a,t)が同時に出力される。   In the case of this embodiment, the representative point recognition unit 110 recognizes the intensity value a for each contact area, and representative point data Q (x, y, a, t) including the value (x, y, a, t). ) Is output at predetermined time intervals. Eventually, the representative point data Q (x, y, a, t) has a pressing force indicated by the intensity value a near the representative point Q indicated by the coordinate value (x, y) at time t. This is information indicating the fact that they have contacted. When a plurality of fingers touch the touch surface at the same time, a plurality of representative point data Q (x, y, a, t) having the same time t is output simultaneously.

<2−2:パターン解析部の具体的な処理>
続いて、パターン解析部120において行われる具体的な処理を説明する。上述したとおり、パターン解析部120には、代表点認識部110から、所定の時間間隔で(たとえば、50msのサンプル期間ごとに)代表点データQ(x,y,a,t)が与えられる。パターン解析部120は、こうして与えられた代表点データQ(x,y,a,t)に基づいて、指の接触状態の時間的な変化態様を解析し、類型化されたいずれかのパターンに当てはめる処理を行う。ここでは、こうして当てはめられたパターンを「解析パターン」と呼ぶ。結局、パターン解析部120は、ある一定の期間に与えられた一群の代表点データQ(x,y,a,t)に基づいて、所定の解析パターンを得る処理を行うことになる。ここでは、この解析パターンを得るまでの具体的な処理方法の一例を詳述する。
<2-2: Specific Processing of Pattern Analysis Unit>
Subsequently, specific processing performed in the pattern analysis unit 120 will be described. As described above, the representative point data Q (x, y, a, t) is given from the representative point recognition unit 110 to the pattern analysis unit 120 at predetermined time intervals (for example, every 50 ms sample period). Based on the representative point data Q (x, y, a, t) given in this way, the pattern analysis unit 120 analyzes the temporal change state of the contact state of the finger, and forms one of the categorized patterns. Perform the fitting process. Here, the pattern thus applied is called an “analysis pattern”. Eventually, the pattern analysis unit 120 performs processing for obtaining a predetermined analysis pattern based on a group of representative point data Q (x, y, a, t) given during a certain period. Here, an example of a specific processing method until obtaining the analysis pattern will be described in detail.

図4は、パターン解析部120の詳細な構成を示すブロック図である。図示のとおり、パターン解析部120は、代表点データ格納部121、ストローク認識部122、特性認識部123、パターン決定部124の各構成要素からなる。実際には、これらの各構成要素は、専用のプログラムが組み込まれたコンピュータによって実現される。   FIG. 4 is a block diagram illustrating a detailed configuration of the pattern analysis unit 120. As shown in the figure, the pattern analysis unit 120 includes components of a representative point data storage unit 121, a stroke recognition unit 122, a characteristic recognition unit 123, and a pattern determination unit 124. Actually, each of these components is realized by a computer in which a dedicated program is incorporated.

<2−2−1:代表点データ格納部>
代表点データ格納部121は、代表点認識部110から与えられる代表点データを格納する構成得要素である。上述したとおり、ここに示す実施例の場合、代表点データは、Q(x,y,a,t)なる形式のデータである。図には、代表点データ格納部121内に、時刻t=t1,t2,t3,... ,t9の各時点において得られた代表点データQが格納された例が示されている。図の1行目に格納されている代表点データQ11(x11,y11,a11,t1)は、時刻t1の時点のデータであり、図の2行目に格納されている代表点データQ12(x12,y12,a12,t2)は、時刻t2の時点のデータである。また、図の3行目には、2組の代表点データQ13(x13,y13,a13,t3)およびQ23(x23,y23,a23,t3)が格納された状態が示されているが、これら2組のデータは、いずれも同一時刻t3の時点のデータである。以下、時刻t8の行に至るまで、2組のデータが格納されており、最後の時刻t9の行では、1組の代表点データQ29(x29,y29,a29,t9)が格納されている。
<2-2-1: Representative point data storage unit>
The representative point data storage unit 121 is a component that stores the representative point data given from the representative point recognition unit 110. As described above, in the embodiment shown here, the representative point data is data in the form of Q (x, y, a, t). The figure shows an example in which representative point data Q obtained at each time point of time t = t1, t2, t3,..., T9 is stored in the representative point data storage unit 121. The representative point data Q11 (x11, y11, a11, t1) stored in the first line in the figure is data at the time t1, and the representative point data Q12 (x12 stored in the second line in the figure). , Y12, a12, t2) are data at the time t2. The third line in the figure shows a state in which two sets of representative point data Q13 (x13, y13, a13, t3) and Q23 (x23, y23, a23, t3) are stored. The two sets of data are both data at the same time t3. Hereinafter, two sets of data are stored up to the row of time t8, and one set of representative point data Q29 (x29, y29, a29, t9) is stored in the last row of time t9.

なお、ここでは、時刻t1の前には、代表点データが与えられない休止期間が存在し、時刻t9の後にも、代表点データが与えられない休止期間が存在するものとする。このような休止期間は、タッチパネル装置10からの検知信号が得られない場合に生じ、ユーザがタッチ面から指を離している状態を示している。逆に言えば、時刻t1〜t9の期間は、ユーザがタッチ面に指を接触させ、何らかのジェスチャー動作を行っている状態を示している。パターン解析部120は、このように、ある一定の連続した期間に与えられた一群の代表点データQ(x,y,a,t)を解析対象として、以下に述べるような解析処理を行うことになる。   Here, it is assumed that there is a pause period in which no representative point data is given before time t1, and a pause period in which no representative point data is given after time t9. Such a pause period occurs when a detection signal from the touch panel device 10 cannot be obtained, and indicates a state in which the user lifts his / her finger from the touch surface. In other words, the period from the time t1 to the time t9 indicates a state in which the user makes a gesture operation with the finger touching the touch surface. In this way, the pattern analysis unit 120 performs an analysis process as described below on a group of representative point data Q (x, y, a, t) given during a certain continuous period. become.

<2−2−2:ストローク認識部>
ストローク認識部122は、代表点データ格納部121に格納されている解析対象となる一群の代表点データQ(x,y,a,t)、すなわち、前後に所定の休止期間が存在する一定の連続した時間tを含むデータを読み出し、これら読み出した代表点データに基づいて、同一の指の動きを示す複数の代表点の集合体からなるストロークを認識する処理を行う。
<2-2-2: Stroke recognition unit>
The stroke recognizing unit 122 is a group of representative point data Q (x, y, a, t) to be analyzed stored in the representative point data storage unit 121, that is, a predetermined pause period exists before and after. Data including continuous time t is read out, and a process of recognizing a stroke composed of an aggregate of a plurality of representative points indicating the same finger movement is performed based on the read out representative point data.

たとえば、図4の代表点データ格納部121内に格納されている15組の代表点データQ11(x11,y11,a11,t1)〜Q29(x29,y29,a29,t9)によって示される15個の代表点Q11〜Q29を、その座標値に基づいてXY平面上にプロットすることにより、図5に示すような結果が得られた場合を考えてみる。ここで、たとえば代表点Q11は、座標値(x11,y11)で示される位置にプロットされた点である。   For example, 15 sets of representative point data Q11 (x11, y11, a11, t1) to Q29 (x29, y29, a29, t9) stored in the representative point data storage unit 121 of FIG. Let us consider a case where the results shown in FIG. 5 are obtained by plotting the representative points Q11 to Q29 on the XY plane based on the coordinate values. Here, for example, the representative point Q11 is a point plotted at the position indicated by the coordinate value (x11, y11).

このような結果が得られたのは、時刻t1において、代表点Q11の位置に指が接触しており、時刻t2において、代表点Q12の位置に指が接触しており、時刻t3において、代表点Q13およびQ23の位置に指が接触しており、時刻t4において、代表点Q14およびQ24の位置に指が接触しており、時刻t5において、代表点Q15およびQ25の位置に指が接触しており、時刻t6において、代表点Q16およびQ26の位置に指が接触しており、時刻t7において、代表点Q17およびQ27の位置に指が接触しており、時刻t8において、代表点Q18およびQ28の位置に指が接触しており、時刻t9において、代表点Q29の位置に指が接触していたためである。   This result was obtained when the finger touched the position of the representative point Q11 at time t1, the finger touched the position of the representative point Q12 at time t2, and the representative at time t3. The finger is in contact with the positions of points Q13 and Q23, the finger is in contact with the positions of representative points Q14 and Q24 at time t4, and the finger is in contact with the positions of representative points Q15 and Q25 at time t5. At time t6, the finger is in contact with the representative points Q16 and Q26, at time t7, the finger is in contact with the representative points Q17 and Q27, and at time t8, the representative points Q18 and Q28 This is because the finger is in contact with the position and the finger is in contact with the position of the representative point Q29 at time t9.

このような15個の代表点を、その時間を考慮して解析すれば、図の左方に破線で囲って示す8個の代表点Q11〜Q18は、同一の指の動きを示す複数の代表点の集合体からなるストロークS1を構成しており、図の右方に破線で囲って示す7個の代表点Q23〜Q29も、別な同一の指の動きを示す複数の代表点の集合体からなるストロークS2を構成していることが認識できる。結局、ストローク認識部122は、図4の代表点データ格納部121内に格納されている15組の代表点データQ11(x11,y11,a11,t1)〜Q29(x29,y29,a29,t9)に基づいて、それぞれ同一の指の動きを示す2組のストロークS1,S2を認識することができる。   If such 15 representative points are analyzed in consideration of the time, the eight representative points Q11 to Q18 indicated by a broken line on the left side of the figure are a plurality of representative points indicating the movement of the same finger. A stroke S1 composed of a set of points is configured, and the seven representative points Q23 to Q29 indicated by a broken line on the right side of the figure are also a set of a plurality of representative points indicating the same finger movement. It can be recognized that the stroke S2 consisting of Eventually, the stroke recognizing unit 122 has 15 sets of representative point data Q11 (x11, y11, a11, t1) to Q29 (x29, y29, a29, t9) stored in the representative point data storage unit 121 of FIG. Based on the above, it is possible to recognize two sets of strokes S1 and S2 each indicating the same finger movement.

このストローク認識部122による具体的なストローク認識アルゴリズムとしては、たとえば「代表点認識部110から出力された時間的に連続した一群の代表点データに基づいて、第i番目の時刻tに得られた代表点と第(i−1)番目の時刻ti−1に得られた代表点との距離が所定の基準d以下となる2つの代表点を同一のストロークに所属する代表点と認識する」というアルゴリズムを採用することができる。 A specific stroke recognition algorithm by the stroke recognition unit 122 is, for example, “obtained at the i-th time t i based on a group of representative point data output from the representative point recognition unit 110 in time. The two representative points whose distance between the representative point and the representative point obtained at the (i-1) -th time t i-1 is equal to or less than a predetermined reference d are recognized as representative points belonging to the same stroke. Can be employed.

図5に示す実例に上記アルゴリズムを適用すれば、次のようなプロセスで、2組のストロークS1,S2の認識が行われる。ここでは、距離の基準dとして、図5の上端に示す長さが予め設定されていたものとしよう。この場合、まず、時刻t1における代表点Q11を基準として、時刻t2における代表点Q12が同一ストロークに所属する点であるか否かの判定が行われる。図示の例の場合、両者間の距離d1<dであるから、代表点Q12は代表点Q11と同一のストロークに所属する点と認識される。   If the above algorithm is applied to the example shown in FIG. 5, two sets of strokes S1 and S2 are recognized by the following process. Here, it is assumed that the length shown at the upper end of FIG. 5 is set in advance as the distance reference d. In this case, first, it is determined whether or not the representative point Q12 at time t2 belongs to the same stroke with reference to the representative point Q11 at time t1. In the case of the illustrated example, since the distance d1 <d between the two, the representative point Q12 is recognized as a point belonging to the same stroke as the representative point Q11.

次に、時刻t3における代表点Q13,Q23についての判定が行われる。この場合、代表点Q13については、距離d2<dであるから、代表点Q13は代表点Q12と同一のストロークに所属する点と認識される。これに対して、代表点Q23については、距離d3>dであるから、代表点Q23は代表点Q12とは異なるストロークに所属する点と認識される。   Next, the determination about the representative points Q13 and Q23 at time t3 is performed. In this case, since the distance d2 <d for the representative point Q13, the representative point Q13 is recognized as a point belonging to the same stroke as the representative point Q12. On the other hand, for the representative point Q23, since the distance d3> d, the representative point Q23 is recognized as a point belonging to a stroke different from the representative point Q12.

続いて、時刻t4における代表点Q14,Q24についての判定が行われる。この場合、代表点Q14については、距離d4<dであり、距離d5>dであるから、代表点Q14は代表点Q13と同一のストロークに所属する点であるが、代表点Q23とは異なるストロークに所属する点と認識される。一方、代表点Q24については、距離d6<dであり、距離d7>dであるから、代表点Q24は代表点Q23と同一のストロークに所属する点であるが、代表点Q13とは異なるストロークに所属する点と認識される。以下、同様の処理を繰り返すことにより、結局、代表点Q11〜Q18は、同一のストロークS1に所属する点と認識され、代表点Q23〜Q29は、別な同一のストロークS2に所属する点と認識されることになる。   Subsequently, the determination for the representative points Q14 and Q24 at time t4 is performed. In this case, for the representative point Q14, since the distance d4 <d and the distance d5> d, the representative point Q14 belongs to the same stroke as the representative point Q13, but a stroke different from the representative point Q23. It is recognized as a point belonging to. On the other hand, for the representative point Q24, since the distance d6 <d and the distance d7> d, the representative point Q24 belongs to the same stroke as the representative point Q23, but has a different stroke from the representative point Q13. Recognized as a belonging point. Thereafter, by repeating the same processing, the representative points Q11 to Q18 are eventually recognized as points belonging to the same stroke S1, and the representative points Q23 to Q29 are recognized as points belonging to another same stroke S2. Will be.

図では、2組のストロークが認識された例を示したが、もちろん、1組だけのストロークが認識される場合もあれば(ユーザが1本指でジェスチャー動作を行った場合)、3組以上のストロークが認識される場合もある(ユーザが3本以上の指でジェスチャー動作を行った場合)。距離の基準値dは、ユーザが2本の指を揃えてタッチ面に触れた場合に得られる2つの代表点間の距離よりも短く、かつ、ユーザが指をタッチ面で動かした場合の1サンプル期間の移動距離よりも長くなるような適当な値に設定すればよい(ユーザの指の動きが速い場合でも、1サンプル期間を短く設定すれば、適切な基準値dを設定可能である)。   The figure shows an example in which two sets of strokes are recognized. Of course, there may be a case where only one set of strokes is recognized (when the user performs a gesture action with one finger), three or more sets. May be recognized (when the user performs a gesture motion with three or more fingers). The distance reference value d is shorter than the distance between two representative points obtained when the user touches the touch surface with two fingers aligned, and is 1 when the user moves the finger on the touch surface. An appropriate value may be set to be longer than the moving distance of the sample period (even if the user's finger moves quickly, an appropriate reference value d can be set by setting a short one sample period) .

なお、実用上は、このパターン解析部120で解析を行う際には、値aが所定の基準値以上の代表点データQ(x,y,a,t)のみに基づいてパターンの解析を行うようにするのが好ましい。具体的には、ストローク認識部122が、代表点データ格納部121に格納されている解析対象となる一群の代表点データQ(x,y,a,t)を読み出す際に、強度値aが所定基準未満となる代表点データQ(x,y,a,t)については、読み出しを行わないようにすればよい。   In practice, when the pattern analysis unit 120 performs the analysis, the pattern is analyzed based only on the representative point data Q (x, y, a, t) whose value a is equal to or greater than a predetermined reference value. It is preferable to do so. Specifically, when the stroke recognition unit 122 reads a group of representative point data Q (x, y, a, t) to be analyzed stored in the representative point data storage unit 121, the intensity value a is The representative point data Q (x, y, a, t) that is less than the predetermined reference may not be read out.

強度値aは、ユーザの指の押圧力を示すパラメータになるので、強度値aが所定基準未満となる代表点Qは、ユーザの指が触れてないのに何らかのノイズの影響で生じたものであるか、あるいは、ユーザの意図に反して、たまたま小指などの無関係な指が誤ってタッチ面に触れてしまったために生じたものである可能性が高い。そこで、このような代表点Qは、解析対象には含めないようにすれば、より正確な解析が可能になる。   Since the strength value a is a parameter indicating the pressing force of the user's finger, the representative point Q at which the strength value a is less than the predetermined reference is generated due to the influence of some noise even though the user's finger is not touching. There is a high possibility that it is caused by an unrelated finger such as a little finger accidentally touching the touch surface, contrary to the intention of the user. Therefore, if such a representative point Q is not included in the analysis target, a more accurate analysis can be performed.

<2−2−3:特性認識部>
特性認識部123は、ストローク認識部122によって認識された個々のストロークの特性を認識する処理を行う。1本のストロークは、ユーザの1本の指の動きの軌跡を示すものであり、その特性を認識することにより、ユーザが行ったジェスチャー動作の特徴を解析する上で役立つ情報を得ることができる。
<2-2-3: Characteristic recognition unit>
The characteristic recognizing unit 123 performs processing for recognizing the characteristic of each stroke recognized by the stroke recognizing unit 122. One stroke indicates the trajectory of the movement of one finger of the user. By recognizing the trajectory, information useful for analyzing the characteristics of the gesture motion performed by the user can be obtained. .

ここに示す実施例では、1本のストロークについて、ストローク長L,ストローク位置P(xp,yp),ストローク方位B,ストローク湾曲度Cという4つのパラメータを、ストローク特性を示す値として算出している。以下、図6を参照して、これら4つのパラメータが示すストローク特性を説明する。   In the embodiment shown here, four parameters of stroke length L, stroke position P (xp, yp), stroke orientation B, and stroke curvature C are calculated as values indicating stroke characteristics for one stroke. . The stroke characteristics indicated by these four parameters will be described below with reference to FIG.

図6は、この特性認識部123によって認識されるストローク特性を説明する平面図である。図の中央には、図5に示すストロークS1が示されている。このストロークS1は、上述したとおり、代表点Q11(時刻t1)から代表点Q18(時刻t8)に至るまでの8個の代表点によって構成され、ユーザの指による上から下へのスライド動作を示すものである。   FIG. 6 is a plan view for explaining the stroke characteristics recognized by the characteristic recognition unit 123. The stroke S1 shown in FIG. 5 is shown in the center of the figure. As described above, the stroke S1 is composed of eight representative points from the representative point Q11 (time t1) to the representative point Q18 (time t8), and indicates a sliding operation from the top to the bottom by the user's finger. Is.

ストローク長Lは、このストロークS1の全長を示すパラメータであり、具体的には、ここに示す実施例の場合、「1つのストロークS1を構成する複数の代表点Q11〜Q18を時系列に沿った順番で連結した場合の連結線の長さの総和」と定義している。このような定義によるストローク長Lは、厳密に言えば、実際のユーザの指の移動軌跡の全長とは若干異なるが、実用上、問題は生じない。図示の例の場合、線分Q11−Q12の長さ、線分Q12−Q13の長さ、線分Q13−Q14の長さ、線分Q14−Q15の長さ、線分Q15−Q16の長さ、線分Q16−Q17の長さ、線分Q17−Q18の長さの総和がスクロール長Lになる。このストローク長Lは、後述するように、当該ストロークが「点ストローク」か「線ストローク」かを判定するために用いられる。   The stroke length L is a parameter indicating the total length of the stroke S1. Specifically, in the embodiment shown here, “a plurality of representative points Q11 to Q18 constituting one stroke S1 are arranged in time series. It is defined as “total length of connecting lines when connected in order”. Strictly speaking, the stroke length L based on such a definition is slightly different from the total length of the actual movement trajectory of the user's finger, but there is no problem in practical use. In the case of the illustrated example, the length of the line segment Q11-Q12, the length of the line segment Q12-Q13, the length of the line segment Q13-Q14, the length of the line segment Q14-Q15, the length of the line segment Q15-Q16 The sum of the lengths of the line segments Q16 to Q17 and the lengths of the line segments Q17 to Q18 becomes the scroll length L. The stroke length L is used to determine whether the stroke is a “point stroke” or a “line stroke”, as will be described later.

一方、ストローク位置P(xp,yp)は、ストロークS1のXY平面上での位置を示すパラメータであり、座標値(xp,yp)によって表される。具体的には、図示のとおり、ストロークS1の代表的な位置(たとえば、全代表点Q11〜Q18の重心位置)を示す点Pを定め、この点Pの座標値(xp,yp)をストローク位置とすればよい。このストローク位置P(xp,yp)は、後述するように、複数のストロークが存在する場合に、相互位置関係を把握するために利用される。また、§3−2で述べる変形例においては、ジェスチャーが行われた領域を判定するために利用される。   On the other hand, the stroke position P (xp, yp) is a parameter indicating the position of the stroke S1 on the XY plane, and is represented by a coordinate value (xp, yp). Specifically, as shown, a point P indicating a representative position of the stroke S1 (for example, the gravity center position of all the representative points Q11 to Q18) is determined, and the coordinate value (xp, yp) of this point P is determined as the stroke position. And it is sufficient. This stroke position P (xp, yp) is used for grasping the mutual positional relationship when there are a plurality of strokes, as will be described later. Moreover, in the modification described in §3-2, it is used to determine the area where the gesture is performed.

また、ストローク方位Bは、XY平面上でのストロークS1全体の向きを示すパラメータである。大まかな概念としては、図示のとおり、ストロークS1の全体的な向きを示す方位ベクトルWを定め、この方位ベクトルWと所定の座標軸(図示の例の場合X軸)とのなす角度として、ストローク方位Bを定めることができる。ストローク方位Bの具体的な算出方法については後述する。このストローク方位Bは、ユーザの指の動きの向きを判定するために用いられる。   The stroke direction B is a parameter indicating the direction of the entire stroke S1 on the XY plane. As a rough concept, as shown in the figure, an orientation vector W indicating the overall direction of the stroke S1 is defined, and an angle formed by this orientation vector W and a predetermined coordinate axis (X axis in the illustrated example) is defined as a stroke orientation. B can be determined. A specific method for calculating the stroke direction B will be described later. This stroke direction B is used to determine the direction of movement of the user's finger.

そして、ストローク湾曲度Cは、文字どおり、ストロークS1の湾曲の程度を示すパラメータである。ここに示す実施例の場合、後述するように、ストロークの湾曲の程度が大きければ大きいほど、湾曲度Cの絶対値が大きくなるようなパラメータとして定義している。このストローク湾曲度Cは、当該ストロークが「直線ストローク」か「曲線ストローク」かを判定するために用いられる。また、ここに示す実施例の場合、ストロークが時計まわりに回転する場合と反時計まわりに回転する場合とで、互いに符号が異なるようにストローク湾曲度Cを定めている。したがって、「曲線ストローク」と判定されたストロークについては、更に、ストローク湾曲度Cの符号によって、「時計まわり曲線ストローク」か「反時計まわり曲線ストローク」かの判定を行うことが可能になる。   The stroke curvature C is literally a parameter indicating the degree of curvature of the stroke S1. In the case of the embodiment shown here, as will be described later, it is defined as a parameter that increases the degree of curvature of the stroke as the degree of curvature of the stroke increases. The stroke curvature C is used to determine whether the stroke is a “linear stroke” or a “curve stroke”. In the embodiment shown here, the stroke curvature C is determined so that the sign is different between when the stroke rotates clockwise and when it rotates counterclockwise. Therefore, the stroke determined as “curve stroke” can be further determined as “clockwise curve stroke” or “counterclockwise curve stroke” by the sign of stroke curvature C.

続いて、上述した4つのパラメータ(ストローク特性)を算出する具体的な方法の一例を説明する。図7は、このストローク特性の算出方法の原理を示すグラフである。ストローク認識部122において認識された1本のストロークは、時系列に基づいて順番が付された複数n個の代表点Qの集合体である。そこで、いま、図7(a) に示すように、第i番目の代表点Q、その直前の第(i−1)番目の代表点Qi−1、更にその直前の第(i−2)番目の代表点Qi−2の位置関係を考える。ここで、代表点Qの座標値を(x,y)とし、代表点Qi−1の座標値を(xi−1,yi−1)とし、代表点Qi−2の座標値を(xi−2,yi−2)とする。また、代表点Qi−1から代表点Qへ向かうベクトルをV、代表点Qi−2から代表点Qi−1へ向かうベクトルをVi−1とし、ベクトルVがベクトルVi−1に対してなす角度を変位角φとし、ベクトルVが所定の基準座標軸(この例ではX軸)に対してなす角度を方位角θとする。 Next, an example of a specific method for calculating the above-described four parameters (stroke characteristics) will be described. FIG. 7 is a graph showing the principle of the stroke characteristic calculation method. One stroke recognized by the stroke recognizing unit 122 is an aggregate of a plurality of n representative points Q that are ordered based on time series. Therefore, as shown in FIG. 7 (a), the i-th representative point Q i , the (i−1) -th representative point Q i−1 immediately before it, and the (i−2) -th previous point (i−2). ) Consider the positional relationship of the first representative point Q i-2 . Here, the coordinate value of the representative point Q i is (x i , y i ), the coordinate value of the representative point Q i−1 is (x i−1 , y i−1 ), and the representative point Q i−2 The coordinate value is assumed to be (x i-2 , y i-2 ). A vector from the representative point Q i-1 to the representative point Q i is V i , a vector from the representative point Q i-2 to the representative point Q i-1 is V i-1 , and the vector V i is a vector V i. An angle formed with respect to −1 is a displacement angle φ i, and an angle formed by a vector V i with respect to a predetermined reference coordinate axis (X axis in this example) is an azimuth angle θ i .

なお、ここでは、角度について、反時計まわりの方向を正、時計まわりの方向を負にとった場合の例を示すことにする。したがって、図7(a) に示す例の場合、変位角φは、実際には負の値をとり、ベクトルVの方向がベクトルVi−1の方向に対して時計まわりに変位していることが示される。このように、変位角φは、−180°<φ≦+180°の範囲内の値として定義される。同様に、図7(a) に示す例の場合、方位角θも、実際には負の値をとり、ベクトルVの方向がX軸正方向(図の右方向)に対して時計まわりに変位していることが示される。この方位角θも、−180°<θ≦+180°の範囲内の値として定義され、図7(b) に示すとおり、XY座標系上で、0°は右方向、+90°は上方向、−90°は下方向、±180°は左方向を示すことになる。 Here, with respect to the angle, an example is shown in which the counterclockwise direction is positive and the clockwise direction is negative. Thus, in the example shown in FIG. 7 (a), the displacement angle phi i is actually a negative value, displaced in the clockwise direction of the vector V i is the direction of the vector V i-1 Is shown. Thus, the displacement angle φ i is defined as a value in the range of −180 ° <φ i ≦ + 180 °. Similarly, in the example shown in FIG. 7A, the azimuth angle θ i actually takes a negative value, and the direction of the vector V i is clockwise with respect to the positive direction of the X axis (the right direction in the figure). It is shown that it is displaced. This azimuth angle θ i is also defined as a value within the range of −180 ° <θ i ≦ + 180 °. As shown in FIG. 7B, 0 ° is the right direction and + 90 ° is the upper direction on the XY coordinate system. Direction, −90 ° indicates the downward direction, and ± 180 ° indicates the left direction.

さて、このような定義を行うと、4つのストローク特性を示すパラメータ値は、図8に示すような具体的な演算式によって算出することができる。以下、この図8に示されている演算式を順に説明する。   Now, with such a definition, the parameter values indicating the four stroke characteristics can be calculated by a specific arithmetic expression as shown in FIG. Hereinafter, the arithmetic expressions shown in FIG. 8 will be described in order.

まず、ストローク長Lは、
L=Σ i=2〜n ((x−xi−1+(y−yi−11/2
なる演算式によって算出される。この式は、第1番目の代表点Q1〜第n番目の代表点Qnまで、各代表点を順に連結する線分の長さの総和を求める演算式になっている。
First, the stroke length L is
L = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
It is calculated by the following arithmetic expression. This expression is an arithmetic expression for obtaining the sum of the lengths of the line segments connecting the representative points in order from the first representative point Q1 to the nth representative point Qn.

一方、ストローク位置Pは、座標値(xp,yp)で示され、これらの座標値は、
xp=Σ i=2〜n ((x−xi−1+(y−yi−11/2・x
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
yp=Σ i=2〜n ((x−xi−1+(y−yi−11/2・y
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
なる演算によって算出される。この式は、第2番目の代表点Q2〜第n番目の代表点Qnまで、各代表点のX座標値およびY座標値の重み付き平均値となっている。すなわち、分子の((x−xi−1+(y−yi−11/2なる項が、第i番目代表点Qの座標値xおよびyに乗ぜられる重みであり、ベクトルVの長さに相当する。もちろん、第1番目の代表点Q1〜第n番目の代表点Qnまで、各代表点のX座標値およびY座標値の単純平均値を、座標値(xp,yp)とするようにしてもかまわないが、ベクトルVの長さを重みとする重み付き平均値を用いれば、ストローク全体の位置をより反映したストローク位置Pを得ることができる。
On the other hand, the stroke position P is indicated by coordinate values (xp, yp), and these coordinate values are
xp = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · x i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
yp = Σ i = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · y i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
Is calculated by the following calculation. This equation is a weighted average value of the X coordinate value and the Y coordinate value of each representative point from the second representative point Q2 to the nth representative point Qn. That is, the term ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 of the numerator becomes the coordinate values x i and y i of the i th representative point Q i. It is a weight to be multiplied and corresponds to the length of the vector V i . Of course, the simple average value of the X coordinate value and the Y coordinate value of each representative point from the first representative point Q1 to the nth representative point Qn may be used as the coordinate value (xp, yp). However, if a weighted average value using the length of the vector V i as a weight is used, a stroke position P more reflecting the position of the entire stroke can be obtained.

また、ストローク方位Bは、図7に示す方位角θの平均値として求めることができる。方位角θは、ベクトルVの方位を示すものであるから、これらの平均を求めることにより、ストローク全体の方位を得ることができる。ただ、ここに示す実施例では、ストローク位置Pを算出する場合と同様に、ベクトルVの長さを重みとする重み付き平均値を求めるようにしている。すなわち、ストローク方位Bは、
B=Σ i=2〜n ((x−xi−1+(y−yi−11/2・θ
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
なる演算によって算出される。ここでも、分子の((x−xi−1+(y−yi−11/2なる項が、ベクトルVの方位角θに乗ぜられる重みであり、ベクトルVの長さに相当する。
The stroke azimuth B can be obtained as an average value of the azimuth angles θ i shown in FIG. Since the azimuth angle θ i indicates the azimuth of the vector V i , the azimuth of the entire stroke can be obtained by obtaining the average of these. However, in the embodiment shown here, as in the case of calculating the stroke position P, so that obtaining the weighted average value for the weight of the length of the vector V i. That is, the stroke direction B is
B = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · θ i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
Is calculated by the following calculation. Here too, the term ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 of the numerator is a weight multiplied by the azimuth angle θ i of the vector V i , This corresponds to the length of the vector V i .

そして、ストローク湾曲度Cは、図7に示す変位角φの平均値として求めることができる。変位角φは、ベクトルVがベクトルVi−1に対して、どちらの方向(反時計まわり、もしくは時計まわり)にどれだけの角度曲がったかを示すパラメータである。したがって、たとえば、平均値が0に近ければ、当該ストロークは全体的には反時計まわりにも、時計まわりにも、曲がっていないことになり、直線に近いことを示す。平均値の絶対値が大きければ大きいほど、いずれかの方向に湾曲していることになる。ここに示す実施例では、この変位角φの平均値を求める際にも、ベクトルVの長さを重みとする重み付き平均値を求めるようにしている。すなわち、ストローク湾曲度Cは、
C=Σ i=3〜n ((x−xi−1+(y−yi−11/2・φ
/Σ i=3〜n ((x−xi−1+(y−yi−11/2
なる演算によって算出される。ここでも、分子の((x−xi−1+(y−yi−11/2なる項が、変位角φに乗ぜられる重みであり、ベクトルVの長さに相当する。なお、変位角φは、代表点Qi−2から代表点Qi−1へ向かうベクトルVi−1に対して、代表点Qi−1から代表点Qへ向かうベクトルVがなす角度であるので、i≧3の場合に定義される角度ということになる。このため、ストローク湾曲度Cを求める上記演算式の分母・分子は、i=3〜nについての総和になる。
The stroke curvature C can be obtained as an average value of the displacement angles φ i shown in FIG. The displacement angle φ i is a parameter indicating how much the vector V i is bent in which direction (counterclockwise or clockwise) with respect to the vector V i−1 . Therefore, for example, if the average value is close to 0, the stroke is not bent in the whole counterclockwise or clockwise direction, indicating that it is close to a straight line. As the absolute value of the average value is larger, the curve is curved in either direction. In the embodiment shown here, also when obtaining the average value of the displacement angle φ i , a weighted average value with the length of the vector V i as a weight is obtained. That is, the stroke curvature C is
C = Σ i = 3 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · φ i
/ Σ i = 3 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
Is calculated by the following calculation. Again, the term ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 of the numerator is the weight multiplied by the displacement angle φ i , and the vector V i Corresponds to the length. Incidentally, the displacement angle phi i, relative to the vector V i-1 extending from the representative point Q i-2 to the representative point Q i-1, the vector V i is formed extending from the representative point Q i-1 to the representative point Q i Since it is an angle, it is an angle defined when i ≧ 3. For this reason, the denominator and numerator of the above calculation formula for obtaining the stroke curvature C is the sum of i = 3 to n.

<2−2−4:パターン決定部>
パターン決定部124は、ストローク認識部122および特性認識部123による認識結果に基づいて、固有の特性をもった1つのストロークもしくは複数のストロークの組み合わせを1つのパターンに対応づけることにより、解析パターンを決定する処理を行う。ここに示す実施例では、個々のストロークをその特性に基づいて複数の種別に分類し、特定の種別もしくはその組み合わせに対して特定の解析パターンを対応させることにより、解析パターンを決定する処理を行うことになる。
<2-2-4: Pattern determination unit>
Based on the recognition results by the stroke recognition unit 122 and the characteristic recognition unit 123, the pattern determination unit 124 associates one stroke having a unique characteristic or a combination of a plurality of strokes with one pattern, thereby obtaining an analysis pattern. Perform the decision process. In the embodiment shown here, individual strokes are classified into a plurality of types based on their characteristics, and a process for determining an analysis pattern is performed by associating a specific analysis pattern with a specific type or combination thereof. It will be.

最も単純なストロークの分類法は、ストローク長Lに基づいて、「点ストローク」と「線ストローク」とに分類する方法である。すなわち、ストローク長Lが所定の基準値Lth未満のストロークを「点ストローク」なる種別に分類し、ストローク長Lが基準値Lth以上のストロークを「線ストローク」なる種別に分類することができる。別言すれば、「点ストローク」は、ユーザの指がほとんど移動していないストロークであり、「線ストローク」は、ユーザの指がある程度移動しているストロークと言うことができる。   The simplest stroke classification method is a method of classifying into “point stroke” and “line stroke” based on the stroke length L. That is, a stroke having a stroke length L less than a predetermined reference value Lth can be classified into a type “point stroke”, and a stroke having a stroke length L greater than the reference value Lth can be classified into a type “line stroke”. In other words, the “point stroke” is a stroke in which the user's finger hardly moves, and the “line stroke” can be said to be a stroke in which the user's finger moves to some extent.

また、ストローク長Lに、ストローク湾曲度Cを組み合わせると、「点ストローク」,「直線ストローク」,「曲線ストローク」の3つに分類することができるようになる。すなわち、上述したストローク長Lを利用した分類によって、「線ストローク」なる種別に分類されたストロークのうち、湾曲度Cの絶対値が所定の基準値Cth未満のストロークを「直線ストローク」なる種別に分類し、湾曲度Cの絶対値が基準値Cth以上のストロークを「曲線ストローク」なる種別に分類すればよい。   Further, when the stroke curvature C is combined with the stroke length L, the stroke length L can be classified into “point stroke”, “linear stroke”, and “curve stroke”. That is, of the strokes classified into the type of “line stroke” by the classification using the stroke length L described above, the strokes whose absolute value of the curvature C is less than the predetermined reference value Cth are classified into the type of “linear stroke”. It is only necessary to classify strokes whose absolute value of curvature C is equal to or greater than a reference value Cth into a type of “curve stroke”.

なお、ユーザが指を直線的に移動させる意図で、タッチ面上でジェスチャー動作を行ったとしても、その移動軌跡は完全な直線になることは稀であり、実際には、ストローク湾曲度Cは0にはならない。そこで、直線的な移動と判断できる限界となる適切な湾曲度Cを基準値Cthに設定しておくようにすれば、ユーザの行ったジェスチャー動作が直線を意図したものか、曲線を意図したものかを区別することができる。基準値Cthの具体的な数値を設定するには、たとえば、何人かのユーザに「指を直線的に移動するジェスチャーを行う」旨の指示を与えたときと、「指を曲線的に移動するジェスチャーを行う」旨の指示を与えたときとで、それぞれ得られる検知信号に基づいてストローク湾曲度Cを算出し、両者の中間的な値を基準値Cthとするような方法を採ればよい。   Even if the user performs a gesture operation on the touch surface with the intention of moving the finger linearly, the movement trajectory rarely becomes a complete straight line. It will not be zero. Therefore, if an appropriate degree of curvature C, which is a limit that can be determined as linear movement, is set to the reference value Cth, whether the gesture action performed by the user is intended for a straight line or a curved line. Can be distinguished. In order to set a specific numerical value of the reference value Cth, for example, when some users are instructed to “perform a gesture for moving a finger linearly” and “move a finger in a curved line” A method of calculating the stroke curvature C based on the respective detection signals obtained when giving an instruction to “perform gesture” and setting an intermediate value between the two as a reference value Cth may be adopted.

このように、ストローク長Lとストローク湾曲度Cとを用いれば、ストロークを「点ストローク」、「直線ストローク」、「曲線ストローク」なる3つの種別に分類することができる。したがって、ユーザが1本指によるジェスチャー動作を行うことを前提とする場合は、これら3つの種別に対して、それぞれ「点ストローク」パターン、「直線ストローク」パターン、「曲線ストローク」パターンなる3つの解析パターンを対応づけることができる。また、2本指によるジェスチャー動作を加えることも可能である。2本指によるジェスチャー動作については、2つのストロークの種別の組み合わせに対して、特定の解析パターンを対応づけることができる。たとえば、「点ストローク+直線ストローク」パターン、「直線ストローク+曲線ストローク」パターンといった具合である。もちろん、3本指以上によるジェスチャー動作についても同様である。   As described above, when the stroke length L and the stroke curvature C are used, the strokes can be classified into three types of “point stroke”, “linear stroke”, and “curve stroke”. Therefore, when it is assumed that the user performs a gesture operation with one finger, three analyzes of “point stroke” pattern, “linear stroke” pattern, and “curve stroke” pattern are provided for these three types, respectively. Patterns can be associated. It is also possible to add a gesture operation with two fingers. As for the gesture operation with two fingers, a specific analysis pattern can be associated with a combination of two stroke types. For example, a “point stroke + linear stroke” pattern, a “linear stroke + curve stroke” pattern, and so on. Of course, the same applies to gesture operations with three or more fingers.

更に、複数のストロークを含むパターンに対しては、ストローク位置Pを参照することにより相互位置関係を把握し、相互位置関係が異なるパターンを区別してパターンの決定を行うこともできる。たとえば、「左側の点ストローク+右側の直線ストローク」パターン、「上側の直線ストローク+下側の曲線ストローク」パターンといった具合である。   Further, for a pattern including a plurality of strokes, the mutual positional relationship can be grasped by referring to the stroke position P, and the pattern can be determined by distinguishing patterns having different mutual positional relationships. For example, a “left point stroke + right straight stroke” pattern, an “upper straight stroke + lower curve stroke” pattern, and so on.

ここで述べる実施例の場合、ストロークの種別を更に増やすため、「曲線ストローク」なる種別については、ストローク湾曲度Cの符号に基づいて、更に「時計まわり曲線ストローク」と「反時計まわり曲線ストローク」との2通りの種別に分けて取り扱うようにしている。前述したとおり、ストローク湾曲度Cは、ストロークが時計まわりに回転する場合と反時計まわりに回転する場合とで、互いに符号が異なるように定義されているので、ストローク湾曲度Cの符号を参照すれば、「時計まわり曲線ストローク」と「反時計まわり曲線ストローク」との分類を行うことが可能である。   In the embodiment described here, in order to further increase the types of strokes, for the type of “curve stroke”, “clockwise curve stroke” and “counterclockwise curve stroke” are further based on the sign of stroke curvature C. It is handled by dividing it into two types. As described above, the stroke curvature C is defined so that the sign differs between when the stroke rotates clockwise and when it rotates counterclockwise, so refer to the sign of the stroke curvature C. For example, it is possible to classify “clockwise curved stroke” and “counterclockwise curved stroke”.

一方、「直線ストローク」なる種別については、ストローク方位Bに基づいて、「直線ストローク」なる種別を、更に、方位の異なる4通りの種別に分けて取り扱うようにしている。図7(b) に示すように、ストローク方位Bは、−180°〜+180°の数値を示すパラメータであり、XY平面上で特定の方向を示す役割を果たす。ここで述べる実施例の場合、−135°<B≦−45°の場合には「下方向直線ストローク」、−45°<B≦+45°の場合には「右方向直線ストローク」、+45°<B≦+135°の場合には「上方向直線ストローク」、+135°<Bもしくは−135°≧Bの場合には「左方向直線ストローク」との分類を行っている。   On the other hand, for the type “straight stroke”, the type “straight stroke” is further divided into four types having different directions based on the stroke direction B. As shown in FIG. 7B, the stroke direction B is a parameter indicating a numerical value of −180 ° to + 180 °, and plays a role of indicating a specific direction on the XY plane. In the case of the embodiment described here, “downward linear stroke” when −135 ° <B ≦ −45 °, “rightward linear stroke” when −45 ° <B ≦ + 45 °, + 45 ° < When B ≦ + 135 °, “upward linear stroke” is classified, and when + 135 ° <B or −135 ° ≧ B, “leftward linear stroke” is classified.

結局、ここで述べる実施例の場合、パターン決定部124は、ストローク認識部122で認識された個々のストロークを、特性認識部123で認識された3つのストローク特性(ストローク長L,ストローク湾曲度C,ストローク方位B)を参照することにより、「点ストローク」,「時計まわり曲線ストローク」,「反時計まわり曲線ストローク」,「上方向直線ストローク」,「下方向直線ストローク」,「左方向直線ストローク」,「右方向直線ストローク」なる7種類の種別のいずれかに分類する処理を行う。   After all, in the embodiment described here, the pattern determination unit 124 converts each stroke recognized by the stroke recognition unit 122 into three stroke characteristics recognized by the characteristic recognition unit 123 (stroke length L, stroke curvature C). , Stroke direction B), “point stroke”, “clockwise curved stroke”, “counterclockwise curved stroke”, “upward linear stroke”, “downward linear stroke”, “leftward linear stroke” ”And“ Right straight stroke ”are classified into any of the seven types.

そして、ストローク認識部122で認識されたストロークが1つだけの場合は、当該特定の種別に基づいて解析パターンを決定する処理を行う。たとえば、「時計まわり曲線ストローク」という種別の単一のストロークのみを含むジェスチャー動作に対しては、「時計まわり曲線ストローク」パターンという解析パターンが対応づけられることになる。結局、単一のストロークのみを含むジェスチャー動作に対しては、7通りの解析パターンのいずれかが対応づけられる。   And when there is only one stroke recognized by the stroke recognition part 122, the process which determines an analysis pattern based on the said specific classification is performed. For example, an analysis pattern called a “clockwise curved stroke” pattern is associated with a gesture action including only a single stroke of the type “clockwise curved stroke”. Eventually, any of the seven analysis patterns is associated with a gesture operation including only a single stroke.

一方、ストローク認識部122で認識されたストロークが複数ある場合は、個々のストロークの種別の組み合わせに対して特定の解析パターンを対応づける処理が行われる。このとき、ストローク位置Pを参照することにより、複数のストロークについて相互位置関係を把握し、相互位置関係が異なるパターンを区別してパターンの決定を行うことになる。たとえば、左右の位置関係にある2つのストロークを含むジェスチャー動作に対しては、「左側の時計まわり曲線ストローク+右側の下方向直線ストローク」パターンと、「右側の時計まわり曲線ストローク+左側の下方向直線ストローク」パターンと、は異なる解析パターンになる。   On the other hand, when there are a plurality of strokes recognized by the stroke recognition unit 122, a process of associating a specific analysis pattern with a combination of individual stroke types is performed. At this time, by referring to the stroke position P, the mutual positional relationship is grasped for a plurality of strokes, and patterns having different mutual positional relationships are distinguished and determined. For example, for a gesture motion that includes two strokes that are in the left-right positional relationship, the pattern of “clockwise curved stroke on the left side + downward straight stroke on the right side” and “clockwise curved stroke on the right side + downward on the left side” The analysis pattern is different from the “linear stroke” pattern.

図9は、上述した方針に基づいて、パターン決定部124によって行われるパターン決定処理の手順を示す流れ図である。まず、ステップS11において、ストローク番号を示すパラメータjが初期値1に設定され、ステップS12において、第j番目のストロークSjについて、特性認識部123で算出された特性、すなわち、ストローク長L,ストローク位置P,ストローク方位B,ストローク湾曲度Cなる4つのパラメータ値が抽出される。そして、ステップS13において、ストローク長Lが所定の基準値Lthと比較される。ここで、L<Lthである場合には、ステップS14において、当該ストロークが「点ストローク」と認識される。   FIG. 9 is a flowchart showing a procedure of pattern determination processing performed by the pattern determination unit 124 based on the above-described policy. First, in step S11, the parameter j indicating the stroke number is set to an initial value 1, and in step S12, the characteristic calculated by the characteristic recognition unit 123 for the jth stroke Sj, that is, the stroke length L and the stroke position. Four parameter values, P, stroke orientation B, and stroke curvature C, are extracted. In step S13, the stroke length L is compared with a predetermined reference value Lth. If L <Lth, the stroke is recognized as a “point stroke” in step S14.

一方、ステップS13において、L≧Lthである場合には、「線ストローク」であると認識され、更にステップS15において、ストローク湾曲度Cの絶対値が所定の基準値Cthと比較される。ここで、|C|≧Cthである場合には、ステップS16において、当該ストロークが「曲線ストローク」と認識され、|C|<Cthである場合には、ステップS18において、当該ストロークが「直線ストローク」と認識される。   On the other hand, if L ≧ Lth in step S13, it is recognized as “line stroke”, and in step S15, the absolute value of stroke curvature C is compared with a predetermined reference value Cth. If | C | ≧ Cth, the stroke is recognized as a “curve stroke” in step S16. If | C | <Cth, the stroke is determined as “straight stroke” in step S18. Is recognized.

ステップS16において「曲線ストローク」との認識がなされた場合は、ステップS17において、湾曲度Cの符号により湾曲方向の決定が行われる。すなわち、湾曲度Cが正の場合は「反時計まわり曲線ストローク」であると認識され、湾曲度Cが負の場合は「時計まわり曲線ストローク」であると認識される。一方、ステップS18において「直線ストローク」との認識がなされた場合は、ステップS19において、ストローク方位Bに基づいて、上述したように上下左右の決定がなされる。   If it is recognized in step S16 that “curve stroke”, the bending direction is determined by the sign of the degree of curvature C in step S17. That is, when the degree of curvature C is positive, it is recognized as “counterclockwise curved stroke”, and when the degree of curvature C is negative, it is recognized as “clockwise curved stroke”. On the other hand, when the recognition of “straight stroke” is made in step S18, the determination of up, down, left and right is made based on the stroke direction B in step S19 as described above.

いずれの場合も、ステップS20において、第j番目のストロークSjに対して、7種類の種別のうちのいずれかが対応づけられる。すなわち、ストロークSjに対して、特定の種別が決定される。図9のステップS20のブロック内に示されている白抜き図形による記号は、この7種類の種別、すなわち、「点ストローク」,「時計まわり曲線ストローク」,「反時計まわり曲線ストローク」,「上方向直線ストローク」,「下方向直線ストローク」,「左方向直線ストローク」,「右方向直線ストローク」を示している。以下、本願の図では、この7種類のストローク種別を、これらの白抜き図形による記号で示すことにする。   In any case, in step S20, any of the seven types is associated with the jth stroke Sj. That is, a specific type is determined for the stroke Sj. The symbols by the white figure shown in the block of step S20 in FIG. 9 are the seven types, that is, “point stroke”, “clockwise curve stroke”, “counterclockwise curve stroke”, “upper”. "Directional linear stroke", "Downward linear stroke", "Left linear stroke", "Right straight stroke". Hereinafter, in the drawings of the present application, these seven types of strokes are indicated by symbols by these white figures.

こうして、第j番目のストロークSjについて、所定の種別が決定されると、ステップS21を経て、ステップS22へ進み、ストローク番号を示すパラメータjが1だけ更新され、再びステップS12からの処理が繰り返し実行される。このような処理が、ストローク認識部122で認識された全ストロークについて完了すると、ステップS21を経て、ステップS23へ進み、各ストロークの種別とストローク位置Pに基づいて、所定の解析パターンが決定される。   Thus, when a predetermined type is determined for the jth stroke Sj, the process proceeds to step S22 via step S21, the parameter j indicating the stroke number is updated by 1, and the processing from step S12 is repeatedly executed again. Is done. When such processing is completed for all strokes recognized by the stroke recognition unit 122, the process proceeds to step S23 through step S21, and a predetermined analysis pattern is determined based on the type of stroke and the stroke position P. .

上述したとおり、ストローク認識部122で認識されたストロークが1つのみである場合は、当該ストロークの種別に対応する解析パターンが対応づけられるが、認識されたストロークが複数ある場合は、その相互位置関係を考慮した種別の組み合わせに対して、1つの解析パターンが対応づけられる。   As described above, when there is only one stroke recognized by the stroke recognition unit 122, an analysis pattern corresponding to the type of the stroke is associated, but when there are a plurality of recognized strokes, their mutual positions One analysis pattern is associated with a combination of types considering the relationship.

図10は、パターン決定部124によって決定された解析パターンのいくつかの例を示す平面図である。パターンPT(A),PT(B)は、いずれもストローク認識部122で認識されたストロークが1つのみである場合の解析パターンであり、ユーザが1本指でジェスチャー動作を行った場合に得られる解析パターンである。すなわち、パターンPT(A)は、「時計まわり曲線ストローク」なる種別の単一ストロークのみを含むジェスチャー動作を解析することによって得られるパターンであり、パターンPT(B)は、「下方向直線ストローク」なる種別の単一ストロークのみを含むジェスチャー動作を解析することによって得られるパターンである。   FIG. 10 is a plan view showing some examples of analysis patterns determined by the pattern determination unit 124. The patterns PT (A) and PT (B) are both analysis patterns when there is only one stroke recognized by the stroke recognition unit 122, and are obtained when the user performs a gesture operation with one finger. Analysis pattern. That is, the pattern PT (A) is a pattern obtained by analyzing a gesture motion including only a single stroke of the type “clockwise curved stroke”, and the pattern PT (B) is “downward linear stroke”. This is a pattern obtained by analyzing a gesture motion including only a single stroke of a certain type.

これに対して、パターンPT(C)〜PT(E)は、ストローク認識部122で認識されたストロークが2つある場合の解析パターンであり、ユーザが2本指でジェスチャー動作を行った場合に得られる解析パターンである。上述したとおり、複数のストロークが認識された場合には、その相互位置関係を考慮した種別の組み合わせに対して、1つの解析パターンが対応づけられる。したがって、パターンPT(C)〜PT(E)は、いずれも「時計まわり曲線ストローク」と「下方向直線ストローク」との組み合わせからなるパターンであるが、互いに異なる解析パターンとなる。すなわち、パターンPT(C)は、「左側の時計まわり曲線ストローク+右側の下方向直線ストローク」パターンであり、パターンPT(D)は、「左側の下方向直線ストローク+右側の時計まわり曲線ストローク」パターンであり、パターンPT(E)は、「上側の下方向直線ストローク+下側の時計まわり曲線ストローク」パターンである。   On the other hand, the patterns PT (C) to PT (E) are analysis patterns when there are two strokes recognized by the stroke recognition unit 122, and when the user performs a gesture operation with two fingers. This is an analysis pattern obtained. As described above, when a plurality of strokes are recognized, one analysis pattern is associated with a combination of types in consideration of the mutual positional relationship. Accordingly, the patterns PT (C) to PT (E) are patterns that are combinations of “clockwise curved strokes” and “downward linear strokes”, but are different analysis patterns. That is, the pattern PT (C) is a “left clockwise curved stroke + right downward linear stroke” pattern, and the pattern PT (D) is “left downward linear stroke + right clockwise curved stroke”. The pattern PT (E) is a “upper downward linear stroke + lower clockwise curve stroke” pattern.

2つのストロークの相互位置関係は、それぞれのストローク位置P(xp,yp)に基づいて決定すればよい。ここに示す実施例では、相互位置関係を「左右の関係」と「上下の関係」とのいずれか一方に判断するようにしている。具体的には、第1のストロークS1の位置をP1(xp1,yp1)とし、第2のストロークS2の位置をP2(xp2,yp2)とし、位置偏差Δx=|xp1−xp2|,Δy=|yp1−yp2|を求め、Δx>Δyの場合には「左右の関係」と判断し、Δx<Δyの場合には「上下の関係」と判断している。「左右の関係」との判断が行われた場合には、ストローク位置PのX座標値の大小により、どちらのストロークが左側で、どちらのストロークが右側かの判断が行われ、「上下の関係」との判断が行われた場合には、ストローク位置PのY座標値の大小により、どちらのストロークが上側で、どちらのストロークが下側かの判断が行われる。   What is necessary is just to determine the mutual positional relationship of two strokes based on each stroke position P (xp, yp). In the embodiment shown here, the mutual positional relationship is determined to be either “left-right relationship” or “up-down relationship”. Specifically, the position of the first stroke S1 is P1 (xp1, yp1), the position of the second stroke S2 is P2 (xp2, yp2), and the positional deviations Δx = | xp1-xp2 |, Δy = | yp1-yp2 | is determined, and when [Delta] x> [Delta] y, it is determined as "right and left relation", and when [Delta] x <[Delta] y, it is determined as "upper and lower relation". When the “right / left relation” is determined, it is determined which stroke is on the left side and which stroke is on the right side depending on the magnitude of the X coordinate value of the stroke position P. ”Is determined based on the magnitude of the Y coordinate value of the stroke position P, which stroke is the upper side and which stroke is the lower side.

<2−3:サンプルパターン採取部および格納部の具体的な処理>
続いて、図1に示す装置におけるサンプルパターン採取部130およびサンプルパターン格納部150によって行われる具体的な処理を説明する。サンプルパターン採取部130は、ディスプレイ装置20の画面上に「タッチ面上で複数m通りのジェスチャーを行う」旨の指示を表示し、当該指示に基づくユーザのm通りのジェスチャー動作について、パターン解析部120によって得られた各解析パターンを、それぞれサンプルパターンとして採取する処理を行う。
<2-3: Specific Processing of Sample Pattern Collection Unit and Storage Unit>
Next, specific processing performed by the sample pattern collection unit 130 and the sample pattern storage unit 150 in the apparatus shown in FIG. 1 will be described. The sample pattern collection unit 130 displays an instruction to “perform a plurality of m gestures on the touch surface” on the screen of the display device 20, and a pattern analysis unit for the m gesture operations of the user based on the instruction Each analysis pattern obtained by 120 is collected as a sample pattern.

ユーザに指示する「複数m通りのジェスチャー」は、指を用いたジェスチャーであれば、どのようなジェスチャーを定めてもよい。特に、1本の指だけでなく、複数の指を用いたジェスチャーには、様々なバリエーションが存在する。図11は、2本指を用いたジェスチャーの種類を例示する平面図である。図示の黒矢印は、2本の指のタッチ面上での移動方向を示しており、G1〜G6の6種類の異なるジェスチャーが示されている。   As the “plural m-number of gestures” instructed to the user, any gesture may be defined as long as it is a gesture using a finger. In particular, there are various variations in gestures using a plurality of fingers as well as one finger. FIG. 11 is a plan view illustrating types of gestures using two fingers. The illustrated black arrow indicates the direction of movement of the two fingers on the touch surface, and shows six different gestures G1 to G6.

ジェスチャーG1は、2本の指を下から上へとスライドさせる「上スクロール」のジェスチャーであり、ジェスチャーG2は、2本の指を上から下へとスライドさせる「下スクロール」のジェスチャーであり、ジェスチャーG3は、2本の指を右から左へとスライドさせる「左スクロール」のジェスチャーであり、ジェスチャーG4は、2本の指を左から右へとスライドさせる「右スクロール」のジェスチャーである。また、ジェスチャーG5は、2本の指を互いに時計まわりの方向へ回転させる「時計まわり」のジェスチャーであり、ジェスチャーG6は、2本の指を互いに反時計まわりの方向へ回転させる「反時計まわり」のジェスチャーである。   Gesture G1 is a “up scroll” gesture that slides two fingers from bottom to top, and gesture G2 is a “down scroll” gesture that slides two fingers from top to bottom, The gesture G3 is a “left scroll” gesture that slides two fingers from right to left, and the gesture G4 is a “right scroll” gesture that slides two fingers from left to right. The gesture G5 is a “clockwise” gesture that rotates two fingers in a clockwise direction, and the gesture G6 is a “counterclockwise rotation that rotates two fingers in a counterclockwise direction. ”Gesture.

ここでは、説明の便宜上、図11に示す6通りのジェスチャー動作について、それぞれサンプルパターンを登録する処理を行う例を述べることにする。実用上は、必要に応じて、この他にも様々なジェスチャー動作を登録することができる。もちろん、1本の指を用いたジェスチャー動作や3本以上の指を用いたジェスチャー動作を併せて登録することもできる。   Here, for convenience of explanation, an example will be described in which processing for registering a sample pattern is performed for each of the six gesture operations shown in FIG. In practice, various gesture operations can be registered as necessary. Of course, a gesture operation using one finger and a gesture operation using three or more fingers can also be registered.

このような登録を行うために、ユーザは、まずサンプルパターン採取部130に対して初期設定を行う旨の指示を与える。実際には、コンピュータをサンプルパターン採取部130として機能させるためのプログラムを起動する操作を行えばよい。すると、サンプルパターン採取部130は、6通りのジェスチャー動作のそれぞれについて、順にジェスチャー登録を指示する画面をディスプレイ装置20に表示し、当該指示に基づくユーザのジェスチャー動作について、パターン解析部120によって得られた解析パターンを、当該ジェスチャーについてのサンプルパターンとして採取する処理を行う。   In order to perform such registration, the user first instructs the sample pattern collection unit 130 to perform initial setting. Actually, an operation for starting a program for causing a computer to function as the sample pattern collection unit 130 may be performed. Then, the sample pattern collection unit 130 displays a screen for instructing gesture registration in order for each of the six gesture operations on the display device 20, and the pattern analysis unit 120 obtains the user's gesture operation based on the instruction. The analysis pattern is collected as a sample pattern for the gesture.

図12は、このサンプルパターン採取部130の機能によって、ディスプレイ装置20に表示される指示画面の一例を示す平面図である。この指示画面は、図11に示すジェスチャーG1「上スクロール」を登録するための指示画面であり、ユーザに、タッチ面上で、2本指を上方向に平行に移動させるジェスチャーを行うよう指示する画面である。この指示を見たユーザは、タッチパネル装置10のタッチ面上で、指示されたジェスチャー動作を行うことになる。ユーザが行ったジェスチャー動作は、パターン解析部120で解析され、当該ジェスチャー動作に対して、所定の解析パターンが対応づけられる。サンプルパターン採取部130は、こうして得られた解析パターンを、当該ジェスチャーについてのサンプルパターンとして採取することになる。   FIG. 12 is a plan view showing an example of an instruction screen displayed on the display device 20 by the function of the sample pattern collection unit 130. This instruction screen is an instruction screen for registering the gesture G1 “up scroll” shown in FIG. 11, and instructs the user to perform a gesture for moving two fingers in parallel upward on the touch surface. It is a screen. The user who sees this instruction performs the instructed gesture operation on the touch surface of the touch panel device 10. The gesture motion performed by the user is analyzed by the pattern analysis unit 120, and a predetermined analysis pattern is associated with the gesture motion. The sample pattern collection unit 130 collects the analysis pattern thus obtained as a sample pattern for the gesture.

サンプルパターン格納部150は、こうして採取された各サンプルパターンを格納する機能を果たす。すなわち、サンプルパターン採取部130が、第k番目(1≦k≦m)のジェスチャーを行う旨の指示を表示したときに採取された解析パターンを、第k番目のジェスチャーに対応するサンプルパターンとして格納する。   The sample pattern storage unit 150 functions to store each sample pattern thus collected. That is, the analysis pattern collected when the sample pattern collection unit 130 displays an instruction to perform the kth (1 ≦ k ≦ m) gesture is stored as a sample pattern corresponding to the kth gesture. To do.

図13は、このようにしてサンプルパターン格納部150に格納されたサンプルパターンの一例を示す平面図である。ここに示されている6つのサンプルパターンSP(G1)〜SP(G6)は、それぞれ図11に示す6種類のジェスチャーG1〜G6に対応するサンプルパターンである。   FIG. 13 is a plan view showing an example of the sample pattern stored in the sample pattern storage unit 150 in this way. The six sample patterns SP (G1) to SP (G6) shown here are sample patterns corresponding to the six types of gestures G1 to G6 shown in FIG. 11, respectively.

ここで、サンプルパターンSP(G1),SP(G3),SP(G5)は、標準的なサンプルパターンであり、パターンを構成する各ストロークの種別(白抜きの図形で示す)は、図11に示すジェスチャーG1,G3,G5の黒矢印の種別に一致している。しかしながら、サンプルパターンSP(G2),SP(G4),SP(G6)は、若干標準的なパターンから逸脱している。   Here, the sample patterns SP (G1), SP (G3), and SP (G5) are standard sample patterns, and the types of strokes constituting the pattern (indicated by white graphics) are shown in FIG. It corresponds to the type of black arrow of the gestures G1, G3, G5 shown. However, the sample patterns SP (G2), SP (G4), and SP (G6) slightly deviate from the standard pattern.

たとえば、サンプルパターンSP(G2)は、図11に示すジェスチャーG2「下スクロール」に対応するものであるから、本来であれば、左右のストロークともに、「下方向直線ストローク」(下向きの白抜き矢印)になるはずであるが、実際には、左側のストロークは「時計まわり曲線ストローク」になっている。このような結果が得られた理由は、このユーザ自身は、「2本指を下方向に平行に移動させるジェスチャー」を行っているつもりであるが、実際には、左側の指の動きは時計まわりに回転していたためである。すなわち、このユーザには、2本指を下方向に平行に移動させる動作を行わせた場合、左側の指の動きが時計まわりに回転する、という固有の癖があることになる。   For example, since the sample pattern SP (G2) corresponds to the gesture G2 “down scroll” shown in FIG. 11, both the left and right strokes are originally “down straight strokes” (downward white arrows). In fact, the left stroke is a “clockwise curve stroke”. The reason why such a result was obtained is that this user himself intends to perform a “gesture that moves two fingers in parallel downward”, but in actuality, the movement of the left finger is a clock. It was because it was rotating around. That is, when the user moves the two fingers in parallel downward, the user has a peculiar habit that the movement of the left finger rotates clockwise.

同様に、サンプルパターンSP(G4)は、このユーザには、2本指を右方向に平行に移動させる動作を行わせた場合、下側の指の動きが時計まわりに回転する、という固有の癖があることを示している。また、サンプルパターンSP(G6)は、このユーザには、2本指を共に反時計まわりに回転させる動作を行わせた場合、右側の指がほとんど動かない、という固有の癖があることを示している。本発明の重要な特徴は、準備段階で行われるジェスチャー登録の作業によって、個々のジェスチャーについてユーザの固有の癖を予めサンプルパターンとして登録しておく点にある。このように、準備段階で予めサンプルパターンの登録を行っておけば、検出段階ではこのサンプルパターンを参照することにより、ユーザが行った操作入力を正確に検知することができるようになるのである。   Similarly, the sample pattern SP (G4) is unique in that when the user is caused to move two fingers in parallel in the right direction, the movement of the lower finger rotates clockwise. It shows that there is a habit. The sample pattern SP (G6) also shows that this user has a peculiar habit that the right finger hardly moves when both fingers are rotated counterclockwise. ing. An important feature of the present invention is that a user's unique habit is registered in advance as a sample pattern for each gesture by the gesture registration work performed in the preparation stage. As described above, if the sample pattern is registered in advance in the preparation stage, the operation input performed by the user can be accurately detected by referring to the sample pattern in the detection stage.

もちろん、ユーザによって、それぞれジェスチャーの癖が異なるので、別なユーザが登録作業を行えば、サンプルパターン格納部150内に格納されるサンプルパターンも異なったものになる。図14は、別なユーザの登録作業によってサンプルパターン格納部150内に格納されたサンプルパターンを示す平面図である。この図14に示す例も、図11に示す6通りのジェスチャーについて得られたサンプルパターンであるが、図13に示す例と比較すると、それぞれ異なる内容のパターンが登録されていることがわかる。   Of course, since each user has different gesture habits, if another user performs a registration operation, the sample patterns stored in the sample pattern storage unit 150 also differ. FIG. 14 is a plan view showing sample patterns stored in the sample pattern storage unit 150 by another user registration operation. The example shown in FIG. 14 is also a sample pattern obtained for the six kinds of gestures shown in FIG. 11, but it can be seen that patterns having different contents are registered as compared with the example shown in FIG.

<2−4:操作入力パターン採取部・パターン選択部・検知結果出力部の処理>
操作入力パターン採取部140は、外部ユニット200から操作入力の検知を要求する検知要求信号が与えられた後に、パターン解析部120によって得られた解析パターンを操作入力パターンとして採取する処理を行う。そして、パターン選択部160は、こうして採取された操作入力パターンを、サンプルパターン格納部150に格納されている複数m通りのサンプルパターンと比較し、合致したサンプルパターンを選択する処理を行う。最後に、検知結果出力部170は、パターン選択部160で選択されたサンプルパターンに対応するジェスチャーを示す情報を、操作入力の検知結果を示す検知結果信号として外部ユニット200へ出力する処理を行う。
<2-4: Processing of Operation Input Pattern Collection Unit / Pattern Selection Unit / Detection Result Output Unit>
The operation input pattern collection unit 140 performs a process of collecting an analysis pattern obtained by the pattern analysis unit 120 as an operation input pattern after a detection request signal for requesting detection of an operation input is given from the external unit 200. Then, the pattern selection unit 160 compares the operation input pattern thus collected with a plurality of m types of sample patterns stored in the sample pattern storage unit 150, and performs a process of selecting a matching sample pattern. Finally, the detection result output unit 170 performs processing to output information indicating a gesture corresponding to the sample pattern selected by the pattern selection unit 160 to the external unit 200 as a detection result signal indicating the detection result of the operation input.

§1で述べたとおり、外部ユニット200では、何らかの処理を行うプログラムが実行されており、当該プログラムが、ユーザからの何らかの操作入力を必要としたときに、外部ユニット200からデジタル処理ユニット100に対して検知要求信号が出されることになる。この場合、この外部ユニット200で実行されているプログラムは、たとえば、図11に示す6通りのジェスチャーG1〜G6を、それぞれ特定の操作入力と認識して処理を続行するように設計されている。   As described in §1, in the external unit 200, a program for performing some processing is executed, and when the program requires some operation input from the user, the external unit 200 transmits to the digital processing unit 100. A detection request signal is issued. In this case, the program executed in the external unit 200 is designed to continue processing by recognizing, for example, the six gestures G1 to G6 shown in FIG. 11 as specific operation inputs, respectively.

ここでは、一例として、外部ユニット200からの検知要求信号が与えられた後に、タッチパネル装置10に対してユーザのジェスチャー動作が行われ、パターン解析部120が当該ジェスチャー動作を解析することによって、図10に示すパターンPT(C)が解析パターンとして得られたものとしよう。この場合、操作入力パターン採取部140は、この図10に示すパターンPT(C)を操作入力パターンとして採取し、パターン選択部160に引き渡す処理を行う。パターン選択部160は、こうして引き渡されたパターンPT(C)を、サンプルパターン格納部150に格納されている図13に示す6通りのサンプルパターンSP(G1)〜SP(G6)と比較し、合致したサンプルパターンSP(G2)を選択する処理を行う。その結果、検知結果出力部170は、当該サンプルパターンSP(G2)に対応するジェスチャーG2を示す情報を、検知結果信号として外部ユニット200へ出力する。なお、合致するサンプルパターンが見つからない場合には、たとえば、エラーメッセージを検知結果信号として返すようにすればよい。   Here, as an example, after the detection request signal from the external unit 200 is given, the user's gesture operation is performed on the touch panel device 10, and the pattern analysis unit 120 analyzes the gesture operation, so that FIG. Assume that the pattern PT (C) shown in FIG. In this case, the operation input pattern collection unit 140 collects the pattern PT (C) shown in FIG. 10 as an operation input pattern, and performs a process of delivering it to the pattern selection unit 160. The pattern selection unit 160 compares the delivered pattern PT (C) with the six sample patterns SP (G1) to SP (G6) stored in the sample pattern storage unit 150 shown in FIG. The selected sample pattern SP (G2) is selected. As a result, the detection result output unit 170 outputs information indicating the gesture G2 corresponding to the sample pattern SP (G2) to the external unit 200 as a detection result signal. If no matching sample pattern is found, for example, an error message may be returned as a detection result signal.

かくして、外部ユニット200には、ユーザからジェスチャーG2に対応する操作入力がなされた旨の検知結果信号が返されることになる。外部ユニット200で実行されているプログラムは、当該操作入力に応じて、所定の処理を続行することになる。たとえば、図11に示すジェスチャーG1に対応する操作入力があった場合には、画面を上方にスクロールし、ジェスチャーG5に対応する操作入力があった場合には、オブジェクトを時計まわりに回転させる、というような処理が行われることになる。   Thus, a detection result signal indicating that an operation input corresponding to the gesture G2 has been made by the user is returned to the external unit 200. The program being executed in the external unit 200 will continue the predetermined process in response to the operation input. For example, when there is an operation input corresponding to the gesture G1 shown in FIG. 11, the screen is scrolled upward, and when there is an operation input corresponding to the gesture G5, the object is rotated clockwise. Such processing is performed.

上例において、ユーザは、ジェスチャーG2「2本指による下スクロール」に関して、2本指を下方向に平行に移動させているつもりであるのに、実際には、左側の指の動きが時計まわりに回転してしまう、という固有の癖を有している。従来の操作入力検知装置では、このような固有の癖を考慮せずに、ジェスチャーG2「2本指による下スクロール」が行われた場合には、左右に並んだ2本の「下方向直線ストローク」が得られるとの前提で検知処理が行われていたため、上例の場合には正しい検知を行うことができない。本願発明では、このようなユーザに固有の癖をサンプルパターンとして登録してあるため、固有の癖を考慮した正確な検知処理が可能になる。   In the above example, although the user intends to move the two fingers downward in parallel with respect to the gesture G2 “down scroll with two fingers”, the movement of the left finger is actually clockwise. It has a unique habit of rotating. In the conventional operation input detection device, when the gesture G2 “down scrolling with two fingers” is performed without considering such a peculiar wrinkle, two “downward linear strokes” arranged side by side are arranged. "Is obtained on the premise that" "is obtained. Therefore, in the above example, correct detection cannot be performed. In the present invention, such a unique wrinkle for a user is registered as a sample pattern, so that an accurate detection process considering the unique wrinkle is possible.

<<< §3.様々な変形例 >>>
以上、本発明に係る操作入力検知装置の基本的実施形態の構成を§1で述べ、各構成要素による具体的処理を§2で述べた。そこで、ここでは、本発明の様々な変形例を述べることにする。
<<< §3. Various modifications >>
The configuration of the basic embodiment of the operation input detection device according to the present invention has been described in Section 1 and the specific processing by each component has been described in Section 2. Therefore, here, various modifications of the present invention will be described.

<3−1:ユーザを特定する変形例>
図15は、本発明の変形例に係るタッチパネルを用いた操作入力検知装置の構成を示すブロック図である。図1に示す基本的実施形態との相違点は、デジタル処理ユニット100の代わりに、デジタル処理ユニット100Aが用いられている点である。デジタル処理ユニット100Aの大きな特徴は、デジタル処理ユニット100に、ユーザ特定部180を付加した点である。
<3-1: Modification Example for Specifying User>
FIG. 15 is a block diagram illustrating a configuration of an operation input detection device using a touch panel according to a modification of the present invention. The difference from the basic embodiment shown in FIG. 1 is that a digital processing unit 100 A is used instead of the digital processing unit 100. A major feature of the digital processing unit 100A is that a user specifying unit 180 is added to the digital processing unit 100.

ユーザ特定部180は、現在利用中のユーザを特定する情報を入力しこれを保存する機能を有する構成要素である。ここに示す例の場合、外部ユニット200から、ユーザ特定部180に対してユーザ識別コードUが与えられ、ユーザ特定部180は、このユーザ識別コードUを現在利用中のユーザを特定する情報として入力し、保存する。これは、一般的な電子機器の場合、外部ユニット200を利用中のユーザと、本発明に係る操作入力検知装置を利用中のユーザとが同一であると考えることができるためである。   The user specifying unit 180 is a component having a function of inputting information for specifying a user currently in use and storing it. In the case of the example shown here, the user identification code U is given from the external unit 200 to the user identification unit 180, and the user identification unit 180 inputs this user identification code U as information for identifying the user currently in use. And save. This is because, in the case of a general electronic device, it can be considered that the user who is using the external unit 200 is the same as the user who is using the operation input detection device according to the present invention.

たとえば、図15に示されている全ブロックが、所定のプログラムを組み込んだパソコンによって構成されている場合、ユーザは、当該パソコンに所定のユーザ識別コードU(アカウント)を用いてログインして利用することになる。この場合、外部ユニット200内にユーザ識別コードUが格納されているので、ユーザ特定部180は、この外部ユニット200内に格納されているユーザ識別コードUを取り込むことにより、現在利用中のユーザを特定することができる。   For example, when all the blocks shown in FIG. 15 are configured by a personal computer incorporating a predetermined program, the user logs in to the personal computer using a predetermined user identification code U (account) and uses it. It will be. In this case, since the user identification code U is stored in the external unit 200, the user specifying unit 180 captures the user identification code U stored in the external unit 200, thereby identifying the user currently in use. Can be identified.

一方、サンプルパターン採取部130Aの機能は、図1に示す装置におけるサンプルパターン採取部130の機能とほぼ同じである。ただ、ユーザ特定部180によって特定されたユーザごとにそれぞれ独立してサンプルパターンを採取する処理を行う。同様に、サンプルパターン格納部150Aの機能も、図1に示す装置におけるサンプルパターン格納部150の機能とほぼ同じである。ただ、ユーザ特定部180によって特定されたユーザごとにそれぞれ独立してサンプルパターンを格納する処理を行う。図13と図14を比較すればわかるように、全く同じジェスチャーについて採取されたサンプルパターンであっても、ユーザには固有の癖があるため、得られたサンプルパターンはユーザごとに異なる場合がある。図15に示す変形例では、サンプルパターン格納部150A内に、それぞれユーザごとのサンプルパターンが格納されることになる。   On the other hand, the function of the sample pattern collection unit 130A is substantially the same as the function of the sample pattern collection unit 130 in the apparatus shown in FIG. However, the process which collects a sample pattern independently for every user specified by the user specific | specification part 180 is performed. Similarly, the function of the sample pattern storage unit 150A is substantially the same as the function of the sample pattern storage unit 150 in the apparatus shown in FIG. However, the process which stores a sample pattern independently for every user specified by the user specific | specification part 180 is performed. As can be seen by comparing FIG. 13 and FIG. 14, even if sample patterns are collected for exactly the same gesture, the user may have unique habits, so the obtained sample patterns may vary from user to user. . In the modification shown in FIG. 15, the sample pattern for each user is stored in the sample pattern storage unit 150A.

図16は、図15に示す操作入力検知装置のサンプルパターン格納部150Aに格納されているユーザごとのサンプルパターンの一例を示す平面図である。この例では、ユーザ識別コードUa,Ub,Ucをもった3人のユーザA,B,Cについて、それぞれ別個独立したサンプルパターンSP(Ua),SP(Ub),SP(Uc)が格納されている状態が示されている。ここで、個々のサンプルパターンSP(Ua),SP(Ub),SP(Uc)は、それぞれが、たとえば図13に示すような6個のサンプルパターンによって構成されている。   FIG. 16 is a plan view showing an example of a sample pattern for each user stored in the sample pattern storage unit 150A of the operation input detection device shown in FIG. In this example, independent sample patterns SP (Ua), SP (Ub), and SP (Uc) are stored for three users A, B, and C having user identification codes Ua, Ub, and Uc, respectively. The state is shown. Here, each sample pattern SP (Ua), SP (Ub), SP (Uc) is configured by six sample patterns as shown in FIG. 13, for example.

また、パターン選択部160Aの機能は、図1に示す装置におけるパターン選択部160の機能とほぼ同じである。ただ、パターン選択を行う際には、ユーザ特定部180によって特定されたユーザについてのサンプルパターンとの比較を行うことによりパターン選択を行うことになる。たとえば、ユーザ特定部180内にユーザ識別コードUaが保存されており、現在利用中のユーザがユーザAであることが特定されている場合、パターン選択部160Aは、サンプルパターン格納部150A内のユーザAについてのサンプルパターンSP(Ua)を用いた比較を行うことにより、パターン選択を行うことになる。   The function of the pattern selection unit 160A is substantially the same as the function of the pattern selection unit 160 in the apparatus shown in FIG. However, when performing pattern selection, pattern selection is performed by comparing with the sample pattern for the user specified by the user specifying unit 180. For example, when the user identification code Ua is stored in the user specifying unit 180 and it is specified that the currently used user is the user A, the pattern selecting unit 160A displays the user in the sample pattern storing unit 150A. A pattern selection is performed by making a comparison using the sample pattern SP (Ua) for A.

このように、図15に示す変形例によれば、複数のユーザによる利用が予定されていた場合でも、個々のユーザに固有の特徴をそれぞれ考慮した正確な操作入力の検知が可能になる。   As described above, according to the modification shown in FIG. 15, even when use by a plurality of users is planned, it is possible to detect an accurate operation input in consideration of features unique to each user.

<3−2:領域を特定する変形例>
図1や図15では、説明の便宜上、タッチパネル装置10とディスプレイ装置20とを別個のブロックとして示しているが、タッチパネル装置10およびディスプレイ装置20を、表示画面がタッチ面を構成するタッチパネル付ディスプレイ装置によって構成することも可能である。最近は、タブレット型の電子機器、多機能携帯電話、携帯型ゲーム機も普及しており、これらの機器では、通常、タッチパネル付ディスプレイ装置が利用されている。
<3-2: Modified example for specifying region>
In FIG. 1 and FIG. 15, for convenience of explanation, the touch panel device 10 and the display device 20 are shown as separate blocks. However, the touch panel device 10 and the display device 20 are each a display device with a touch panel whose display screen forms a touch surface. It is also possible to configure by. Recently, tablet-type electronic devices, multi-function mobile phones, and portable game machines have become widespread, and display devices with a touch panel are usually used in these devices.

このようなタッチパネル付ディスプレイ装置を組み込んだ電子機器では、ユーザは、ディスプレイ画面上の任意の位置をタッチすることができる。したがって、表示画面が広くなればなるほどタッチ面も広くなる。ところが、タッチ面が広くなると、ジェスチャーを行う場所によって、得られる解析パターンに相違が生じる可能性がある。最近は、17インチ程度の表示画面を有するタッチパネル付ディスプレイ装置を組み込んだ電子機器も市販されている。このような電子機器を、たとえば、横長状態で左手で保持したまま、右手の指を用いて画面(タッチ面)上で様々なジェスチャー動作を行う場合を考えてみる。この場合、画面の左端でジェスチャーを行った場合と、右端でジェスチャーを行った場合とでは、ユーザが同一のジェスチャーを行っているつもりでも、パターン解析部120から得られる解析パターンは異なったものになる可能性がある。タッチパネル付ディスプレイ装置を複数台並べて、より大型のタッチパネル付ディスプレイ装置として使用する場合に、この傾向はさらに顕著となる。   In an electronic device in which such a display device with a touch panel is incorporated, the user can touch an arbitrary position on the display screen. Therefore, the larger the display screen, the wider the touch surface. However, when the touch surface becomes wide, there is a possibility that a difference occurs in the obtained analysis pattern depending on the place where the gesture is performed. Recently, electronic devices incorporating a display device with a touch panel having a display screen of about 17 inches are also commercially available. Consider a case where such an electronic device is held with the left hand in a horizontally long state and various gesture operations are performed on the screen (touch surface) using the finger of the right hand. In this case, when the gesture is performed at the left end of the screen and when the gesture is performed at the right end, even if the user intends to perform the same gesture, the analysis pattern obtained from the pattern analysis unit 120 is different. There is a possibility. This tendency becomes more prominent when a plurality of display devices with a touch panel are arranged and used as a larger display device with a touch panel.

このようなケースに対応するには、タッチパネル装置のタッチ面を分割して複数の領域を定義し、個々の領域ごとにそれぞれ別個独立したサンプルパターンを採取すればよい。そうすれば、ジェスチャーが行われた主たる領域を認識し、当該認識領域についてのサンプルパターンとの比較を行うことにより、正確な操作入力の検知が可能になる。   In order to deal with such a case, the touch surface of the touch panel device may be divided to define a plurality of areas, and individual sample patterns may be collected for each area. By doing so, it is possible to accurately detect an operation input by recognizing the main area where the gesture has been performed and comparing it with the sample pattern for the recognition area.

図17は、タッチパネル付ディスプレイ装置のタッチ面(表示面)を4つの領域T1〜T4に分割し、個々の領域ごとにサンプルパターンを別個独立して採取した例を示す平面図である。図の下欄には、ユーザに図11に示すジェスチャーG5(2本指による時計まわりのジェスチャー)を個々の領域で行うよう指示を与えたときに、パターン解析部120から得られた解析パターンを、それぞれの領域のサンプルパターンとして採取した例が示されている。   FIG. 17 is a plan view showing an example in which the touch surface (display surface) of the display device with a touch panel is divided into four regions T1 to T4, and sample patterns are separately collected for each region. In the lower column of the figure, the analysis pattern obtained from the pattern analysis unit 120 when the user is instructed to perform the gesture G5 (clockwise gesture with two fingers) shown in FIG. The example taken as a sample pattern of each region is shown.

図17下欄の結果を見ると、領域T1についてのサンプルパターンSP(G5T1)と領域T2についてのサンプルパターンSP(G5T2)とは、いずれも「左側の時計まわり曲線ストローク+右側の時計まわり曲線ストローク」パターンになっているものの、領域T3についてのサンプルパターンSP(G5T3)は、「左側の点ストローク+右側の時計まわり曲線ストローク」パターンとなり、領域T4についてのサンプルパターンSP(G5T4)は、「左側の下方向直線ストローク+右側の時計まわり曲線ストローク」パターンとなっている。これら4つのサンプルパターンは、いずれもジェスチャーG5についてのサンプルパターンSP(G5)であることに変わりはないが、その内容は領域により異なっている。これは人体の骨格や筋肉などの生物学的構造に起因する現象と考えられる。   Looking at the results in the lower column of FIG. 17, the sample pattern SP (G5T1) for the region T1 and the sample pattern SP (G5T2) for the region T2 are both “clockwise curved stroke on the left side + clockwise curved stroke on the right side. The sample pattern SP (G5T3) for the region T3 is a “left dot stroke + right clockwise curve stroke” pattern, and the sample pattern SP (G5T4) for the region T4 is “ "Downward straight stroke + right clockwise stroke" pattern. These four sample patterns are all the sample patterns SP (G5) for the gesture G5, but their contents differ depending on the region. This is thought to be a phenomenon caused by biological structures such as the human skeleton and muscles.

このように、ユーザが意図的に同じジェスチャーを行っているにもかかわらず、個々の領域ごとに得られる解析パターンが異なる可能性のある、比較的大きな面積をもったタッチパネル装置に本発明を適用する場合は、個々の領域ごとにそれぞれ別個独立したサンプルパターンを採取しておき、特定のジェスチャーによる操作入力パターンに対応するサンプルパターンを選択する際には、当該ジェスチャーが行われた領域についてのサンプルパターンと比較を行うようにするのが好ましい。   In this way, the present invention is applied to a touch panel device having a relatively large area in which the analysis pattern obtained for each region may be different even though the user intentionally performs the same gesture. If a sample pattern corresponding to an operation input pattern by a specific gesture is selected, a sample for the region where the gesture is performed is collected. It is preferable to make a comparison with the pattern.

図18は、このような機能を備えた変形例に係る操作入力検知装置の構成を示すブロック図である。図1に示す基本的実施形態との相違点は、タッチパネル装置10およびディスプレイ装置20の代わりに、タッチパネル付ディスプレイ装置30(後述するように、この実施例では、重力加速度センサが内蔵されている)が用いられている点と、デジタル処理ユニット100の代わりに、デジタル処理ユニット100Bが用いられている点である。タッチパネル付ディスプレイ装置30は、上述したように、ディスプレイの画面上にタッチパネルが設けられている装置であり、タッチパネル装置10とディスプレイ装置20とを兼用することができる。   FIG. 18 is a block diagram showing a configuration of an operation input detection device according to a modified example having such a function. The difference from the basic embodiment shown in FIG. 1 is that the touch panel device 10 and the display device 20 are replaced by a display device 30 with a touch panel (as will be described later, in this embodiment, a gravitational acceleration sensor is incorporated). And a digital processing unit 100B is used instead of the digital processing unit 100. As described above, the touch panel-equipped display device 30 is a device in which a touch panel is provided on the display screen, and the touch panel device 10 and the display device 20 can be used together.

デジタル処理ユニット100B内のサンプルパターン採取部130Bは、図1に示す装置におけるサンプルパターン採取部130とほぼ同じ機能をもった構成要素である。ただ、タッチパネルのタッチ面を分割することによって得られる複数の領域T1〜T4について、それぞれ別個にジェスチャーを行う旨の指示を表示し、個々の領域T1〜T4ごとにそれぞれ別個独立したサンプルパターンを採取する処理を行う。   The sample pattern collection unit 130B in the digital processing unit 100B is a component having substantially the same function as the sample pattern collection unit 130 in the apparatus shown in FIG. However, for a plurality of areas T1 to T4 obtained by dividing the touch surface of the touch panel, an instruction to perform a gesture separately is displayed, and individual sample patterns are collected for each of the areas T1 to T4. Perform the process.

図19は、このサンプルパターン採取部130Bによって、タッチパネル付ディスプレイ装置30に表示される指示画面の一例を示す平面図である。この例では、画面上の領域T1にハッチングを施して、このハッチング領域内で、2本指を上方向に平行に移動させるジェスチャー(図11に示すジェスチャーG1)を行うような指示を行っている。この指示を見たユーザが、画面上のハッチングが施されている領域内で、当該ジェスチャーを行うと、これを解析することによって得られた解析パターンが、ジェスチャーG1の領域T1についてのサンプルパターンSP(G1T1)として、サンプルパターン格納部150Bに格納される。   FIG. 19 is a plan view showing an example of an instruction screen displayed on the touch panel-equipped display device 30 by the sample pattern collection unit 130B. In this example, an area T1 on the screen is hatched, and an instruction is given to perform a gesture (gesture G1 shown in FIG. 11) for moving two fingers in parallel in the hatched area. . When the user who sees this instruction performs the gesture within the hatched area on the screen, the analysis pattern obtained by analyzing this is the sample pattern SP for the area T1 of the gesture G1. (G1T1) is stored in the sample pattern storage unit 150B.

サンプルパターン採取部130Bは、領域T2,T3,T4についても、同様に、ジェスチャーG1を行うよう指示を出し、そのときに得られた各解析パターンが、ジェスチャーG1のそれぞれ領域T2,T3,T4についてのサンプルパターンSP(G1T2),SP(G1T3),SP(G1T4)として、サンプルパターン格納部150Bに格納される。もちろん、他のジェスチャーG2〜G6についても、それぞれ各領域T1〜T4について、同様の方法でサンプルパターンの採取が行われる。   Similarly, the sample pattern collection unit 130B issues an instruction to perform the gesture G1 for the regions T2, T3, and T4, and the analysis patterns obtained at that time are obtained for the regions T2, T3, and T4 of the gesture G1, respectively. Are stored in the sample pattern storage unit 150B as sample patterns SP (G1T2), SP (G1T3), and SP (G1T4). Of course, for other gestures G2 to G6, sample patterns are collected in the same manner for the regions T1 to T4, respectively.

デジタル処理ユニット100B内のサンプルパターン格納部150Bは、図1に示す装置におけるサンプルパターン採取部130とほぼ同じ機能をもった構成要素である。ただ、個々の領域T1〜T4ごとに採取された各サンプルパターンを、それぞれ別個独立して格納することになる。図20は、サンプルパターン格納部150Bに格納されている領域ごとのサンプルパターンの一例を示す平面図である。ここで、図示するサンプルパターンSP(T1)は、図17に示す領域T1で行われた6通りのジェスチャーG1〜G6について採取されたサンプルパターンSP(G1T1)〜SP(G6T1)を示している。同様に、サンプルパターンSP(T2),SP(T3),SP(T4)は、それぞれ図17に示す領域T2,T3,T4で行われた6通りのジェスチャーG1〜G6について採取されたパターンである。   The sample pattern storage unit 150B in the digital processing unit 100B is a component having substantially the same function as the sample pattern collection unit 130 in the apparatus shown in FIG. However, each sample pattern collected for each of the regions T1 to T4 is stored separately and independently. FIG. 20 is a plan view illustrating an example of a sample pattern for each region stored in the sample pattern storage unit 150B. Here, the illustrated sample pattern SP (T1) indicates sample patterns SP (G1T1) to SP (G6T1) collected for the six gestures G1 to G6 performed in the region T1 shown in FIG. Similarly, sample patterns SP (T2), SP (T3), and SP (T4) are patterns obtained for six gestures G1 to G6 performed in the regions T2, T3, and T4 shown in FIG. .

一方、デジタル処理ユニット100B内のパターン選択部160Bは、図1に示す装置におけるパターン選択部160とほぼ同じ機能をもった構成要素である。ただ、サンプルパターン格納部150B内には、個々の領域ごとに異なるサンプルパターンが格納されているので、パターン選択部160Bは、採取された操作入力パターンの元になるジェスチャーが行われた主たる領域を認識し、当該認識領域についてのサンプルパターンとの比較を行うことによりパターン選択を行うことになる。   On the other hand, the pattern selection unit 160B in the digital processing unit 100B is a component having substantially the same function as the pattern selection unit 160 in the apparatus shown in FIG. However, since different sample patterns are stored for each region in the sample pattern storage unit 150B, the pattern selection unit 160B displays the main region where the gesture based on the collected operation input pattern is performed. The pattern is selected by recognizing and comparing with the sample pattern for the recognition area.

ジェスチャーが行われた主たる領域を認識するには、パターン解析部120の解析結果を利用すればよい。既に述べたとおり、パターン解析部120の解析処理プロセスでは、代表点の時間的変遷を示す検知信号からストロークが認識され、個々のストロークについてストローク位置P(xp,yp)が算出される。そこで、パターン選択部160Bは、このストローク位置P(xp,yp)に基づいて、ジェスチャーが行われた主たる領域を認識することができる。   In order to recognize the main area where the gesture is performed, the analysis result of the pattern analysis unit 120 may be used. As already described, in the analysis processing process of the pattern analysis unit 120, the stroke is recognized from the detection signal indicating the temporal transition of the representative point, and the stroke position P (xp, yp) is calculated for each stroke. Therefore, the pattern selection unit 160B can recognize the main region where the gesture is performed based on the stroke position P (xp, yp).

たとえば、操作入力パターンが単一のストロークのみを含んでいる場合は、当該ストロークについてのストローク位置P(xp,yp)が、領域T1〜T4のいずれに所属するかを判定し、ストローク位置P(xp,yp)を含む領域をジェスチャーが行われた主たる領域と認定すればよい。また、操作入力パターンが複数のストロークを含んでいる場合は、たとえば、当該複数のストロークのストローク位置P(xp,yp)の重心位置を計算し、当該重心位置を含む領域をジェスチャーが行われた主たる領域と認定すればよい。   For example, when the operation input pattern includes only a single stroke, it is determined to which of the regions T1 to T4 the stroke position P (xp, yp) for the stroke belongs, and the stroke position P ( The region including xp, yp) may be recognized as the main region where the gesture is performed. In addition, when the operation input pattern includes a plurality of strokes, for example, the center of gravity position of the stroke position P (xp, yp) of the plurality of strokes is calculated, and the gesture including the region including the center of gravity position is performed. What is necessary is just to certify as a main field.

なお、ジェスチャーが領域の境界近傍で行われた場合、たとえば、左側のストロークは領域T1に含まれ、右側のストロークは領域T2に含まれる、という状況も起こり得る。このような場合でも、両ストローク位置の重心位置を含む領域をジェスチャーが行われた主たる領域と認定し、操作入力パターンを当該認定領域についてのサンプルパターンと比較する処理を行えば、パターン選択部160Bによる処理が滞ることはない。ただ、より柔軟な対応を採るのであれば、ジェスチャーが行われた両領域のサンプルパターンを参照した選択処理が行われるようにするのが好ましい。その場合には、まず第1に、重心位置を含む領域についてのサンプルパターンと比較する処理を行い、その結果、一致するサンプルパターンが存在しなかった場合には、第2に、いずれかのストロークのストローク位置Pを含む領域についてのサンプルパターンと比較する処理を行う、という選択手順を採るようにすればよい。   When the gesture is performed near the boundary of the region, for example, a situation may occur in which the left stroke is included in the region T1 and the right stroke is included in the region T2. Even in such a case, if the region including the center of gravity position of both stroke positions is recognized as the main region where the gesture is performed and the operation input pattern is compared with the sample pattern for the recognized region, the pattern selection unit 160B The processing by will not be delayed. However, if a more flexible response is to be taken, it is preferable to perform selection processing with reference to the sample patterns in both areas where the gesture has been performed. In that case, first, a process for comparing with the sample pattern for the region including the center of gravity position is performed. As a result, if there is no matching sample pattern, secondly, any stroke is detected. The selection procedure of performing the process of comparing with the sample pattern for the region including the stroke position P may be adopted.

なお、図17では、タッチ面を横方向に4分割して、4つの矩形領域T1〜T4を定義しているが、タッチ面の分割方法や分割数は任意である。したがって、縦方向に分割してもよいし、縦横ともに分割するようにしてもよい。もちろん、分割によって得られる各領域の形状も矩形に限定されるものではなく、たとえば、同心円状に分割して、円弧状の領域を形成するようにしてもよい。   In FIG. 17, the touch surface is divided into four in the horizontal direction to define four rectangular regions T1 to T4. However, the touch surface division method and the number of divisions are arbitrary. Therefore, it may be divided in the vertical direction or may be divided in both vertical and horizontal directions. Of course, the shape of each region obtained by the division is not limited to a rectangle. For example, the region may be divided into concentric circles to form an arcuate region.

また、図示の例のように、タッチパネル装置が長方形のタッチ面を有している場合は、ユーザが縦長状態で利用しているのか、横長状態で利用しているのかを区別するようにすれば、一層正確な操作入力の検知が可能になる。たとえば、図17に示すような長方形のタッチ面をもった装置の場合、同じ分割態様で領域T1〜T4を定義したとしても、図21(a) に示すように横長状態で利用する場合と、図21(b) に示すように縦長状態で利用する場合とでは、同じジェスチャーについて得られる解析パターンは異なるものになる可能性が高い。たとえば、同じ領域T1でも、図21(a) に示すように横長状態で利用すれば最も左側に位置する領域になるが、図21(b) に示すように縦長状態で利用すれば最も上側に位置する領域になるので、ユーザが同じ領域T1でジェスチャーを行ったとしても、利用状態が横長か縦長かによって、実質的には、異なる領域でジェスチャーを行っていることになる。   Also, as in the example shown in the figure, when the touch panel device has a rectangular touch surface, it is possible to distinguish whether the user is using in a vertically long state or in a horizontally long state. This makes it possible to detect operation inputs more accurately. For example, in the case of a device having a rectangular touch surface as shown in FIG. 17, even if the regions T1 to T4 are defined in the same division mode, the device is used in a horizontally long state as shown in FIG. As shown in FIG. 21 (b), there is a high possibility that the analysis patterns obtained for the same gesture are different from those in the case of using in the vertically long state. For example, even if the same region T1 is used in the horizontally long state as shown in FIG. 21 (a), it is the leftmost region, but if it is used in the vertically long state as shown in FIG. Since the region is located, even if the user performs a gesture in the same region T1, the gesture is substantially performed in a different region depending on whether the usage state is horizontally long or vertically long.

そこで、タッチパネル装置が長方形のタッチ面を有している場合、サンプルパターン採取部130Bが、このタッチ面を横長状態で利用する横長モードと縦長状態で利用する縦長モードと、について、それぞれ別個独立したサンプルパターンを採取するようにし、サンプルパターン格納部150Bが、横長モードと縦長モードとについて、それぞれ別個独立してサンプルパターンを格納するようにしておけばよい。   Therefore, when the touch panel device has a rectangular touch surface, the sample pattern collection unit 130B is independent of the horizontal mode in which the touch surface is used in the horizontal state and the vertical mode in which the touch surface is used in the vertical state. The sample pattern may be collected, and the sample pattern storage unit 150B may store the sample pattern separately for the landscape mode and the portrait mode.

具体的には、横長モードの場合は、左から順に、横長T1領域,横長T2領域,横長T3領域,横長T4領域という4つの領域を定義し、縦長モードの場合は、上から順に、縦長T1領域,縦長T2領域,縦長T3領域,縦長T4領域という4つの領域を定義すればよい。この場合、実質的に、8通りの領域について、それぞれサンプルパターンが別個独立して採取されることになる。   Specifically, in the case of the landscape mode, four regions of a landscape T1 region, a landscape T2 region, a landscape T3 region, and a landscape T4 region are defined in order from the left. In the portrait mode, the portrait T1 is defined in order from the top. Four regions may be defined: a region, a vertically long T2 region, a vertically long T3 region, and a vertically long T4 region. In this case, substantially, the sample patterns are collected independently for each of the eight patterns.

なお、横長モードで装置の左右を入れ替えた場合や、縦長モードで装置の上下を入れ替えた場合にも適切な対応を採るため、各領域は、タッチパネルの物理的な特定部分に設定されるのではなく、その時点での空間的位置関係に基づいて設定されるようにしておくのが好ましい。たとえば、「横長T1領域」は、タッチパネルに固有のある特定部分を意味するのではなく、タッチパネルを横長に保持した状態において、一番左側にある領域を意味することになる。   In order to take appropriate measures when the left and right sides of the device are switched in landscape mode or when the top and bottom sides of the device are switched in portrait mode, each area is not set to a specific physical part of the touch panel. Instead, it is preferable that the setting is made based on the spatial positional relationship at that time. For example, the “laterally long T1 region” does not mean a specific part unique to the touch panel, but means a region on the leftmost side when the touch panel is held horizontally.

また、この場合、パターン選択部160Bには、現時点のモード(横長モードか縦長モードか)を認識する機能をもたせておき、当該認識モードについてのサンプルパターンとの比較を行うことによりパターン選択を行うことができるようにしておく。モード認識は、ユーザにいずれのモードで使用しているかを入力させることによって行うことも可能であるが、ここに示す実施例では、タッチパネル付ディスプレイ装置30として、重力加速度を検出するセンサ(重力の作用する方向を検出するセンサ)を内蔵した装置を利用しているため、パターン選択部160Bは、このセンサの出力信号に基づいて現時点の装置の姿勢を認識することができ、横長モードで使用中か縦長モードで使用中かを認識することができる。   In this case, the pattern selection unit 160B has a function of recognizing the current mode (horizontal mode or vertical mode), and performs pattern selection by comparing with the sample pattern for the recognition mode. Be able to do that. Although the mode recognition can be performed by allowing the user to input which mode is being used, in the embodiment shown here, the display device with a touch panel 30 is a sensor for detecting the gravitational acceleration (gravity of gravity). The pattern selection unit 160B can recognize the current posture of the device based on the output signal of the sensor and is being used in the landscape mode. Or in use in portrait mode.

以上、図18を参照して、領域を特定する変形例を述べたが、もちろん、この変形例に、§3−1で述べたユーザを特定する変形例(図15)を組み合わせることも可能である。この場合、サンプルパターンは、個々のユーザごとに、かつ、個々の領域ごとに、それぞれ別個独立して採取され、サンプルパターン格納部150Bに格納されることになる。また、パターン選択部160Bは、操作入力パターンを、特定のユーザの特定の領域についてのサンプルパターンと比較して、対応するパターンの選択を行うことになる。   As described above, the modification example for specifying the region has been described with reference to FIG. 18. Of course, the modification example (FIG. 15) for specifying the user described in §3-1 can be combined with this modification example. is there. In this case, the sample pattern is collected independently for each individual user and for each region, and stored in the sample pattern storage unit 150B. The pattern selection unit 160B compares the operation input pattern with a sample pattern for a specific area of a specific user, and selects a corresponding pattern.

<3−3:解析パターンの多様化>
前述した基本的な実施例では、§2−2−4で説明したとおり、パターン決定部124が、各ストロークを、「点ストローク」,「時計まわり曲線ストローク」,「反時計まわり曲線ストローク」,「上方向直線ストローク」,「下方向直線ストローク」,「左方向直線ストローク」,「右方向直線ストローク」という7つの種別のうちのいずれかに分類する処理を行い、その組み合わせにより、1つの解析パターンを当てはめる処理を行っていたが、ストロークの分類種別は必ずしも上記7通りに限定されるわけではなく、よりきめの細かな分類を行うことも可能である。
<3-3: Diversification of analysis patterns>
In the basic embodiment described above, as described in §2-2-4, the pattern determination unit 124 assigns each stroke to “point stroke”, “clockwise curve stroke”, “counterclockwise curve stroke”, Processes are classified into one of the seven types of "upward linear stroke", "downward linear stroke", "leftward linear stroke", and "rightward linear stroke", and one analysis is performed based on the combination. Although the process of applying a pattern has been performed, the stroke classification types are not necessarily limited to the above seven types, and finer classification can also be performed.

たとえば、§2−2−4で説明した実施例では、ストローク方位Bに基づいて、「直線ストローク」を、上下左右の4通りの種別に分けた取り扱いを行っているが、「直線ストローク」は、必ずしも上下左右の4通りの種別に分ける必要はなく、一般に、方位の異なる複数W通りの種別に分けて取り扱うことが可能である。   For example, in the embodiment described in §2-2-4, based on the stroke direction B, “straight stroke” is handled by dividing it into four types of up, down, left, and right. However, it is not always necessary to divide into four types of top, bottom, left, and right, and in general, it is possible to handle it by dividing it into a plurality of W types having different orientations.

図22は、W=36に設定し、「直線ストローク」をストローク方位Bに基づいて36通りの種別に分類した例を示す平面図である。この分類によれば、「直線ストローク」が、10°単位の細かな向きに応じて細分化されることになる。図の白抜きの矢印は、この36通りの種別を示す記号である。ストローク方位Bは、−180°〜+180°の値をとるパラメータであるから、図22に示す36通りの角度種別の中から、「直線ストローク」のストローク方位Bが示す角度に最も近い角度種別を選ぶことにより、当該「直線ストローク」を36通りの細分化された種別に分類することができる。   FIG. 22 is a plan view showing an example in which W = 36 is set and “straight stroke” is classified into 36 types based on the stroke direction B. According to this classification, the “straight line stroke” is subdivided according to a fine direction in units of 10 °. The white arrows in the figure are symbols indicating these 36 types. Since the stroke direction B is a parameter having a value of −180 ° to + 180 °, the angle type closest to the angle indicated by the stroke direction B of “straight stroke” is selected from the 36 angle types shown in FIG. By selecting, the “linear stroke” can be classified into 36 subdivided types.

もちろん、「曲線ストローク」を細分化することも可能である。§2−2−4で説明した実施例では、ストローク湾曲度Cの符号のみを参照して、「時計まわり曲線ストローク」か「反時計まわり曲線ストローク」かのいずれかに分類しているが、ストローク方位Bを組み合わせることにより、細分化を行うことが可能である。図23は、ストローク方位Bを参照することにより、「曲線ストローク」を合計8通りの種別に分類した例を示す平面図である。図の上段に示す4通りの種別は、いずれも「時計まわり曲線ストローク」であるが、ストローク方位Bによって、「右方向時計まわり曲線ストロークα1」,「下方向時計まわり曲線ストロークα2」,「左方向時計まわり曲線ストロークα3」,「上方向時計まわり曲線ストロークα4」に細分化されている。同様に、図の下段に示す4通りの種別は、いずれも「反時計まわり曲線ストローク」であるが、ストローク方位Bによって、「左方向反時計まわり曲線ストロークβ1」,「上方向反時計まわり曲線ストロークβ2」,「右方向反時計まわり曲線ストロークβ3」,「下方向反時計まわり曲線ストロークβ4」に細分化されている。   Of course, the “curve stroke” can be subdivided. In the embodiment described in §2-2-4, it is classified as either “clockwise curved stroke” or “counterclockwise curved stroke” with reference to only the sign of stroke curvature C. By combining the stroke orientation B, subdivision can be performed. FIG. 23 is a plan view showing an example in which “curve strokes” are classified into eight types in total by referring to the stroke direction B. FIG. The four types shown in the upper part of the figure are all “clockwise curved strokes”, but depending on the stroke direction B, “right clockwise curved stroke α1”, “downward clockwise curved stroke α2”, “left It is subdivided into “clockwise curved stroke α3” and “upward clockwise curved stroke α4”. Similarly, the four types shown in the lower part of the figure are all “counterclockwise curve stroke”, but depending on the stroke direction B, “left counterclockwise curve stroke β1”, “upward counterclockwise curve” It is subdivided into “stroke β2”, “right counterclockwise curved stroke β3”, and “downward counterclockwise curved stroke β4”.

図24は、更に、ストローク湾曲度Cの絶対値を考慮した細分化を行った例である。すなわち、図示の種別α1−1,α1−2,α1−3,α1−4は、いずれも図23に示す「右方向時計まわり曲線ストロークα1」に属しているが、ストローク湾曲度Cの絶対値が異なっている。   FIG. 24 is an example in which subdivision is further performed in consideration of the absolute value of the stroke curvature C. That is, the types α1-1, α1-2, α1-3, and α1-4 shown in the figure all belong to the “rightward clockwise curve stroke α1” shown in FIG. Are different.

このように、個々のストロークの種別を細分化すれば、当然、これらストロークによって定義される解析パターンは多様化することになる。特に、複数の指を用いたジェスチャーに対する解析パターンは、複数のストロークの組み合わせによって定義されることになるので、個々のストロークの種別が増えれば、これらの組み合わせによって定義される解析パターンのバリエーションは指数的に増加する。したがって、より精度の高い操作入力の検知が可能になる。   Thus, if the types of individual strokes are subdivided, the analysis patterns defined by these strokes will naturally be diversified. In particular, an analysis pattern for a gesture using multiple fingers is defined by a combination of multiple strokes. Therefore, if the type of each stroke increases, the variation of the analysis pattern defined by these combinations is an exponent. Increase. Therefore, it is possible to detect operation input with higher accuracy.

ただ、解析パターンが多様化すると、特定の操作入力パターンに合致するサンプルパターンが見つからないケースが多くなり、パターン選択部160が、エラーの検知結果信号を返すケースが多発する可能性がある。たとえば、§2−2−4で説明した基本的な実施例では、ストローク方位がB=10°でも、B=−20°でも、「直線ストローク」は「右方向直線ストローク」という種別に分類されることになるが、図22に示すような細分化を行った場合、それぞれ別な種別の直線ストロークに分類されてしまうことになる。   However, when the analysis patterns are diversified, there are many cases where a sample pattern that matches a specific operation input pattern is not found, and there are many cases where the pattern selection unit 160 returns an error detection result signal. For example, in the basic embodiment described in §2-2-4, “straight stroke” is classified into the type “straight stroke in the right direction” regardless of whether the stroke direction is B = 10 ° or B = −20 °. However, when segmentation as shown in FIG. 22 is performed, the strokes are classified into different types of linear strokes.

たとえば、あるジェスチャーGのサンプルパターン採取時に、左から右へ移動させた指の動きが「ストローク方位B=10°の直線ストローク」と認識され、そのようなストロークを含む解析パターンが、「ジェスチャーGのサンプルパターン」として登録された場合を考える。続いて、同じジェスチャーGの操作入力を行うために、左から右へ指を移動させる動作を行った結果、「ストローク方位B=−20°の直線ストローク」を含む操作入力パターンが認識されたとしよう。この場合、§2−2−4で説明した基本的な実施例では、いずれの直線ストロークも「右方向直線ストローク」という種別に分類されるので、両パターンは合致し、当該操作入力は、問題なく「ジェスチャーG」と検知される。   For example, when a sample pattern of a certain gesture G is collected, the movement of the finger moved from the left to the right is recognized as “a linear stroke with a stroke direction B = 10 °”. Consider a case where it is registered as a “sample pattern”. Subsequently, in order to perform an operation input of the same gesture G, it is assumed that an operation input pattern including “stroke direction B = −20 ° linear stroke” is recognized as a result of performing an operation of moving a finger from left to right. . In this case, in the basic embodiment described in §2-2-4, since both straight strokes are classified into the type of “right straight stroke”, both patterns match and the operation input is a problem. And “gesture G” is detected.

ところが、図22に示すような細分化を行った場合、「ストローク方位B=10°の直線ストローク」と「ストローク方位B=−20°の直線ストローク」とは別な種別であるため、合致するサンプルパターンは見つからない。そのため、パターン選択部160は、合致するパターンを選択することができず、エラーを示す検知結果信号を出力せざるを得なくなる。実際、図22に示すように、ストローク方位Bを10°単位で細分化して種別を定めた場合、かなりの頻度でエラーを示す検知結果信号が出力されることになろう。   However, when the subdivision shown in FIG. 22 is performed, the “stroke direction B = 10 ° linear stroke” and the “stroke direction B = −20 ° linear stroke” are different types and therefore match. Sample pattern not found. Therefore, the pattern selection unit 160 cannot select a matching pattern, and is forced to output a detection result signal indicating an error. In fact, as shown in FIG. 22, when the stroke direction B is subdivided in units of 10 ° and the type is determined, a detection result signal indicating an error will be output with a considerable frequency.

そこで、ストローク特性を細分化する運用を行う場合は、パターン選択部160が、採取された操作入力パターンに合致するサンプルパターンがサンプルパターン格納部内に存在しない場合には、操作入力パターンに含まれるストロークの特性に近似した特性をもったストロークを含む近似サンプルパターンを選択するようにすればよい。   Therefore, when performing operation to subdivide the stroke characteristics, the pattern selection unit 160 includes a stroke included in the operation input pattern when there is no sample pattern that matches the collected operation input pattern in the sample pattern storage unit. An approximate sample pattern including a stroke having a characteristic approximate to the above characteristic may be selected.

たとえば、上例の場合、「方位B=−20°の直線ストローク」を含むサンプルパターンが存在しない場合には、まず、方位Bを10°だけ増減し、「方位B=−10°もしくは−30°の直線ストローク」を含むサンプルパターンを近似サンプルパターンとして選択するようにし、そのような近似サンプルパターンも存在しない場合には、方位Bを20°だけ増減し、「方位B=0°もしくは−40°の直線ストローク」を含むサンプルパターンを近似サンプルパターンとして選択するようにし、そのような近似サンプルパターンも存在しない場合には、方位Bを30°だけ増減し、「方位B=10°もしくは−50°の直線ストローク」を含むサンプルパターンを近似サンプルパターンとして選択する、というように、近似範囲を徐々に広げた判定を行うようにすればよい。そうすれば、合致するサンプルパターンがない場合には、できるだけ近似度の高いサンプルパターンが近似サンプルパターンとして選択されることになる。もちろん、近似範囲の限界を、たとえば±30°と定めておき、その範囲内の近似サンプルパターンがみつからない場合は、近似サンプルパターンなしとして、エラー信号を返すようにすればよい。   For example, in the case of the above example, when there is no sample pattern including “straight stroke of azimuth B = −20 °”, first, the azimuth B is increased / decreased by 10 ° and “azimuth B = −10 ° or −30”. A sample pattern including “linear stroke” is selected as an approximate sample pattern. When such an approximate sample pattern does not exist, the azimuth B is increased or decreased by 20 ° and “azimuth B = 0 ° or −40”. A sample pattern including “linear stroke” is selected as an approximate sample pattern. When such an approximate sample pattern does not exist, the direction B is increased or decreased by 30 ° and “direction B = 10 ° or −50”. Approximately expanded the approximate range, such as selecting a sample pattern that includes `` ° linear stroke '' as the approximate sample pattern It is sufficient to perform constant. Then, if there is no matching sample pattern, a sample pattern having the highest possible approximation is selected as the approximate sample pattern. Of course, the limit of the approximate range is set to ± 30 °, for example, and if an approximate sample pattern within the range is not found, an error signal may be returned with no approximate sample pattern.

このように、パターン選択の際に、完全に合致したサンプルパターンが存在しない場合には、近似したサンプルパターンを選択することにより、サンプルパターン採取時とは多少異なったジェスチャー動作を行った場合でも、有効な操作入力として検知できる運用を行うことができるようになる。   In this way, when there is no completely matched sample pattern at the time of pattern selection, by selecting an approximate sample pattern, even when a gesture operation slightly different from that at the time of sample pattern collection is performed, Operations that can be detected as valid operation inputs can be performed.

<3−4:ジェスチャー動作の多様化>
前述した基本的な実施例では、§2−3で説明したとおり、サンプルパターン採取部130が、図11に示す6通りのジェスチャー動作について、それぞれサンプルパターンを登録する処理を行う例を述べたが、もちろん、実際には、必要に応じて、この他にも様々なジェスチャー動作を登録することができる。もちろん、1本の指を用いたジェスチャーや3本以上の指を用いたジェスチャーを登録することも可能である。
<3-4: Diversification of gesture actions>
In the basic embodiment described above, as described in §2-3, the example in which the sample pattern collection unit 130 performs the process of registering the sample pattern for each of the six gesture operations illustrated in FIG. 11 has been described. Of course, in practice, various other gesture operations can be registered as necessary. Of course, it is also possible to register a gesture using one finger or a gesture using three or more fingers.

図25に示すジェスチャーG11〜G18は、2本指を用いたジェスチャーのバリエーションである。ジェスチャーG11〜G14は、2本指を互いに遠ざけるように移動させるジェスチャーであり、たとえば、対象物を拡大表示させる操作入力を示すジェスチャーとして利用することができる。一方、ジェスチャーG15〜G18は、2本指を互いに近づけるように移動させるジェスチャーであり、たとえば、対象物を縮小表示させる操作入力を示すジェスチャーとして利用することができる。ジェスチャーG11〜G14や、ジェスチャーG15〜G18は、それぞれ指の移動方向が異なるバリエーションであり、この移動方向のバリエーションによって、それぞれ異なる操作入力を行うことが可能である。   Gestures G11 to G18 shown in FIG. 25 are variations of gestures using two fingers. Gestures G11 to G14 are gestures that move two fingers away from each other, and can be used as, for example, a gesture that indicates an operation input for enlarging and displaying an object. On the other hand, the gestures G15 to G18 are gestures that move two fingers so as to approach each other, and can be used as, for example, a gesture indicating an operation input for reducing and displaying an object. Gestures G11 to G14 and gestures G15 to G18 are variations with different finger movement directions, and different operation inputs can be performed depending on variations in the movement directions.

<3−5:選択履歴を考慮する変形例>
図26は、本発明の更に別な変形例に係るタッチパネルを用いた操作入力検知装置の構成を示すブロック図である。図1に示す基本的実施形態との相違点は、デジタル処理ユニット100の代わりに、デジタル処理ユニット100Cが用いられている点である。デジタル処理ユニット100Cの大きな特徴は、デジタル処理ユニット100に、履歴格納部190を付加した点である。
<3-5: Modification Considering Selection History>
FIG. 26 is a block diagram showing a configuration of an operation input detection device using a touch panel according to still another modified example of the present invention. The difference from the basic embodiment shown in FIG. 1 is that a digital processing unit 100 C is used instead of the digital processing unit 100. A major feature of the digital processing unit 100C is that a history storage unit 190 is added to the digital processing unit 100.

履歴格納部190は、検知結果出力部170が過去に出力した検知結果の履歴を格納する機能をもった構成要素である。検知結果出力部170は、パターン選択部160Cで選択されたサンプルパターンに対応するジェスチャーを示す情報を、操作入力の検知結果を示す検知結果信号として外部へ出力する機能を有している。そこで、履歴格納部190は、検知結果出力部170が検知結果信号を出力するたびに、その履歴を格納する処理を行う。   The history storage unit 190 is a component having a function of storing a history of detection results output in the past by the detection result output unit 170. The detection result output unit 170 has a function of outputting information indicating a gesture corresponding to the sample pattern selected by the pattern selection unit 160C to the outside as a detection result signal indicating the detection result of the operation input. Therefore, the history storage unit 190 performs processing for storing the history every time the detection result output unit 170 outputs a detection result signal.

このような履歴は、§3−3の解析パターンを多様化する変形例で述べたように、パターン選択部160Cが、近似サンプルパターンを選択する際に役立てることができる。すなわち、解析パターンを多様化したために、サンプルパターン格納部150内に合致するサンプルパターンが格納されていなかった場合、パターン選択部160Cは、操作入力パターンに含まれるストロークの特性に近似した特性をもったストロークを含む近似サンプルパターンを選択することができるが、その際に、履歴格納部190に格納されている履歴を参照し、過去の選択頻度が高いサンプルパターンほど、より近似するサンプルパターンとする判断を行うことができる。   Such a history can be used when the pattern selection unit 160C selects an approximate sample pattern as described in the modification example of diversifying the analysis pattern of §3-3. That is, if the sample pattern storage unit 150 does not store a matching sample pattern because the analysis patterns are diversified, the pattern selection unit 160C has characteristics that approximate the characteristics of the stroke included in the operation input pattern. An approximate sample pattern including a stroke can be selected. At this time, referring to the history stored in the history storage unit 190, a sample pattern having a higher past selection frequency is set to a more approximate sample pattern. Judgment can be made.

たとえば、§3−3では、「ストローク方位B=10°の直線ストローク」を含む解析パターンが「ジェスチャーGのサンプルパターン」として登録されていた場合に、「方位B=−20°の直線ストローク」を含む操作入力パターンが与えられた場合の選択方法を述べた。この場合、「方位B=−20°の直線ストローク」に対して、たとえば、方位Bが±30°以内となる直線ストロークを近似ストロークと定義し、そのような近似ストロークを含むサンプルパターンのうち、過去の選択頻度が最も高いサンプルパターンを、近似度が最も高いサンプルパターンとして取り扱い、これを近似サンプルパターンとして選択する処理を行えばよい。   For example, in §3-3, when an analysis pattern including “straight stroke with stroke orientation B = 10 °” is registered as “sample pattern of gesture G”, “straight stroke with orientation B = −20 °”. The selection method when the operation input pattern including is given was described. In this case, for example, a linear stroke in which the azimuth B is within ± 30 ° is defined as an approximate stroke with respect to the “linear stroke of the direction B = −20 °”, and among sample patterns including such an approximate stroke, A sample pattern having the highest past selection frequency may be handled as a sample pattern having the highest degree of approximation, and processing for selecting this as an approximate sample pattern may be performed.

一般に、ユーザは、同じ操作入力を繰り返し与える傾向にあるので、近似度を過去の履歴を参照して決定するようにすれば、より妥当な判断が可能になる。   In general, the user tends to repeatedly give the same operation input. Therefore, if the degree of approximation is determined with reference to the past history, a more appropriate judgment can be made.

<3−6:短いストロークを無視する変形例>
これまで述べた基本的な実施例では、§2−2−2で述べたとおり、図4の代表点データ格納部121に格納されている解析対象となる一群の代表点データに基づいて、同一の指の動きを示す複数の代表点の集合体からなるストロークの認識が行われる。しかしながら、このような方法で認識されるストロークは、必ずしもユーザの指の軌跡を示す正しいストロークになるとは限らない。
<3-6: Modified example ignoring short stroke>
In the basic embodiment described so far, as described in §2-2-2, the same is based on a group of representative point data to be analyzed stored in the representative point data storage unit 121 of FIG. A stroke composed of an aggregate of a plurality of representative points indicating the movement of the finger is recognized. However, the stroke recognized by such a method is not necessarily a correct stroke indicating the locus of the user's finger.

一応、図3のグラフに示すとおり、接触度が所定の基準値Th未満となる検出値については、代表点Qの認識が行われることはないが、何らかのノイズ成分がたまたま基準値Th以上の検出値を生じさせたり、ユーザの意図に反して、たまたま小指などの無関係な指が誤ってタッチ面に触れてしまったりすると、無用な代表点Qが認識され、このような代表点Qに基づいて、無用なストロークが認識されてしまうことになる。   As shown in the graph of FIG. 3, for the detection value whose contact degree is less than the predetermined reference value Th, the representative point Q is not recognized, but some noise component happens to be detected above the reference value Th. When a value is generated or an irrelevant finger such as a little finger accidentally touches the touch surface against the user's intention, an unnecessary representative point Q is recognized, and based on such a representative point Q Unnecessary strokes will be recognized.

このような現象が生じると、たとえば、ユーザが2本指のジェスチャーを行っているのに、3つのストロークが認識され、採取された操作入力パターンは、3つのストロークを含むパターンとして取り扱われることになる。その結果、パターン選択部は、採取された操作入力パターンに合致する、もしくは近似するサンプルパターンを選択することができなくなる。   When such a phenomenon occurs, for example, although the user is performing a two-finger gesture, three strokes are recognized, and the collected operation input pattern is treated as a pattern including three strokes. Become. As a result, the pattern selection unit cannot select a sample pattern that matches or approximates the collected operation input pattern.

そこで、パターン選択部が、採取された操作入力パターンに合致するもしくは近似するサンプルパターンを選択することができない場合には、当該操作入力パターンに含まれる複数のストロークのうち、ストローク長Lの最も短いストロークを削除した修正操作入力パターンを作成し、この修正操作入力パターンに合致するサンプルパターンを選択するようにすればよい。ストローク長Lの短いストロークは、ノイズやユーザの誤操作によって生じた無用なストロークである可能性が高いため、ストローク長Lの短いストロークを削除することにより、無用なストロークを無視した取り扱いができるようになる。   Therefore, when the pattern selection unit cannot select a sample pattern that matches or approximates the collected operation input pattern, the stroke length L is the shortest among a plurality of strokes included in the operation input pattern. A corrective operation input pattern in which the stroke is deleted may be created, and a sample pattern that matches the corrective operation input pattern may be selected. A stroke with a short stroke length L is likely to be a useless stroke caused by noise or an erroneous operation by the user. Therefore, by deleting a stroke with a short stroke length L, it can be handled ignoring the useless stroke. Become.

<<< §4.具体的なデータ解析の例 >>>
ここでは、実際にユーザがジェスチャー動作を行うことにより得られた代表点データの測定例と、この代表点データを解析することにより得られたパターンの例を示しておく。
<<< §4. Specific data analysis example >>
Here, an example of measurement of representative point data obtained by actually performing a gesture operation by the user and an example of a pattern obtained by analyzing the representative point data are shown.

図27は、2本指を上から下にスライドさせるジェスチャーを行った場合に得られた具体的な代表点データの一例を示す表である。この代表点データは、図4に示す代表点データ格納部121に格納された実データに相当する。この表の左側の4列に示すデータは、第1のストロークS1を構成する代表点のデータであり、右側の4列に示すデータは、第2のストロークS2を構成する代表点のデータである。具体的には、timeの欄のデータは、時刻t(単位ms)を示しており、X,Y,Ampの欄のデータは、それぞれ代表点のX座標値,Y座標値,そして強度値を示している。この表では、第1のストロークS1のデータ(左半分)と第2のストロークS2のデータ(右半分)とを、時刻tを揃えて掲載している。したがって、表の同一行に記載されている代表点データは、同一時刻における指の接触情報を示すことになる。   FIG. 27 is a table showing an example of specific representative point data obtained when a gesture of sliding two fingers from top to bottom is performed. This representative point data corresponds to actual data stored in the representative point data storage unit 121 shown in FIG. The data shown in the four columns on the left side of this table are the data of the representative points that constitute the first stroke S1, and the data shown in the four columns on the right side are the data of the representative points that constitute the second stroke S2. . Specifically, the data in the time column indicates time t (unit: ms), and the data in the X, Y, and Amp columns indicate the X coordinate value, Y coordinate value, and intensity value of the representative point, respectively. Show. In this table, the data of the first stroke S1 (left half) and the data of the second stroke S2 (right half) are listed at the same time t. Therefore, the representative point data described in the same row of the table indicates finger contact information at the same time.

図28は、図27に示す代表点データを解析することにより得られた解析パターンを示す平面図である。図示のとおり、この解析パターンは、上から下に向かう第1のストロークS1を左側に配置し、上から下に向かう第2のストロークS2を右側に配置したパターンである。パターン解析部120では、既に述べたとおり、各ストロークS1,S2について特性を示すパラメータ値を算出し、このパラメータ値に基づいて、各ストロークをいくつかの種別に分類することになる。図27の表の下欄には、ストロークS1,S2について算出されたストローク長L,ストローク方位B,ストローク湾曲度Cの具体的な数値が示されている。これらの数値は、表に掲載された代表点データを用いて、図8に示す演算式に基づく演算を行うことにより得られたものである。   FIG. 28 is a plan view showing an analysis pattern obtained by analyzing the representative point data shown in FIG. As shown in the figure, this analysis pattern is a pattern in which the first stroke S1 from the top to the bottom is arranged on the left side and the second stroke S2 from the top to the bottom is arranged on the right side. As described above, the pattern analysis unit 120 calculates parameter values indicating characteristics for the strokes S1 and S2, and classifies the strokes into several types based on the parameter values. The lower column of the table of FIG. 27 shows specific numerical values of the stroke length L, the stroke orientation B, and the stroke curvature C calculated for the strokes S1 and S2. These numerical values are obtained by performing calculations based on the calculation formula shown in FIG. 8 using the representative point data listed in the table.

ここでは、ストローク長Lの基準値Lthを、Lth=1に設定し、ストローク湾曲度の基準値Cthを、Cth=15に設定している。したがって、図9に示すパターン決定処理では、ステップS13において、L<1の場合は点ストロークとの認識がなされる。また、線ストロークとの認識がなされた場合は、ステップS15において、|C|<15の場合は直線ストロークとの認識がなされる。図27に示す例の場合、ストロークS1,S2は、いずれもL>1であるから、線ストロークと認識され、いずれも|C|<15であるから、直線ストロークと認識される。そして、ステップS19において、方位Bの値に基づいて、「下方向」との決定がなされ、ステップS20において、いずれのストロークに対しても「下方向直線ストローク」なる種別が決定される。かくして、最終的には、ステップS23において、「左側の下方向直線ストローク+右側の下方向直線ストローク」なる解析パターン(図14のサンプルパターンSP(G2))が決定される。   Here, the reference value Lth of the stroke length L is set to Lth = 1, and the reference value Cth of the stroke curvature is set to Cth = 15. Therefore, in the pattern determination process shown in FIG. 9, in step S13, when L <1, it is recognized as a point stroke. If it is recognized that the stroke is a line stroke, in step S15, if | C | <15, the stroke is recognized as a linear stroke. In the example shown in FIG. 27, the strokes S1 and S2 are both recognized as line strokes because L> 1, and are both recognized as linear strokes because | C | <15. In step S19, “downward” is determined based on the value of the azimuth B. In step S20, the type of “downward linear stroke” is determined for any stroke. Thus, finally, in step S23, an analysis pattern (sample pattern SP (G2) in FIG. 14) of “left downward linear stroke + right downward linear stroke” is determined.

一方、図29は、2本指を左から右にスライドさせるジェスチャーを行った場合に得られた具体的な代表点データの一例を示す表であり、図30は、図29に示す代表点データを解析することにより得られた解析パターンを示す平面図である。図示のとおり、この解析パターンは、左から右に向かう第1のストロークS1を下側に配置し、左から右に向かう第2のストロークS2を上側に配置したパターンである。やはり図29の表の下欄には、これらのストロークについて算出された各パラメータ値が示されている。   On the other hand, FIG. 29 is a table showing an example of specific representative point data obtained when a gesture of sliding two fingers from left to right is performed, and FIG. 30 shows representative point data shown in FIG. It is a top view which shows the analysis pattern obtained by analyzing. As shown in the figure, this analysis pattern is a pattern in which the first stroke S1 from the left to the right is arranged on the lower side and the second stroke S2 from the left to the right is arranged on the upper side. Again, the lower column of the table of FIG. 29 shows the parameter values calculated for these strokes.

この例の場合も、ストロークS1,S2は、いずれもL>1であるから、線ストロークと認識され、いずれも|C|<15であるから、直線ストロークと認識される。そして、ステップS19において、方位Bの値に基づいて、「右方向」との決定がなされ、ステップS20において、いずれのストロークに対しても「右方向直線ストローク」なる種別が決定される。かくして、最終的には、ステップS23において、「上側の右方向直線ストローク+下側の右方向直線ストローク」なる解析パターン(図14のサンプルパターンSP(G4))が決定される。   Also in this example, the strokes S1 and S2 are both recognized as line strokes because L> 1, and are both recognized as linear strokes because | C | <15. In step S19, “right direction” is determined based on the value of the azimuth B. In step S20, the type of “right linear stroke” is determined for any stroke. Thus, finally, in step S23, an analysis pattern (sample pattern SP (G4) in FIG. 14) of “upper right linear stroke + lower right linear stroke” is determined.

また、図31は、2本指を共に時計まわりに回転させるジェスチャーを行った場合に得られた具体的な代表点データの一例を示す表であり、図32は、図31に示す代表点データを解析することにより得られた解析パターンを示す平面図である。図示のとおり、この解析パターンは、上から下に向かう第1のストロークS1を右側に配置し、下から上に向かう第2のストロークS2を左側に配置したパターンである。やはり図31の表の下欄には、これらのストロークについて算出された各パラメータ値が示されている。   FIG. 31 is a table showing an example of specific representative point data obtained when a gesture is performed in which both fingers rotate clockwise. FIG. 32 shows the representative point data shown in FIG. It is a top view which shows the analysis pattern obtained by analyzing. As shown in the figure, this analysis pattern is a pattern in which the first stroke S1 from the top to the bottom is arranged on the right side and the second stroke S2 from the bottom to the top is arranged on the left side. Again, the lower column of the table of FIG. 31 shows the parameter values calculated for these strokes.

この例の場合も、ストロークS1,S2は、いずれもL>1であるから、線ストロークと認識される。ただ、湾曲度Cに関しては、いずれも|C|>15であるから、曲線ストロークと認識される。そして、ステップS17において、いずれも湾曲度Cが負の値を示しているため、湾曲方向は時計まわりとの決定がなされ、ステップS20において、いずれのストロークに対しても「時計まわり曲線ストローク」なる種別が決定される。かくして、最終的には、ステップS23において、「左側の時計まわり曲線ストローク+右側の時計まわり曲線ストローク」なる解析パターン(図13のサンプルパターンSP(G5))が決定される。   Also in this example, the strokes S1 and S2 are both recognized as line strokes because L> 1. However, regarding the degree of curvature C, since | C |> 15 in all cases, it is recognized as a curved stroke. In step S17, since the degree of curvature C shows a negative value, the curve direction is determined to be clockwise, and in step S20, a "clockwise curve stroke" is obtained for any stroke. The type is determined. Thus, finally, in step S23, an analysis pattern (sample pattern SP (G5) in FIG. 13) of “left clockwise curve stroke + right clockwise curve stroke” is determined.

最後の図33は、2本指を共に反時計まわりに回転させるジェスチャーを行った場合に得られた具体的な代表点データの一例を示す表であり、図34は、図33に示す代表点データを解析することにより得られた解析パターンを示す平面図である。図示のとおり、この解析パターンは、ほぼ同位置に留まる第1のストロークS1を右側に配置し、上から下に向かう第2のストロークS2を左側に配置したパターンである。やはり図33の表の下欄には、これらのストロークについて算出された各パラメータ値が示されている。   FIG. 33 is a table showing an example of specific representative point data obtained when a gesture is performed in which two fingers are rotated counterclockwise. FIG. 34 is a table showing representative points shown in FIG. It is a top view which shows the analysis pattern obtained by analyzing data. As shown in the figure, this analysis pattern is a pattern in which the first stroke S1 that stays at substantially the same position is arranged on the right side, and the second stroke S2 going from top to bottom is arranged on the left side. Again, the lower column of the table in FIG. 33 shows the parameter values calculated for these strokes.

この例の場合、ストロークS2は、L>1であるから、線ストロークと認識されるが、ストロークS1は、L<1であるから、点ストロークと認識されることになる。また、線ストロークと認識されたストロークS2の湾曲度Cは、|C|>15であるから、曲線ストロークと認識され、湾曲度Cは正の値を示しているため、湾曲方向は反時計まわりとの決定がなされる。そこで、ステップS20において、ストロークS1に対しては「点ストローク」なる種別が決定され、ストロークS2に対しては「反時計まわり曲線ストローク」なる種別が決定される。かくして、最終的には、ステップS23において、「左側の反時計まわり曲線ストローク+右側の点ストローク」なる解析パターン(図13のサンプルパターンSP(G6))が決定される。   In this example, the stroke S2 is recognized as a line stroke because L> 1, but the stroke S1 is recognized as a point stroke because L <1. Further, since the curvature C of the stroke S2 recognized as a line stroke is | C |> 15, it is recognized as a curved stroke, and the curvature C shows a positive value, so the bending direction is counterclockwise. The decision is made. Therefore, in step S20, the type “point stroke” is determined for the stroke S1, and the type “counterclockwise curve stroke” is determined for the stroke S2. Thus, finally, in step S23, an analysis pattern (sample pattern SP (G6) in FIG. 13) “left counterclockwise curved stroke + right point stroke” is determined.

<<< §5.本発明に係る操作入力検知方法の基本手順 >>>
最後に、本発明に係る操作入力検知方法の基本手順を述べておく。この方法は、タッチ面に対するユーザの指の接触状態を検知するタッチパネル装置と、ユーザに提示する情報を表示するディスプレイ装置と、が接続されたコンピュータによって、ユーザのタッチパネル装置に対する操作入力を検知する方法ということになり、これまで述べてきた本発明に係る操作入力検知装置を用いて行われる。
<<< §5. Basic procedure of operation input detection method according to the present invention >>>
Finally, the basic procedure of the operation input detection method according to the present invention will be described. In this method, a touch panel device that detects a contact state of a user's finger with respect to a touch surface and a display device that displays information to be presented to the user are used to detect an operation input to the touch panel device by the computer. Therefore, the operation input detection device according to the present invention described so far is used.

図35は、この操作入力検知方法の手順を示す流れ図である。図示のとおり、この手順は、予めユーザのサンプル操作を登録する準備段階(ステップS31〜S33)と、ユーザの実操作入力を受け付けてこれを検知する検知段階(ステップS34〜S38)とによって構成される。   FIG. 35 is a flowchart showing the procedure of this operation input detection method. As shown in the figure, this procedure includes a preparation stage (steps S31 to S33) for registering a user's sample operation in advance and a detection stage (steps S34 to S38) for receiving and detecting a user's actual operation input. The

ここで、準備段階では、コンピュータが、ディスプレイ装置の画面上にタッチ面上で所定のジェスチャーを行う旨の指示を表示し、当該指示に基づくユーザのジェスチャー動作によってタッチパネル装置から得られる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する段階(ステップS31)と、コンピュータが、代表点の時間的変遷に基づいて、接触状態の時間的な変化態様を解析し、その結果をジェスチャーに対応するサンプルパターンとして採取する段階(ステップS32)とが行われ、これらの各段階を、複数m通りのジェスチャーについて実行し(ステップS33)、個々のジェスチャーに対応するサンプルパターンを採取する処理が行われる。   Here, in the preparation stage, the computer displays an instruction to perform a predetermined gesture on the touch surface on the screen of the display device, and based on a detection signal obtained from the touch panel device by a user's gesture operation based on the instruction. The step of recognizing the temporal transition of the representative point indicating the representative position of the contact area of the user's finger (step S31), and the computer changes the temporal change state of the contact state based on the temporal transition of the representative point And the result is collected as a sample pattern corresponding to the gesture (step S32), and each of these steps is executed for a plurality of m types of gestures (step S33), corresponding to each gesture. Processing for collecting the sample pattern to be performed is performed.

一方、検知段階では、コンピュータが、実操作入力の検知が必要なときに、タッチパネル装置から与えられる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する段階(ステップS34)と、コンピュータが、代表点の時間的変遷に基づいて、接触状態の時間的な変化態様を解析し、その結果を実操作入力に対応する操作入力パターンとして採取する段階(ステップS35)と、コンピュータが、採取された操作入力パターンを、準備段階で採取した複数m通りのサンプルパターンと比較し、合致もしくは近似したサンプルパターンを選択する段階(ステップS36)と、コンピュータが、選択されたサンプルパターンに対応する操作入力がなされた旨を検知する段階(ステップS37)と、が行われ、必要に応じて、これらの段階が繰り返し実行される(ステップS38)。   On the other hand, at the detection stage, when the actual operation input needs to be detected, the computer recognizes the temporal transition of the representative point indicating the representative position of the contact area of the user's finger based on the detection signal given from the touch panel device. And a stage in which the computer analyzes the temporal change state of the contact state based on the temporal transition of the representative point and collects the result as an operation input pattern corresponding to the actual operation input (step S34). Step S35), the computer compares the collected operation input pattern with a plurality of m sample patterns collected in the preparation step, and selects a sample pattern that matches or approximates (Step S36). A step of detecting that an operation input corresponding to the selected sample pattern has been made (step S37). If necessary, these steps are repeated (step S38).

なお、§3−1にユーザを特定する変形例として述べたとおり、準備段階で、コンピュータが、複数のユーザについてそれぞれ別個独立したサンプルパターンを採取する処理を行い、検知段階で、コンピュータが、現在利用中のユーザを特定し、当該ユーザについてのサンプルパターンとの比較を行うことによりパターン選択を行うようにすれば、ユーザに固有の特徴をそれぞれ考慮した正確な操作入力の検知が可能になる。   As described in §3-1 as a modification example for specifying a user, in the preparation stage, the computer performs processing for collecting individual and independent sample patterns for a plurality of users, and in the detection stage, the computer If a user in use is specified and pattern selection is performed by comparing the user with a sample pattern, it is possible to detect an accurate operation input that takes into account the features unique to the user.

また、§3−2に領域を特定する変形例として述べたとおり、準備段階で、コンピュータが、タッチパネル装置のタッチ面を分割することによって得られる複数の領域について、それぞれ別個にジェスチャーを行う旨の指示を表示し、個々の領域ごとにそれぞれサンプルパターンを採取する処理を行い、検知段階で、コンピュータが、ジェスチャーが行われた主たる領域を認識し、当該認識領域についてのサンプルパターンとの比較を行うことによりパターン選択を行うようにすれば、ジェスチャーが行われた領域を考慮した正確な操作入力の検知が可能になる。   In addition, as described in §3-2 as a modification example for specifying an area, in the preparation stage, the computer performs a gesture separately for each of a plurality of areas obtained by dividing the touch surface of the touch panel device. Displays instructions, performs processing to collect sample patterns for each area, and at the detection stage, the computer recognizes the main area where the gesture was performed and compares it with the sample pattern for that recognition area Thus, if the pattern is selected, it is possible to detect an accurate operation input in consideration of the area where the gesture is performed.

10:タッチパネル装置
20:ディスプレイ装置
30:タッチパネル付ディスプレイ装置
100,100A,100B,100C:デジタル処理ユニット
110:代表点認識部
120:パターン解析部
121:代表点データ格納部
122:ストローク認識部
123:特性認識部
124:パターン決定部
130,130A,130B:サンプルパターン採取部
140:操作入力パターン搾取部
150,150A,150B:サンプルパターン格納部
160,160A,160B,160C:パターン選択部
170:検知結果出力部
180:ユーザ特定部
190:履歴格納部
200:外部ユニット
A1,A2:接触領域
a11〜a29:強度値
B:ストローク方位
C:ストローク湾曲度
Cth:ストローク湾曲度の基準値
d:距離の基準値
d1〜d7:2点間の距離
dx,dy:格子線ピッチ
E:包絡面
G1〜G18:ジェスチャー
H(x,y):格子点
i,j:番号を示すパラメータ
L:ストローク長
Lth:ストローク長の基準値
n:1つのストロークに含まれる代表点の数
O:座標系の原点
P:ストローク位置
PT(A)〜PT(E):解析パターン
Q1,Q2,... ,Q29:代表点
i−2,Qi−1,Q:代表点
S1,S2,S:ストローク
S11〜S38:流れ図の各ステップ
SP:サンプルパターン
T1〜T4:領域
Th:接触度の基準値
t1〜t9:時刻
U,Ua,Ub,Uc:ユーザ識別コード
i−1,V:ベクトル
W:方位ベクトル
X:座標軸
x1,x2,... ,x29:代表点のX座標値
i−2,xi−1,x:代表点のX座標値
xp:ストローク位置PのX座標値
Y:座標軸
y1,y2,... ,y29:代表点のY座標値
i−2,yi−1,y:代表点のY座標値
:格子線のY座標値
yp:ストローク位置PのY座標値
α1〜α4:曲線ストロークの種別
α1−1〜α1−4:曲線ストロークの種別
β1〜β4:曲線ストロークの種別
θ,θ:方位角
φ,φ:変位角
10: Touch panel device 20: Display device 30: Display device with touch panel 100, 100A, 100B, 100C: Digital processing unit 110: Representative point recognition unit 120: Pattern analysis unit 121: Representative point data storage unit 122: Stroke recognition unit 123: Characteristic recognition unit 124: pattern determination unit 130, 130A, 130B: sample pattern collection unit 140: operation input pattern exploitation unit 150, 150A, 150B: sample pattern storage unit 160, 160A, 160B, 160C: pattern selection unit 170: detection result Output unit 180: User specifying unit 190: History storage unit 200: External units A1, A2: Contact areas a11 to a29: Intensity value B: Stroke orientation C: Stroke curvature Cth: Stroke curvature reference value d: Distance reference Values d1-d : Distance between two points dx, dy: Grid line pitch E: Envelope surfaces G1 to G18: Gesture H (x, y): Grid point i, j: Parameter indicating number L: Stroke length Lth: Reference value of stroke length n: number of representative points included in one stroke O: origin of coordinate system P: stroke positions PT (A) to PT (E): analysis patterns Q1, Q2,..., Q29: representative point Q i-2 , Q i−1 , Q i : representative points S 1, S 2, S j : strokes S 11 to S 38: each step SP of the flowchart: sample patterns T 1 to T 4: region
Th: Contact degree reference values t1 to t9: Times U, Ua, Ub, Uc: User identification codes V i−1 , V i : Vector W: Direction vector X: Coordinate axes x1, x2,..., X29: Representative X coordinate value x i-2 , x i−1 , x i of point: X coordinate value of representative point xp: X coordinate value of stroke position P Y: Coordinate axes y1, y2,..., Y29: Y of representative point Coordinate values y i-2 , y i-1 , y i : Y coordinate value y k of representative point y coordinate value yp of grid line yp: Y coordinate value α1 to α4 of stroke position P: Curve stroke type α1-1 ~α1-4: the type of the curve stroke β1~β4: type of curve stroke θ, θ i: azimuth angle φ, φ i: displacement angle

Claims (31)

タッチ面に対するユーザの指の接触状態を検知するタッチパネル装置と、ユーザに提示する情報を表示するディスプレイ装置と、デジタル処理ユニットと、を備え、
前記デジタル処理ユニットは、
前記タッチパネル装置から与えられる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する代表点認識部と、
前記代表点認識部の認識結果に基づいて、接触状態の時間的な変化態様を解析して解析パターンを得るパターン解析部と、
前記ディスプレイ装置の画面上に前記タッチ面上で複数m通りのジェスチャーを行う旨の指示を表示し、当該指示に基づくユーザのm通りのジェスチャー動作について前記パターン解析部によって得られた各解析パターンを、それぞれサンプルパターンとして採取するサンプルパターン採取部と、
第k番目(1≦k≦m)のジェスチャーを行う旨の指示を表示したときに採取された解析パターンを、第k番目のジェスチャーに対応するサンプルパターンとして格納するサンプルパターン格納部と、
外部から操作入力の検知を要求する検知要求信号が与えられた後に、前記パターン解析部によって得られた解析パターンを操作入力パターンとして採取する操作入力パターン採取部と、
採取された操作入力パターンを、前記サンプルパターン格納部に格納されている複数m通りのサンプルパターンと比較し、合致もしくは近似したサンプルパターンを選択するパターン選択部と、
前記パターン選択部で選択されたサンプルパターンに対応するジェスチャーを示す情報を、操作入力の検知結果を示す検知結果信号として外部へ出力する検知結果出力部と、
を備えることを特徴とするタッチパネルを用いた操作入力検知装置。
A touch panel device that detects a contact state of the user's finger with respect to the touch surface, a display device that displays information to be presented to the user, and a digital processing unit,
The digital processing unit is
Based on a detection signal given from the touch panel device, a representative point recognition unit that recognizes a temporal transition of a representative point indicating a representative position of a contact area of a user's finger,
Based on the recognition result of the representative point recognition unit, a pattern analysis unit that analyzes the temporal change state of the contact state and obtains an analysis pattern;
An instruction to perform a plurality of m gestures on the touch surface is displayed on the screen of the display device, and each analysis pattern obtained by the pattern analysis unit for m gesture operations of the user based on the instruction is displayed. , A sample pattern collection unit for collecting each as a sample pattern,
A sample pattern storage unit that stores an analysis pattern collected when an instruction to perform the k-th (1 ≦ k ≦ m) gesture is displayed as a sample pattern corresponding to the k-th gesture;
An operation input pattern collection unit that collects an analysis pattern obtained by the pattern analysis unit as an operation input pattern after a detection request signal for requesting detection of an operation input from the outside is provided;
A pattern selection unit that compares the sampled operation input pattern with a plurality of m sample patterns stored in the sample pattern storage unit, and selects a sample pattern that matches or approximates;
A detection result output unit that outputs information indicating a gesture corresponding to the sample pattern selected by the pattern selection unit to the outside as a detection result signal indicating a detection result of the operation input;
An operation input detection device using a touch panel.
請求項1に記載の操作入力検知装置において、
デジタル処理ユニットが、現在利用中のユーザを特定する情報を入力しこれを保存するユーザ特定部を更に備え、
サンプルパターン採取部が、前記ユーザ特定部によって特定されたユーザごとにそれぞれ独立してサンプルパターンを採取し、
サンプルパターン格納部が、前記ユーザ特定部によって特定されたユーザごとにそれぞれ独立してサンプルパターンを格納し、
パターン選択部が、前記ユーザ特定部によって特定されたユーザについてのサンプルパターンとの比較を行うことによりパターン選択を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 1,
The digital processing unit further includes a user specifying unit that inputs information for specifying a user currently in use and stores the information.
The sample pattern collection unit collects a sample pattern independently for each user specified by the user specifying unit,
The sample pattern storage unit stores the sample pattern independently for each user specified by the user specifying unit,
An operation input detection apparatus using a touch panel, wherein a pattern selection unit performs pattern selection by comparing with a sample pattern for a user specified by the user specifying unit.
請求項1または2に記載の操作入力検知装置において、
サンプルパターン採取部が、タッチパネル装置のタッチ面を分割することによって得られる複数の領域について、それぞれ別個にジェスチャーを行う旨の指示を表示し、個々の領域ごとにそれぞれサンプルパターンを採取し、
サンプルパターン格納部が、前記個々の領域ごとにそれぞれ別個独立したサンプルパターンを格納し、
パターン選択部が、ジェスチャーが行われた主たる領域を認識し、当該認識領域についてのサンプルパターンとの比較を行うことによりパターン選択を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 1 or 2,
The sample pattern collecting unit displays an instruction to perform a gesture separately for each of a plurality of areas obtained by dividing the touch surface of the touch panel device, and collects a sample pattern for each area,
The sample pattern storage unit stores independent and independent sample patterns for each of the individual regions,
An operation input detection device using a touch panel, wherein a pattern selection unit recognizes a main area where a gesture is performed and compares the recognition area with a sample pattern for the recognition area.
請求項3に記載の操作入力検知装置において、
タッチパネル装置が長方形のタッチ面を有しており、
サンプルパターン採取部が、前記タッチ面を横長状態で利用する横長モードと、前記タッチ面を縦長状態で利用する縦長モードと、について、それぞれ別個独立したサンプルパターンを採取し、
サンプルパターン格納部が、前記横長モードと前記縦長モードとについて、それぞれ別個独立してサンプルパターンを格納し、
パターン選択部が、現時点のモードを認識する機能を有し、当該認識モードについてのサンプルパターンとの比較を行うことによりパターン選択を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 3,
The touch panel device has a rectangular touch surface,
Sample pattern collecting unit, for the landscape mode that uses the touch surface in a landscape state and the portrait mode that uses the touch surface in a portrait state, respectively, to collect a separate independent sample pattern,
The sample pattern storage unit stores the sample pattern separately and independently for the landscape mode and the portrait mode,
An operation input detection apparatus using a touch panel, wherein a pattern selection unit has a function of recognizing a current mode and performs pattern selection by comparing with a sample pattern for the recognition mode.
請求項4に記載の操作入力検知装置において、
タッチパネル装置が重力加速度を検出するセンサを有し、
パターン選択部が、前記センサの出力信号に基づいて現時点のモードを認識する機能を有することを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 4,
The touch panel device has a sensor for detecting gravitational acceleration,
An operation input detection device using a touch panel, wherein the pattern selection unit has a function of recognizing a current mode based on an output signal of the sensor.
請求項1〜5のいずれかに記載の操作入力検知装置において、
タッチパネル装置が、タッチ面上の個々の位置について指の接触度を示す信号を出力し、
代表点認識部が、前記接触度が所定の基準値以上の値を示す前記タッチ面上の閉領域を接触領域と認識し、「前記接触領域内で接触度がピークとなる位置」もしくは「タッチ面を水平面とし、接触度を高さ方向にとった座標系において、接触領域上に形成される山の重心位置」を代表点と認識することを特徴とするタッチパネルを用いた操作入力検知装置。
In the operation input detection device according to any one of claims 1 to 5,
The touch panel device outputs a signal indicating the degree of finger contact for each position on the touch surface,
The representative point recognizing unit recognizes the closed region on the touch surface where the degree of contact is greater than or equal to a predetermined reference value as a contact region, and “a position where the degree of contact reaches a peak in the contact region” or “touch” An operation input detection device using a touch panel, characterized in that, in a coordinate system in which a surface is a horizontal plane and a degree of contact is in a height direction, a “centroid position of a mountain formed on a contact area” is recognized as a representative point.
請求項1〜6のいずれかに記載の操作入力検知装置において、
代表点認識部が、各接触領域について、タッチ面上に定義された二次元XY座標系における代表点の座標値(x,y)および現在時刻tを認識し、値(x,y,t)を含む代表点データを所定の時間間隔で出力し、
パターン解析部が、前記代表点データに基づいて、解析パターンを得ることを特徴とするタッチパネルを用いた操作入力検知装置。
In the operation input detection device according to any one of claims 1 to 6,
The representative point recognition unit recognizes the coordinate value (x, y) and the current time t of the representative point in the two-dimensional XY coordinate system defined on the touch surface for each contact area, and the value (x, y, t). The representative point data including is output at a predetermined time interval,
An operation input detection device using a touch panel, wherein a pattern analysis unit obtains an analysis pattern based on the representative point data.
請求項7に記載の操作入力検知装置において、
タッチパネル装置が、タッチ面上の個々の位置について指の接触度を示す信号を出力し、
代表点認識部が、各接触領域について、更に「接触領域内の接触度のピーク値」もしくは「タッチ面を水平面とし、接触度を高さ方向にとった座標系において、接触領域上に形成される山の体積」を前記接触領域の強度値aと認識し、値(x,y,a,t)を含む代表点データQ(x,y,a,t)を所定の時間間隔で出力し、
パターン解析部が、前記代表点データQ(x,y,a,t)に基づいて、解析パターンを得ることを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 7,
The touch panel device outputs a signal indicating the degree of finger contact for each position on the touch surface,
For each contact area, a representative point recognition unit is further formed on the contact area in a coordinate system in which the “contact level peak value in the contact area” or “the touch surface is a horizontal plane and the contact level is in the height direction”. The volume of the mountain is recognized as the strength value a of the contact area, and representative point data Q (x, y, a, t) including the value (x, y, a, t) is output at a predetermined time interval. ,
An operation input detection device using a touch panel, wherein a pattern analysis unit obtains an analysis pattern based on the representative point data Q (x, y, a, t).
請求項8に記載の操作入力検知装置において、
パターン解析部が、値aが所定の基準値以上の代表点データQ(x,y,a,t)のみに基づいてパターンの解析を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 8,
An operation input detection device using a touch panel, wherein the pattern analysis unit analyzes a pattern based only on representative point data Q (x, y, a, t) having a value a greater than or equal to a predetermined reference value.
請求項7〜9のいずれかに記載の操作入力検知装置において、
パターン解析部が、
代表点データを格納する代表点データ格納部と、
前記代表点データに基づいて、同一の指の動きを示す複数の代表点の集合体からなるストロークを認識するストローク認識部と、
前記ストローク認識部によって認識された個々のストロークの特性を認識する特性認識部と、
前記ストローク認識部および前記特性認識部による認識結果に基づいて、固有の特性をもった1つのストロークもしくは複数のストロークの組み合わせを1つのパターンに対応づけることにより、解析パターンを決定するパターン決定部と、
を有することを特徴とするタッチパネルを用いた操作入力検知装置。
In the operation input detection device according to any one of claims 7 to 9,
The pattern analyzer
A representative point data storage unit for storing representative point data;
Based on the representative point data, a stroke recognition unit for recognizing a stroke composed of an aggregate of a plurality of representative points indicating the same finger movement;
A characteristic recognition unit for recognizing the characteristics of individual strokes recognized by the stroke recognition unit;
A pattern determining unit that determines an analysis pattern by associating one stroke having a unique characteristic or a combination of a plurality of strokes with one pattern based on the recognition result by the stroke recognizing unit and the characteristic recognizing unit; ,
An operation input detection device using a touch panel characterized by comprising:
請求項10に記載の操作入力検知装置において、
ストローク認識部が、代表点認識部から出力された時間的に連続した一群の代表点データに基づいて、第i番目の時刻tに得られた代表点と第(i−1)番目の時刻ti−1に得られた代表点との距離が所定の基準以下となる2つの代表点を同一のストロークに所属する代表点と認識することにより、ストロークの認識を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 10,
Stroke identification unit, based on the set of representative point data are temporally continuous output from the representative point recognition unit, a representative point obtained to the i-th time t i (i-1) th time A touch panel that recognizes a stroke by recognizing two representative points whose distance from the representative point obtained at t i-1 is equal to or less than a predetermined reference as a representative point belonging to the same stroke. Operation input detection device using
請求項10または11に記載の操作入力検知装置において、
特性認識部が、少なくとも、1つのストロークを構成する複数の代表点を時系列に沿った順番で連結した場合の連結線の長さの総和を示すストローク長Lと、ストロークの湾曲の程度を示すストローク湾曲度Cとを、当該ストロークの特性を示す値として算出することを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 10 or 11,
The characteristic recognition unit indicates at least the stroke length L indicating the sum of the lengths of the connecting lines when a plurality of representative points constituting one stroke are connected in order along the time series, and the degree of curvature of the stroke. An operation input detection device using a touch panel, wherein the stroke curvature C is calculated as a value indicating the characteristic of the stroke.
請求項12に記載の操作入力検知装置において、
特性認識部が、合計n個の代表点の集合体からなるストロークについて、第i番目の代表点Qの座標値を(x,y)とし、第(i−1)番目の代表点Qi−1の座標値を(xi−1,yi−1)とし、代表点Qi−1から代表点Qへ向かうベクトルをV、第(i−2)番目の代表点Qi−2から代表点Qi−1へ向かうベクトルをVi−1とし、ベクトルVがベクトルVi−1に対してなす角度を変位角φとしたときに、
L=Σ i=2〜n ((x−xi−1+(y−yi−11/2
C=Σ i=3〜n ((x−xi−1+(y−yi−11/2・φ
/Σ i=3〜n ((x−xi−1+(y−yi−11/2
なる演算によって、ストローク長Lおよびストローク湾曲度Cを算出することを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 12,
The characteristic recognizing unit sets the coordinate value of the i-th representative point Q i to (x i , y i ) and (i−1) -th representative point for a stroke composed of a total of n representative points. The coordinate value of Q i-1 is (x i-1 , y i-1 ), the vector from the representative point Q i -1 to the representative point Q i is V i , and the (i-2) -th representative point Q When a vector from i-2 to the representative point Q i-1 is V i-1 and an angle formed by the vector V i with respect to the vector V i-1 is a displacement angle φ i ,
L = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
C = Σ i = 3 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · φ i
/ Σ i = 3 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
The operation input detection device using the touch panel, wherein the stroke length L and the stroke curvature C are calculated by the following calculation.
請求項12または13に記載の操作入力検知装置において、
パターン決定部が、ストローク長Lおよびストローク湾曲度Cに基づいて各ストロークを複数の種別に分類し、特定の種別もしくはその組み合わせに対して特定の解析パターンを対応させることにより、解析パターンを決定することを特徴とするタッチパネルを用いた操作入力検知装置。
In the operation input detection device according to claim 12 or 13,
The pattern determining unit classifies each stroke into a plurality of types based on the stroke length L and the stroke curvature C, and determines an analysis pattern by associating a specific analysis pattern with a specific type or a combination thereof. The operation input detection device using the touch panel characterized by this.
請求項14に記載の操作入力検知装置において、
パターン決定部が、ストローク長Lが所定の基準値Lth未満のストロークを「点ストローク」なる種別に分類し、ストローク長Lが前記基準値Lth以上のストロークを「線ストローク」とし、「線ストローク」のうち、湾曲度Cの絶対値が所定の基準値Cth未満のストロークを「直線ストローク」なる種別に分類し、「線ストローク」のうち、湾曲度Cの絶対値が前記基準値Cth以上のストロークを「曲線ストローク」なる種別に分類し、「点ストローク」、「直線ストローク」、「曲線ストローク」なる種別もしくはこれらの組み合わせに対してそれぞれ特定の解析パターンを対応づけることにより、解析パターンの決定を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 14,
The pattern determining unit classifies strokes having a stroke length L less than a predetermined reference value Lth into a type of “point stroke”, and sets strokes having a stroke length L equal to or greater than the reference value Lth as “line strokes”. Among them, strokes whose absolute value of curvature C is less than a predetermined reference value Cth are classified into types of “straight stroke”, and among “line strokes”, strokes whose absolute value of curvature C is equal to or greater than the reference value Cth. Are classified into the type of “curve stroke”, and the analysis pattern is determined by associating a specific analysis pattern with each type of “point stroke”, “straight stroke”, “curve stroke”, or a combination thereof. An operation input detection device using a touch panel characterized by performing.
請求項15に記載の操作入力検知装置において、
ストロークが時計まわりに回転する場合と反時計まわりに回転する場合とで、互いに符号が異なるようにストローク湾曲度Cを定め、
パターン決定部が、ストローク湾曲度Cの符号に基づいて、「曲線ストローク」なる種別を、更に「時計まわり曲線ストローク」と「反時計まわり曲線ストローク」との2通りの種別に分けて取り扱い、パターンの決定を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 15,
The stroke curvature C is determined so that the sign differs between when the stroke rotates clockwise and when it rotates counterclockwise,
The pattern determining unit handles the type of “curve stroke” based on the sign of stroke curvature C, and further classifies it into two types of “clockwise curved stroke” and “counterclockwise curved stroke” An operation input detection device using a touch panel, characterized in that determination is made.
請求項15または16に記載の操作入力検知装置において、
特性認識部が、更に、XY平面上でのストローク全体の方位を示すストローク方位Bを、当該ストロークの特性を示す値として算出することを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 15 or 16,
An operation input detection device using a touch panel, wherein the characteristic recognition unit further calculates a stroke direction B indicating the direction of the entire stroke on the XY plane as a value indicating the characteristic of the stroke.
請求項17に記載の操作入力検知装置において、
特性認識部が、合計n個の代表点の集合体からなるストロークについて、第(i−1)番目の代表点Qi−1から第i番目の代表点Qへ向かうベクトルVが所定の基準座標軸に対してなす角度を方位角θとしたときに、
B=Σ i=2〜n ((x−xi−1+(y−yi−11/2・θ
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
なる演算によって、ストローク方位Bを算出することを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 17,
The characteristic recognizing unit has a predetermined vector V i from the (i−1) -th representative point Q i−1 to the i-th representative point Q i for a stroke composed of a total of n representative points. When the angle formed with respect to the reference coordinate axis is azimuth angle θ i ,
B = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · θ i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
The operation input detection device using the touch panel, wherein the stroke direction B is calculated by the following calculation.
請求項17または18に記載の操作入力検知装置において、
パターン決定部が、ストローク方位Bに基づいて、「直線ストローク」なる種別を、更に、方位の異なる複数W通りの種別に分けて取り扱い、パターンの決定を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 17 or 18,
The operation using the touch panel, wherein the pattern determination unit handles the type of “straight stroke” based on the stroke direction B, further divided into a plurality of W types having different directions, and performs pattern determination Input detection device.
請求項15〜19のいずれかに記載の操作入力検知装置において、
特性認識部が、更に、XY平面上でのストロークの位置を示すストローク位置Pを、当該ストロークの特性を示す値として算出することを特徴とするタッチパネルを用いた操作入力検知装置。
In the operation input detection device according to any one of claims 15 to 19,
An operation input detection device using a touch panel, wherein the characteristic recognition unit further calculates a stroke position P indicating the position of the stroke on the XY plane as a value indicating the characteristic of the stroke.
請求項20に記載の操作入力検知装置において、
特性認識部が、合計n個の代表点の集合体からなるストロークについて、第i番目の代表点Qの座標値を(x,y)とし、第(i−1)番目の代表点Qi−1の座標値を(xi−1,yi−1)としたときに、
xp=Σ i=2〜n ((x−xi−1+(y−yi−11/2・x
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
yp=Σ i=2〜n ((x−xi−1+(y−yi−11/2・y
/Σ i=2〜n ((x−xi−1+(y−yi−11/2
なる演算によって、ストローク位置P(xp,yp)の座標値を算出することを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 20,
The characteristic recognizing unit sets the coordinate value of the i-th representative point Q i to (x i , y i ) and (i−1) -th representative point for a stroke composed of a total of n representative points. When the coordinate value of Q i-1 is (x i-1 , y i-1 ),
xp = Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · x i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
yp = Σ i = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2 · y i
/ Σi = 2 to n ((x i −x i−1 ) 2 + (y i −y i−1 ) 2 ) 1/2
An operation input detection device using a touch panel, wherein the coordinate value of the stroke position P (xp, yp) is calculated by the following calculation.
請求項20または21に記載の操作入力検知装置において、
パターン決定部が、複数のストロークを含むパターンに対しては、ストローク位置Pを参照することにより相互位置関係を把握し、相互位置関係が異なるパターンを区別してパターンの決定を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 20 or 21,
The pattern determining unit, for a pattern including a plurality of strokes, grasps the mutual positional relationship by referring to the stroke position P, and determines a pattern by distinguishing patterns having different mutual positional relationships. Operation input detection device using a touch panel.
請求項10〜22のいずれかに記載の操作入力検知装置において、
パターン選択部が、採取された操作入力パターンに合致するサンプルパターンが存在しない場合に、前記操作入力パターンに含まれるストロークの特性に近似した特性をもったストロークを含む近似サンプルパターンを選択することを特徴とするタッチパネルを用いた操作入力検知装置。
In the operation input detection device according to any one of claims 10 to 22,
The pattern selection unit selects an approximate sample pattern including a stroke having characteristics similar to those of the stroke included in the operation input pattern when there is no sample pattern that matches the collected operation input pattern. An operation input detection device using a featured touch panel.
請求項23に記載の操作入力検知装置において、
デジタル処理ユニットが、検知結果出力部が過去に出力した検知結果の履歴を格納する履歴格納部を更に備え、
パターン選択部が、近似サンプルパターンを選択する際に、前記履歴を参照し、過去の選択頻度が高いサンプルパターンほど、より近似するサンプルパターンとする判断を行うことを特徴とするタッチパネルを用いた操作入力検知装置。
The operation input detection device according to claim 23,
The digital processing unit further includes a history storage unit that stores a history of detection results output in the past by the detection result output unit,
An operation using a touch panel, wherein the pattern selection unit refers to the history when selecting an approximate sample pattern, and determines that a sample pattern having a higher past selection frequency is a more approximate sample pattern. Input detection device.
請求項12〜22のいずれかに記載の操作入力検知装置において、
パターン選択部が、採取された操作入力パターンに合致するもしくは近似するサンプルパターンが存在しない場合に、前記操作入力パターンに含まれる複数のストロークのうち、ストローク長Lの最も短いストロークを削除した修正操作入力パターンを作成し、前記修正操作入力パターンに合致するサンプルパターンを選択することを特徴とするタッチパネルを用いた操作入力検知装置。
In the operation input detection device according to any one of claims 12 to 22,
A correction operation in which the pattern selection unit deletes the stroke with the shortest stroke length L from the plurality of strokes included in the operation input pattern when there is no sample pattern that matches or approximates the collected operation input pattern An operation input detection device using a touch panel, wherein an input pattern is created and a sample pattern that matches the correction operation input pattern is selected.
請求項1〜25のいずれかに記載の操作入力検知装置において、
タッチパネル装置およびディスプレイ装置を、表示画面がタッチ面を構成するタッチパネル付ディスプレイ装置によって構成したことを特徴とするタッチパネルを用いた操作入力検知装置。
In the operation input detection device according to any one of claims 1 to 25,
An operation input detection device using a touch panel, wherein the touch panel device and the display device are configured by a display device with a touch panel whose display screen forms a touch surface.
請求項1〜26のいずれかに記載の操作入力検知装置と、
当該操作入力検知装置に対して検知要求信号を与えるとともに、当該操作入力検知装置から検知結果信号の出力を受ける機能をもった外部ユニットと、
を備えることを特徴とする電子機器。
The operation input detection device according to any one of claims 1 to 26;
An external unit having a function of receiving a detection request signal from the operation input detection device and receiving a detection result signal from the operation input detection device;
An electronic device comprising:
請求項1〜25のいずれかに記載の操作入力検知装置におけるデジタル処理ユニットとしてコンピュータを機能させるプログラム。   A program that causes a computer to function as a digital processing unit in the operation input detection device according to any one of claims 1 to 25. タッチ面に対するユーザの指の接触状態を検知するタッチパネル装置と、ユーザに提示する情報を表示するディスプレイ装置と、が接続されたコンピュータによって、ユーザの前記タッチパネル装置に対する操作入力を検知する方法であって、
予めユーザのサンプル操作を登録する準備段階と、ユーザの実操作入力を受け付けてこれを検知する検知段階と、によって構成され、
前記準備段階では、
コンピュータが、前記ディスプレイ装置の画面上に前記タッチ面上で所定のジェスチャーを行う旨の指示を表示し、当該指示に基づくユーザのジェスチャー動作によって前記タッチパネル装置から得られる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する段階と、
コンピュータが、前記代表点の時間的変遷に基づいて、接触状態の時間的な変化態様を解析し、その結果を前記ジェスチャーに対応するサンプルパターンとして採取する段階と、
を複数m通りのジェスチャーについて実行し、個々のジェスチャーに対応するサンプルパターンを採取する処理が行われ、
前記検知段階では、
コンピュータが、実操作入力の検知が必要なときに、前記タッチパネル装置から与えられる検知信号に基づいて、ユーザの指の接触領域の代表位置を示す代表点の時間的変遷を認識する段階と、
コンピュータが、前記代表点の時間的変遷に基づいて、接触状態の時間的な変化態様を解析し、その結果を前記実操作入力に対応する操作入力パターンとして採取する段階と、
コンピュータが、採取された操作入力パターンを、前記準備段階で採取した複数m通りのサンプルパターンと比較し、合致もしくは近似したサンプルパターンを選択する段階と、
コンピュータが、選択されたサンプルパターンに対応する操作入力がなされた旨を検知する段階と、
が行われることを特徴とするタッチパネルを用いた操作入力検知方法。
A method of detecting an operation input of a user to the touch panel device by a computer connected to a touch panel device that detects a contact state of a user's finger with respect to a touch surface and a display device that displays information to be presented to the user. ,
A preparatory stage for registering a user's sample operation in advance, and a detection stage for receiving and detecting the user's actual operation input,
In the preparation stage,
The computer displays an instruction to perform a predetermined gesture on the touch surface on the screen of the display device, and based on a detection signal obtained from the touch panel device by the user's gesture operation based on the instruction, Recognizing the temporal transition of the representative point indicating the representative position of the finger contact area;
The computer analyzes the temporal change mode of the contact state based on the temporal transition of the representative point, and collects the result as a sample pattern corresponding to the gesture;
Is executed for a plurality of m types of gestures, and a process of collecting sample patterns corresponding to individual gestures is performed.
In the detection step,
When the computer needs to detect an actual operation input, based on a detection signal given from the touch panel device, recognizing the temporal transition of the representative point indicating the representative position of the contact area of the user's finger;
The computer analyzes the temporal change mode of the contact state based on the temporal transition of the representative point, and collects the result as an operation input pattern corresponding to the actual operation input;
The computer compares the collected operation input pattern with a plurality of m sample patterns collected in the preparation step, and selects a sample pattern that matches or approximates;
A computer detecting that an operation input corresponding to the selected sample pattern has been made;
An operation input detection method using a touch panel, wherein:
請求項29に記載の操作入力検知装置において、
準備段階で、コンピュータが、複数のユーザについてそれぞれ別個独立したサンプルパターンを採取する処理を行い、
検知段階で、コンピュータが、現在利用中のユーザを特定し、当該ユーザについてのサンプルパターンとの比較を行うことによりパターン選択を行うことを特徴とするタッチパネルを用いた操作入力検知方法。
The operation input detection device according to claim 29,
In the preparation stage, the computer performs a process of collecting independent sample patterns for a plurality of users,
An operation input detection method using a touch panel, wherein a computer selects a pattern by specifying a user currently in use at a detection stage and comparing it with a sample pattern for the user.
請求項29または30に記載の操作入力検知装置において、
準備段階で、コンピュータが、タッチパネル装置のタッチ面を分割することによって得られる複数の領域について、それぞれ別個にジェスチャーを行う旨の指示を表示し、個々の領域ごとにそれぞれサンプルパターンを採取する処理を行い、
検知段階で、コンピュータが、ジェスチャーが行われた主たる領域を認識し、当該認識領域についてのサンプルパターンとの比較を行うことによりパターン選択を行うことを特徴とするタッチパネルを用いた操作入力検知方法。
The operation input detection device according to claim 29 or 30,
In the preparatory stage, the computer displays an instruction to perform a gesture separately for each of a plurality of areas obtained by dividing the touch surface of the touch panel device, and collects a sample pattern for each area. Done
An operation input detection method using a touch panel, wherein a computer recognizes a main area where a gesture is performed at a detection stage and performs pattern selection by comparing with a sample pattern for the recognition area.
JP2011066350A 2011-03-24 2011-03-24 Operation input detection device using touch panel Active JP5682394B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011066350A JP5682394B2 (en) 2011-03-24 2011-03-24 Operation input detection device using touch panel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011066350A JP5682394B2 (en) 2011-03-24 2011-03-24 Operation input detection device using touch panel

Publications (2)

Publication Number Publication Date
JP2012203563A true JP2012203563A (en) 2012-10-22
JP5682394B2 JP5682394B2 (en) 2015-03-11

Family

ID=47184532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011066350A Active JP5682394B2 (en) 2011-03-24 2011-03-24 Operation input detection device using touch panel

Country Status (1)

Country Link
JP (1) JP5682394B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242645A (en) * 2012-05-18 2013-12-05 Mitsubishi Electric Corp Touch panel device
JP2014130385A (en) * 2012-12-27 2014-07-10 Tokai Rika Co Ltd Touch input device
WO2014132893A1 (en) 2013-02-27 2014-09-04 アルプス電気株式会社 Operation detection device
EP2804084A1 (en) 2013-05-14 2014-11-19 Funai Electric Co., Ltd. Remote control method and remote control system of image display apparatus
JP2015197724A (en) * 2014-03-31 2015-11-09 株式会社メガチップス Gesture detection apparatus, operation method thereof, and control program
JP2015536501A (en) * 2012-10-26 2015-12-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated System and method for providing infrared gesture instructions on a display
JP2016119008A (en) * 2014-12-22 2016-06-30 アルプス電気株式会社 Input device, control method and program thereof
JP2017084172A (en) * 2015-10-29 2017-05-18 キヤノン株式会社 Information processing apparatus, method of operating and managing touch panel, and computer program
JP2017518597A (en) * 2014-05-16 2017-07-06 中興通訊股▲ふん▼有限公司Zte Corporation Control method, apparatus, electronic device, and computer recording medium

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114621A (en) * 1993-10-15 1995-05-02 Hitachi Ltd Gesture recognizing method and device using same
JPH08221203A (en) * 1995-02-14 1996-08-30 Nec Corp Input device with input time decision function
JPH0950235A (en) * 1995-08-10 1997-02-18 Zanavy Informatics:Kk On-vehicle information device
JP2001290585A (en) * 2000-01-31 2001-10-19 Canon Inc Position information processor, position information processing method and program, and operation device and its method and program
JP2005221576A (en) * 2004-02-03 2005-08-18 Hitachi Ltd Stroke order learning system, stroke order discrimination program, and stroke order learning method
JP2008246041A (en) * 2007-03-30 2008-10-16 Kenwood Corp Game system, reading device, and method for generating operation command for game
JP2009163482A (en) * 2008-01-04 2009-07-23 Sharp Corp Authentication device, authentication method, program for making computer function as authentication device and recording medium
JP2011008768A (en) * 2009-06-29 2011-01-13 Sharp Corp Instruction input device, instruction input method, program, and recording medium thereof

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07114621A (en) * 1993-10-15 1995-05-02 Hitachi Ltd Gesture recognizing method and device using same
JPH08221203A (en) * 1995-02-14 1996-08-30 Nec Corp Input device with input time decision function
JPH0950235A (en) * 1995-08-10 1997-02-18 Zanavy Informatics:Kk On-vehicle information device
JP2001290585A (en) * 2000-01-31 2001-10-19 Canon Inc Position information processor, position information processing method and program, and operation device and its method and program
JP2005221576A (en) * 2004-02-03 2005-08-18 Hitachi Ltd Stroke order learning system, stroke order discrimination program, and stroke order learning method
JP2008246041A (en) * 2007-03-30 2008-10-16 Kenwood Corp Game system, reading device, and method for generating operation command for game
JP2009163482A (en) * 2008-01-04 2009-07-23 Sharp Corp Authentication device, authentication method, program for making computer function as authentication device and recording medium
JP2011008768A (en) * 2009-06-29 2011-01-13 Sharp Corp Instruction input device, instruction input method, program, and recording medium thereof

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013242645A (en) * 2012-05-18 2013-12-05 Mitsubishi Electric Corp Touch panel device
JP2015536501A (en) * 2012-10-26 2015-12-21 クゥアルコム・インコーポレイテッドQualcomm Incorporated System and method for providing infrared gesture instructions on a display
JP2014130385A (en) * 2012-12-27 2014-07-10 Tokai Rika Co Ltd Touch input device
WO2014132893A1 (en) 2013-02-27 2014-09-04 アルプス電気株式会社 Operation detection device
EP2804084A1 (en) 2013-05-14 2014-11-19 Funai Electric Co., Ltd. Remote control method and remote control system of image display apparatus
JP2015197724A (en) * 2014-03-31 2015-11-09 株式会社メガチップス Gesture detection apparatus, operation method thereof, and control program
JP2017518597A (en) * 2014-05-16 2017-07-06 中興通訊股▲ふん▼有限公司Zte Corporation Control method, apparatus, electronic device, and computer recording medium
JP2016119008A (en) * 2014-12-22 2016-06-30 アルプス電気株式会社 Input device, control method and program thereof
JP2017084172A (en) * 2015-10-29 2017-05-18 キヤノン株式会社 Information processing apparatus, method of operating and managing touch panel, and computer program

Also Published As

Publication number Publication date
JP5682394B2 (en) 2015-03-11

Similar Documents

Publication Publication Date Title
JP5682394B2 (en) Operation input detection device using touch panel
TWI496041B (en) Two-dimensional touch sensors
EP1507192B1 (en) Detection of a dwell gesture by examining parameters associated with pen motion
JP5556270B2 (en) Candidate display device and candidate display method
JP5604279B2 (en) Gesture recognition apparatus, method, program, and computer-readable medium storing the program
KR100327209B1 (en) Software keyboard system using the drawing of stylus and method for recognizing keycode therefor
US20130120282A1 (en) System and Method for Evaluating Gesture Usability
EP2359224B1 (en) Generating gestures tailored to a hand resting on a surface
TWI471776B (en) Method and computing device for determining angular contact geometry
US8432301B2 (en) Gesture-enabled keyboard and associated apparatus and computer-readable storage medium
TWI584164B (en) Emulating pressure sensitivity on multi-touch devices
US20080134078A1 (en) Scrolling method and apparatus
JP2013525891A (en) Method and device for determining a user&#39;s touch gesture
US8743061B2 (en) Touch sensing method and electronic device
JP5565320B2 (en) Information processing apparatus and information processing program
TW200941314A (en) Touch sensor device and pointing coordinate determination method thereof
US20100252336A1 (en) Position apparatus for touch device and position method thereof
TWI669650B (en) Determining touch locations and forces thereto on a touch and force sensing surface
US9182908B2 (en) Method and electronic device for processing handwritten object
CN103577101B (en) Drawing input method and equipment based on multiple point touching
KR20160097410A (en) Method of providing touchless input interface based on gesture recognition and the apparatus applied thereto
US10228798B2 (en) Detecting method of touch system for avoiding inadvertent touch
WO2013023082A1 (en) High resolution non-ghosted gestures
JP2003122506A (en) Coordinate input and operational method directing device
CN103207686B (en) A kind of TrackPoint, TrackPoint information conversion method, device and electronic equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140814

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141229

R150 Certificate of patent or registration of utility model

Ref document number: 5682394

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150