JP2016031672A - Input device, finger determination method, and program - Google Patents

Input device, finger determination method, and program Download PDF

Info

Publication number
JP2016031672A
JP2016031672A JP2014154241A JP2014154241A JP2016031672A JP 2016031672 A JP2016031672 A JP 2016031672A JP 2014154241 A JP2014154241 A JP 2014154241A JP 2014154241 A JP2014154241 A JP 2014154241A JP 2016031672 A JP2016031672 A JP 2016031672A
Authority
JP
Japan
Prior art keywords
evaluation value
contact
parameter
operation surface
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014154241A
Other languages
Japanese (ja)
Other versions
JP6224543B2 (en
Inventor
宏 涌田
Hiroshi Wakuta
宏 涌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alps Alpine Co Ltd
Original Assignee
Alps Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alps Electric Co Ltd filed Critical Alps Electric Co Ltd
Priority to JP2014154241A priority Critical patent/JP6224543B2/en
Publication of JP2016031672A publication Critical patent/JP2016031672A/en
Application granted granted Critical
Publication of JP6224543B2 publication Critical patent/JP6224543B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input device with which it is possible to determine whether an object in contact with or close to an operation surface is a finger or not with high accuracy requiring a small amount of calculation, a method for the finger determination, and a program.SOLUTION: The two-dimensional distribution of detection data in an area of the operation surface of a sensor unit 10 which an object is in contact with or close to is assumed to be a two-dimensional normal distribution. The contour of the area of the operation surface which the object is in contact with or close to is approximated to a virtual ellipse that is a set of points on a two-dimensional plane that satisfy a condition that a probability density function f(x, y) representing the two-dimensional normal distribution equals a certain value. When the area of the operation surface which the object is in contact with or close to is specified, a first evaluation value E1 corresponding to a ratio between the long and short axes of the virtual ellipse is calculated on the basis of the detection data included in the specified area and its detection position. Depending on whether the first evaluation value E1 is within a prescribed range, determination is made as to whether the object in contact with or close to the area is a finger.SELECTED DRAWING: Figure 6

Description

本発明は、コンピュータ等の各種の情報機器において情報の入力に用いられる入力装置に係り、特に、指やペンなどの物体が操作面に接触若しくは近接した領域を特定し、その特定した領域に基づいて情報を入力する入力装置に関するものである。   The present invention relates to an input device used for inputting information in various information devices such as a computer, and in particular, specifies an area where an object such as a finger or a pen is in contact with or close to an operation surface, and is based on the specified area. The present invention relates to an input device for inputting information.

ノートブック型PCやタブレット端末、スマートフォンなどの情報機器の入力インターフェースとして、指やペンなどの物体の接触位置を検出するセンサを備えたタッチパッドやタッチパネルなどの装置が広く普及している。物体の接触位置を検出するセンサには、抵抗膜方式や静電容量方式など種々のタイプが存在するが、近年では、複数の接触箇所を検出する「マルチタッチ」への対応が可能な静電容量方式のセンサの採用が増加している。   As input interfaces for information devices such as notebook PCs, tablet terminals, and smartphones, devices such as touch pads and touch panels equipped with sensors that detect contact positions of objects such as fingers and pens are widely used. There are various types of sensors that detect the contact position of an object, such as a resistive film type and a capacitance type, but in recent years, an electrostatic that can handle "multi-touch" that detects multiple contact points. The adoption of capacitive sensors is increasing.

下記の特許文献1には、格子状に直交した導電線間のキャパシタンスの変化を検出する2次元センサマトリクスを用いて指等の接触位置を検出するマルチタッチ・デジタイザ・システムが記載されている。   Patent Document 1 below describes a multi-touch digitizer system that detects a contact position of a finger or the like using a two-dimensional sensor matrix that detects a change in capacitance between conductive lines orthogonal to a grid.

特開2011−501261号公報JP 2011-501261 A

ところで、マルチタッチ式のセンサにおいては、指先が操作面に触れた場合と、指先でない手の一部(掌や指の腹など)や他の物体が操作面に触れた場合とを正しく識別することが求められる。操作面に触れた物体が指先であるか否かを正しく判定できないと、ユーザの意図していない指示が入力され易くなり、使用性が低下する。   By the way, in the multi-touch type sensor, a case where a fingertip touches the operation surface and a case where a part of the hand that is not the fingertip (such as a palm or a belly of a finger) or another object touches the operation surface are correctly identified. Is required. If it cannot be correctly determined whether or not the object touching the operation surface is a fingertip, an instruction unintended by the user is likely to be input, and usability is reduced.

上記特許文献1では、2次元センサマトリクスによって検出されたタッチ領域がユーザの指先であるか否かを識別するために、タッチ領域のアスペクト比を利用する方法が記載されている。タッチ領域が指先によるものでない場合、その形状は、指先によるタッチ領域に比べて細長い楕円になり易いことが知られている。上記特許文献1の方法では、この楕円形状としての特徴を、タッチ領域の短軸内の導電線数に対する長軸内の導電線数の比(形状尺度)に基づいて推定している。しかしながら、楕円の長軸及び短軸が導電線の方向に対して斜めに傾いている場合、上記特許文献1に記載される方法では、楕円としての形状を正しく推定できないという問題がある。すなわち、実際のタッチ領域の形状が細長い楕円であっても、導電線に対する長軸及び短軸の傾きが45度に近くなると、円に近い形状として推定されてしまう。   Japanese Patent Application Laid-Open No. 2004-228561 describes a method of using an aspect ratio of a touch area in order to identify whether or not the touch area detected by the two-dimensional sensor matrix is a user's fingertip. It is known that when the touch area is not due to the fingertip, the shape is likely to be a long and narrow ellipse compared to the touch area due to the fingertip. In the method of Patent Document 1, the feature as an elliptical shape is estimated based on the ratio (shape scale) of the number of conductive lines in the long axis to the number of conductive lines in the short axis of the touch region. However, when the major axis and the minor axis of the ellipse are obliquely inclined with respect to the direction of the conductive wire, there is a problem that the shape described as the ellipse cannot be correctly estimated by the method described in Patent Document 1. That is, even if the shape of the actual touch area is a long and narrow ellipse, if the inclination of the major axis and the minor axis with respect to the conductive line is close to 45 degrees, it is estimated as a shape close to a circle.

このような楕円の推定の不正確さを改善するため、例えば、タッチ領域の輪郭線に近似する楕円の方程式を最小二乗法やガウス・ニュートン法などを用いて導出する方法も考えられる。しかしながら、楕円方程式を導出するこれらの方法は計算量が多く、演算時間が長くなるという問題や、演算能力の高いハードウェアが必要になるという問題がある。また、タッチ領域の輪郭線付近のデータのみから楕円方程式が導出されることから、ノイズ等によって輪郭線付近のデータが局所的に乱れている場合、楕円方程式の推定に大きな誤差が生じてしまうという問題もある。   In order to improve the inaccuracy of the estimation of the ellipse, for example, a method of deriving an ellipse equation that approximates the outline of the touch area by using the least square method, the Gauss-Newton method, or the like can be considered. However, these methods for deriving an elliptic equation have a problem that the calculation amount is large and the calculation time is long, and hardware with high calculation capability is required. In addition, since the elliptic equation is derived only from the data near the outline of the touch area, if the data near the outline is locally disturbed by noise or the like, a large error occurs in the estimation of the elliptic equation. There is also a problem.

本発明はかかる事情に鑑みてなされたものであり、その目的は、操作面に接触若しくは近接した物体が指先であるか否かを少ない計算量で精度良く判定できる入力装置と、その指判定方法及びプログラムを提供することにある。   The present invention has been made in view of such circumstances, and an object thereof is an input device capable of accurately determining whether an object in contact with or close to an operation surface is a fingertip with a small amount of calculation, and a finger determination method thereof And providing a program.

本発明の第1の観点は、操作面への物体の接触若しくは近接に応じた情報を入力する入力装置に関する。この入力装置は、前記操作面上に分布する複数の検出位置において物体の接触若しくは近接の度合をそれぞれ検出するセンサ部と、前記センサ部の検出結果に基づいて、前記操作面上の複数の位置における物体の接触若しくは近接の度合を示す複数の検出データを含んだ2次元データを生成する2次元データ生成部と、前記2次元データに基づいて、物体が接触若しくは近接した前記操作面上の領域を特定する領域特定部と、前記領域特定部によって特定された領域に対応する仮想的な楕円の長軸と短軸との比に応じた第1評価値を算出する算出部と、前記第1評価値が第1の範囲内にある場合、前記操作面に接触若しくは近接した物体が指先であると判定し、前記第1評価値が前記第1の範囲内にない場合、当該物体が指先でないと判定する判定部とを有する。前記仮想的な楕円は、前記領域特定部により特定された領域における前記検出データの二次元の分布を二次元正規分布と仮定した場合において、前記二次元正規分布を表す確率密度関数が一定値と等しい条件を満たす二次元平面上の点の集合である。前記算出部は、前記特定された領域に含まれる前記検出データとその検出位置とに基づいて前記第1評価値を算出する。   A first aspect of the present invention relates to an input device that inputs information according to contact or proximity of an object to an operation surface. The input device includes a sensor unit that detects the degree of contact or proximity of an object at a plurality of detection positions distributed on the operation surface, and a plurality of positions on the operation surface based on a detection result of the sensor unit. A two-dimensional data generation unit for generating two-dimensional data including a plurality of detection data indicating the degree of contact or proximity of the object, and an area on the operation surface where the object has contacted or approached based on the two-dimensional data An area specifying unit that specifies the first evaluation value according to a ratio between a major axis and a minor axis of a virtual ellipse corresponding to the area specified by the area specifying unit, and the first When the evaluation value is within the first range, it is determined that the object that is in contact with or close to the operation surface is the fingertip, and when the first evaluation value is not within the first range, the object is not the fingertip Judge And a determination unit. When the virtual ellipse is assumed that the two-dimensional distribution of the detection data in the region specified by the region specifying unit is a two-dimensional normal distribution, the probability density function representing the two-dimensional normal distribution is a constant value. A set of points on a two-dimensional plane that satisfy the same condition. The calculation unit calculates the first evaluation value based on the detection data included in the specified region and its detection position.

上記第1の観点に係る発明では、前記操作面に物体が接触若しくは近接した領域における前記検出データの二次元の分布が、二次元正規分布と仮定される。前記操作面に物体が接触若しくは近接した領域の輪郭は、この二次元正規分布を表す確率密度関数が一定値と等しい条件を満たす二次元平面上の点の集合である仮想的な楕円に近似される。物体が接触若しくは近接した前記操作面上の領域が特定されると、当該特定された領域に含まれる前記検出データとその検出位置とに基づいて、この仮想的な楕円の長軸と短軸との比に応じた前記第1評価値が算出される。前記第1評価値が前記第1の範囲内にあるか否かに応じて、前記物体が指先であるか否かが判定される。
従って、楕円の方程式を導出する複雑で計算量の多い処理を行うことなく、楕円の形状の特徴を表した前記第1評価値が算出される。
また、物体が接触若しくは近接した前記操作面上の領域に含まれる前記検出データとその検出位置とに基づいて算出される前記第1評価値は、当該領域の輪郭線付近の情報のみに基づいて導出される楕円の方程式に比べて、楕円の形状の特徴を精度良く表す。そのため、楕円の方程式を導出する方法に比べて、指先の判定精度が向上する。
In the invention according to the first aspect, a two-dimensional distribution of the detection data in a region where an object is in contact with or close to the operation surface is assumed to be a two-dimensional normal distribution. The contour of the area where the object is in contact with or close to the operation surface is approximated by a virtual ellipse that is a set of points on a two-dimensional plane that satisfies the condition that the probability density function representing the two-dimensional normal distribution is equal to a constant value. The When an area on the operation surface that is in contact with or close to an object is specified, the major axis and the minor axis of the virtual ellipse are determined based on the detection data and the detection position included in the specified area. The first evaluation value corresponding to the ratio is calculated. It is determined whether or not the object is a fingertip depending on whether or not the first evaluation value is within the first range.
Therefore, the first evaluation value representing the feature of the shape of the ellipse is calculated without performing a complicated and computationally intensive process for deriving the equation of the ellipse.
In addition, the first evaluation value calculated based on the detection data included in the region on the operation surface that is in contact with or close to the object and the detection position is based only on information near the contour line of the region. Compared to the derived ellipse equation, the ellipse shape features are represented with high accuracy. Therefore, the fingertip determination accuracy is improved as compared with the method of deriving an elliptic equation.

好適に、前記算出部は、前記確率密度関数における所定のパラメータを、前記特定された領域に含まれる前記検出データに基づいて算出してよい。前記算出部は、当該算出したパラメータに基づいて前記第1評価値を算出してよい。
上記の構成によれば、二次元正規分布を表す確率密度関数における所定のパラメータに基づいて前記第1評価値が算出されるため、楕円の方程式を導出する場合に比べて計算量が少なくなる。
Preferably, the calculation unit may calculate a predetermined parameter in the probability density function based on the detection data included in the specified region. The calculation unit may calculate the first evaluation value based on the calculated parameter.
According to the above configuration, since the first evaluation value is calculated based on a predetermined parameter in the probability density function representing a two-dimensional normal distribution, the amount of calculation is reduced as compared with the case where an elliptic equation is derived.

例えば、前記検出データの検出位置は、前記操作面上に設定された直交座標系における第1座標軸の座標値及び第2座標軸の座標値によって指定されてよい。前記算出部は、前記第1座標軸の座標値を前記確率密度関数の第1確率変数とし、前記第2座標軸の座標値を前記確率密度関数の第2確率変数とし、前記確率密度関数が前記検出データに応じた値を持つ場合において、前記第1確率変数についての分散に応じた第1パラメータ、前記第2確率変数についての分散に応じた第2パラメータ、及び、前記第1確率変数及び前記第2確率変数についての共分散に応じた第3パラメータを算出してよい。前記算出部は、当該算出した第1パラメータ、第2パラメータ及び第3パラメータに基づいて、前記第1評価値を算出してよい。
この場合、前記算出部は、前記第1パラメータと前記第2パラメータとの差を二乗した値と前記第3パラメータの4倍の値とを加算した値が、前記第1パラメータと前記第2パラメータとの和を二乗した値で除されることにより得られる数値に応じた前記第1評価値を取得してよい。
For example, the detection position of the detection data may be specified by the coordinate value of the first coordinate axis and the coordinate value of the second coordinate axis in the orthogonal coordinate system set on the operation surface. The calculation unit uses the coordinate value of the first coordinate axis as a first random variable of the probability density function, the coordinate value of the second coordinate axis as a second random variable of the probability density function, and the probability density function detects the detection In the case of having a value according to the data, the first parameter according to the variance for the first random variable, the second parameter according to the variance for the second random variable, and the first random variable and the first A third parameter corresponding to the covariance for the two random variables may be calculated. The calculation unit may calculate the first evaluation value based on the calculated first parameter, second parameter, and third parameter.
In this case, the calculation unit adds the value obtained by squaring the difference between the first parameter and the second parameter and a value four times the third parameter to obtain the first parameter and the second parameter. The first evaluation value according to the numerical value obtained by dividing the sum of the two by the squared value may be acquired.

好適に、前記算出部は、前記仮想的な楕円の面積に応じた第2評価値を前記第1パラメータ及び前記第2パラメータに基づいて算出してよい。前記判定部は、前記第1評価値が前記第1の範囲内にありかつ前記第2評価値が第2の範囲内にある場合、前記操作面に接触若しくは近接した物体が指先であると判定し、前記第1評価値が前記第1の範囲内にない又は前記第2評価値が第2の範囲内にない場合、当該物体が指先でないと判定してよい。
この場合、前記算出部は、前記第1パラメータと前記第2パラメータとの和に応じた前記第2評価値を算出してよい。
上記の構成によれば、指先の判定において前記仮想的な楕円の面積が更に加味されるため、当該判定の精度が向上する。また、前記仮想的な楕円の面積に応じた前記第2評価値が前記第1パラメータ及び前記第2パラメータに基づいて算出されるため、前記第2評価値の算出に伴う計算量の増大は微小に抑えられる。
Preferably, the calculation unit may calculate a second evaluation value corresponding to the area of the virtual ellipse based on the first parameter and the second parameter. The determination unit determines that an object that is in contact with or close to the operation surface is a fingertip when the first evaluation value is within the first range and the second evaluation value is within the second range. If the first evaluation value is not within the first range or the second evaluation value is not within the second range, it may be determined that the object is not a fingertip.
In this case, the calculation unit may calculate the second evaluation value corresponding to the sum of the first parameter and the second parameter.
According to said structure, since the area of the said virtual ellipse is further considered in determination of a fingertip, the precision of the said determination improves. In addition, since the second evaluation value corresponding to the area of the virtual ellipse is calculated based on the first parameter and the second parameter, an increase in calculation amount accompanying the calculation of the second evaluation value is small. Can be suppressed.

本発明の第2の観点は、操作面上に分布する複数の検出位置において物体の接触若しくは近接の度合をそれぞれ検出するセンサの検出結果を入力したコンピュータが、当該検出結果に基づいて、当該物体が指先であるか否かを判定する指判定方法に関する。この指判定方法は、前記センサの検出結果に基づいて、前記操作面上の複数の位置における物体の接触若しくは近接の度合を示す複数の検出データを含んだ2次元データを生成するステップと、前記2次元データに基づいて、物体が接触若しくは近接した前記操作面上の領域を特定するステップと、前記特定された領域に対応する仮想的な楕円の長軸と短軸との比に応じた第1評価値を算出するステップと、前記第1評価値が第1の範囲内にある場合、前記操作面に接触若しくは近接した物体が指先であると判定し、前記第1評価値が前記第1の範囲内にない場合、当該物体が指先でないと判定するステップとを有する。前記仮想的な楕円は、前記領域を特定するステップで特定された領域における前記検出データの二次元の分布を二次元正規分布と仮定した場合において、前記二次元正規分布を表す確率密度関数が一定値と等しい条件を満たす二次元平面上の点の集合である。前記第1評価値を算出するステップにおいては、前記特定された領域に含まれる前記検出データとその検出位置とに基づいて前記第1評価値を算出する。   According to a second aspect of the present invention, a computer that has input detection results of sensors that respectively detect the degree of contact or proximity of an object at a plurality of detection positions distributed on the operation surface is based on the detection result. The present invention relates to a finger determination method for determining whether or not is a fingertip. The finger determination method generates two-dimensional data including a plurality of detection data indicating the degree of contact or proximity of an object at a plurality of positions on the operation surface based on a detection result of the sensor; Based on the two-dimensional data, a step of identifying a region on the operation surface that is in contact with or close to an object, and a ratio corresponding to a ratio between a major axis and a minor axis of a virtual ellipse corresponding to the identified region. If the first evaluation value is within the first range and the first evaluation value is within the first range, it is determined that the object in contact with or close to the operation surface is a fingertip, and the first evaluation value is the first evaluation value. And determining that the object is not a fingertip. The virtual ellipse has a constant probability density function representing the two-dimensional normal distribution when the two-dimensional distribution of the detection data in the region specified in the step of specifying the region is assumed to be a two-dimensional normal distribution. A set of points on the two-dimensional plane that satisfy the condition equal to the value. In the step of calculating the first evaluation value, the first evaluation value is calculated based on the detection data included in the specified region and its detection position.

本発明の第3の観点に係る発明は、前記第2の観点に係る指判定方法における各ステップをコンピュータにおいて実行させるためのプログラムである。   The invention according to the third aspect of the present invention is a program for causing a computer to execute each step in the finger determination method according to the second aspect.

本発明によれば、物体が接触若しくは近接した領域の輪郭線の方程式を導出する方法に比べて、操作面に接触若しくは近接した物体が指先であるか否かを少ない計算量で精度良く判定できる。   According to the present invention, it is possible to accurately determine whether or not an object that is in contact with or close to the operation surface is a fingertip with a small amount of calculation, as compared with a method of deriving an equation of a contour line of a region in contact with or close to an object. .

本発明の実施形態に係る入力装置の構成の一例を示す図である。It is a figure which shows an example of a structure of the input device which concerns on embodiment of this invention. 二次元正規分布を表す確率密度関数のグラフの一例を示す図である。It is a figure which shows an example of the graph of the probability density function showing a two-dimensional normal distribution. 入力装置の動作を説明するためのフローチャートである。It is a flowchart for demonstrating operation | movement of an input device. 2次元データの2値化の例を示す図である。図4Aは2値化される前の2次元データを示し、図4Bは2値化された後の2次元データを示す。It is a figure which shows the example of binarization of two-dimensional data. FIG. 4A shows two-dimensional data before binarization, and FIG. 4B shows two-dimensional data after binarization. 2値化された2次元データに基づいて物体の接触・近接領域が特定される例を示す図である。図5Aは2値化された2次元データを示し、図5Bは物体の接触・近接領域が特定された状態を示す。It is a figure which shows the example in which the contact / proximity | contact area | region of an object is specified based on the binarized two-dimensional data. FIG. 5A shows binarized two-dimensional data, and FIG. 5B shows a state where the contact / proximity region of the object is specified. 指判定処理を説明するためのフローチャートである。It is a flowchart for demonstrating a finger determination process. 指判定処理の他の例を説明するためのフローチャートである。It is a flowchart for demonstrating the other example of a finger determination process.

図1は、本発明の実施形態に係る入力装置の構成の一例を示す図である。
図1に示す入力装置は、センサ部10と、処理部20と、記憶部30と、インターフェース部40を有する。本実施形態に係る入力装置は、センサが設けられた操作面に指やペンなどの物体を接触若しくは近接させることによって、その接触若しくは近接の位置に応じた情報を入力する装置である。なお、本明細書における「近接」とは、接触した状態で近くにあることと、接触しない状態で近くにあることを両方含む。
FIG. 1 is a diagram illustrating an example of a configuration of an input device according to an embodiment of the present invention.
The input device illustrated in FIG. 1 includes a sensor unit 10, a processing unit 20, a storage unit 30, and an interface unit 40. The input device according to the present embodiment is a device that inputs information according to the position of contact or proximity by bringing an object such as a finger or pen into contact or proximity with an operation surface provided with a sensor. Note that “proximity” in the present specification includes both being close in a contact state and being close in a non-contact state.

[センサ部10]
センサ部10は、操作面に分布する複数の検出位置において、指やペンなどの物体の接触若しくは近接の度合をそれぞれ検出する。例えばセンサ部10は、物体の近接に応じて静電容量が変化するキャパシタ(容量性センサ素子)12がマトリクス状に形成されたセンサマトリクス11と、キャパシタ12の静電容量に応じた検出データを生成する検出データ生成部13と、キャパシタ12に駆動電圧を印加する駆動部14を有する。
[Sensor unit 10]
The sensor unit 10 detects the degree of contact or proximity of an object such as a finger or a pen at a plurality of detection positions distributed on the operation surface. For example, the sensor unit 10 includes a sensor matrix 11 in which capacitors (capacitive sensor elements) 12 whose capacitance changes according to the proximity of an object are formed in a matrix, and detection data corresponding to the capacitance of the capacitor 12. A detection data generation unit 13 to generate and a drive unit 14 to apply a drive voltage to the capacitor 12 are included.

センサマトリクス11は、縦方向に延在した複数の駆動電極Lxと、横方向に延在した複数の検出電極Lyを備える。複数の駆動電極Lxは横方向へ平行に並び、複数の検出電極Lyは縦方向へ平行に並ぶ。複数の駆動電極Lxと複数の検出電極Lyが格子状に交差しており、互いに絶縁されている。駆動電極Lxと検出電極Lyの交差部付近に、容量性センサ素子としてのキャパシタ12が形成される。なお、図1の例では電極(Lx,Ly)の形状が短冊状に描かれているが、他の任意の形状(ダイヤモンドパターンなど)でもよい。   The sensor matrix 11 includes a plurality of drive electrodes Lx extending in the vertical direction and a plurality of detection electrodes Ly extending in the horizontal direction. The plurality of drive electrodes Lx are arranged in parallel in the horizontal direction, and the plurality of detection electrodes Ly are arranged in parallel in the vertical direction. The plurality of drive electrodes Lx and the plurality of detection electrodes Ly intersect in a lattice pattern and are insulated from each other. A capacitor 12 as a capacitive sensor element is formed near the intersection of the drive electrode Lx and the detection electrode Ly. In the example of FIG. 1, the shape of the electrodes (Lx, Ly) is drawn in a strip shape, but other arbitrary shapes (such as a diamond pattern) may be used.

駆動部14は、センサマトリクス11の各キャパシタ12に駆動電圧を印加する回路である。具体的には、駆動部14は、処理部20の制御に従って、複数の駆動電極Lxから順番に一の駆動電極Lxを選択し、当該選択した一の駆動電極Lxの電位を周期的に変化させる。駆動電極Lxの電位が所定の範囲で変化することにより、この駆動電極Lxと検出電極Lyとの交差点付近に形成されたキャパシタ12に印加される駆動電圧が所定の範囲で変化し、キャパシタ12において充電や放電が生じる。   The drive unit 14 is a circuit that applies a drive voltage to each capacitor 12 of the sensor matrix 11. Specifically, the drive unit 14 selects one drive electrode Lx in order from the plurality of drive electrodes Lx according to the control of the processing unit 20, and periodically changes the potential of the selected one drive electrode Lx. . When the potential of the drive electrode Lx changes within a predetermined range, the drive voltage applied to the capacitor 12 formed near the intersection of the drive electrode Lx and the detection electrode Ly changes within the predetermined range. Charging or discharging occurs.

検出データ生成部13は、駆動部14による駆動電圧の印加に伴ってキャパシタ12が充電又は放電される際に各検出電極Lyにおいて伝送される電荷に応じた検出データを生成する。すなわち、検出データ生成部13は、駆動部14の駆動電圧の周期的な変化と同期したタイミングで、各検出電極Lyにおいて伝送される電荷をサンプリングし、そのサンプリングの結果に応じた検出データを生成する。   The detection data generation unit 13 generates detection data corresponding to the charge transmitted through each detection electrode Ly when the capacitor 12 is charged or discharged with the application of the drive voltage by the drive unit 14. That is, the detection data generation unit 13 samples the charge transmitted through each detection electrode Ly at a timing synchronized with the periodic change of the drive voltage of the drive unit 14, and generates detection data according to the sampling result. To do.

例えば、検出データ生成部13は、キャパシタ12の静電容量に応じた電圧を出力する静電容量−電圧変換回路(CV変換回路)と、CV変換回路の出力信号をデジタル信号に変換し、検出データとして出力するアナログ−デジタル変換回路(AD変換回路)を有する。
CV変換回路は、駆動部14の駆動電圧が周期的に変化してキャパシタ12が充電又は放電される度に、処理部20の制御に従って、検出電極Lyにおいて伝送される電荷をサンプリングする。具体的には、CV変換回路は、検出電極Lyにおいて正又は負の電荷が伝送される度に、この電荷若しくはこれに比例した電荷を参照用のキャパシタに移送し、参照用のキャパシタに発生する電圧に応じた信号を出力する。例えば、CV変換回路は、検出電極Lyにおいて周期的に伝送される電荷若しくはこれに比例した電荷の積算値や平均値に応じた信号を出力する。AD変換回路は、処理部20の制御に従って、CV変換回路の出力信号を所定の周期でデジタル信号に変換し、検出データとして出力する。
For example, the detection data generation unit 13 converts the output signal of the capacitance-voltage conversion circuit (CV conversion circuit) that outputs a voltage corresponding to the capacitance of the capacitor 12 into a digital signal. An analog-digital conversion circuit (AD conversion circuit) that outputs data is included.
The CV conversion circuit samples the charge transmitted through the detection electrode Ly according to the control of the processing unit 20 every time the driving voltage of the driving unit 14 periodically changes and the capacitor 12 is charged or discharged. Specifically, every time positive or negative charge is transmitted at the detection electrode Ly, the CV conversion circuit transfers this charge or a charge proportional thereto to the reference capacitor and generates it in the reference capacitor. A signal corresponding to the voltage is output. For example, the CV conversion circuit outputs a signal corresponding to an integrated value or an average value of charges periodically transmitted through the detection electrode Ly or charges proportional thereto. The AD conversion circuit converts the output signal of the CV conversion circuit into a digital signal at a predetermined period according to the control of the processing unit 20 and outputs it as detection data.

なお、上述の例において示したセンサ部10は、電極間(Lx,Ly)に生じる静電容量(相互容量)の変化によって物体の近接を検出するものであるが、この例に限らず、他の種々の方式によって物体の近接を検出してもよい。例えば、センサ部10は、物体の接近によって電極とグランドの間に生じる静電容量(自己容量)を検出する方式でもよい。自己容量を検出する方式の場合、検出電極に駆動電圧が印加される。また、センサ部10は、静電容量方式に限定されるものではなく、例えば抵抗膜方式や電磁誘導式などでもよい。   In addition, although the sensor part 10 shown in the above-mentioned example detects the proximity | contact of an object by the change of the electrostatic capacitance (mutual capacitance) which arises between electrodes (Lx, Ly), it is not restricted to this example, others The proximity of the object may be detected by various methods. For example, the sensor unit 10 may be a system that detects a capacitance (self-capacitance) generated between the electrode and the ground due to the approach of an object. In the case of a method for detecting self-capacitance, a drive voltage is applied to the detection electrode. Further, the sensor unit 10 is not limited to the electrostatic capacity method, and may be, for example, a resistance film method or an electromagnetic induction method.

[処理部20]
処理部20は、入力装置の全体的な動作を制御する回路であり、例えば、記憶部30に格納されるプログラムの命令コードに従って処理を行うコンピュータや、特定の機能を実現するロジック回路を含んで構成される。処理部20の処理は、その全てをコンピュータにおいてプログラムに基づいて実現してもよいし、その一部若しくは全部を専用のロジック回路で実現してもよい。
[Processing unit 20]
The processing unit 20 is a circuit that controls the overall operation of the input device, and includes, for example, a computer that performs processing according to an instruction code of a program stored in the storage unit 30, and a logic circuit that implements a specific function. Composed. All of the processing of the processing unit 20 may be realized based on a program in a computer, or part or all of the processing may be realized by a dedicated logic circuit.

図1の例において、処理部20は、タイミング制御部21と、2次元データ生成部22と、領域特定部23と、算出部24と、判定部25と、座標演算部26を有する。   In the example of FIG. 1, the processing unit 20 includes a timing control unit 21, a two-dimensional data generation unit 22, a region specifying unit 23, a calculation unit 24, a determination unit 25, and a coordinate calculation unit 26.

タイミング制御部21は、センサ部10における検出のタイミングを制御する。具体的には、タイミング制御部21は、駆動部14における駆動電極の選択とパルス電圧の発生、並びに、検出データ生成部13における検出電極の選択と検出データの生成が適切なタイミングで行われるように、これらの回路を制御する。   The timing control unit 21 controls the detection timing in the sensor unit 10. Specifically, the timing control unit 21 selects the drive electrode and generates the pulse voltage in the drive unit 14, and selects the detection electrode and generates the detection data in the detection data generation unit 13 at appropriate timing. In addition, these circuits are controlled.

2次元データ生成部22は、センサ部10の検出結果に基づいて、操作面の複数の位置における物体の接触若しくは近接の度合を示す複数の検出データを含んだ2次元データを生成し、記憶部30の2次元データメモリ31に格納する。   The two-dimensional data generation unit 22 generates two-dimensional data including a plurality of detection data indicating the degree of contact or proximity of an object at a plurality of positions on the operation surface based on the detection result of the sensor unit 10, and a storage unit It is stored in 30 two-dimensional data memory 31.

例えば2次元データ生成部22は、センサ部10から出力される検出データを、行列形式の2次元データとして記憶部30の記憶領域(現在値メモリ)に格納する。2次元データ生成部22は、現在値メモリに格納した2次元データの各検出データと、記憶部30の別の記憶領域(基準値メモリ)に予め格納した2次元データの各検出データとの差を、相互に対応する検出データについてそれぞれ演算する。2次元データ生成部22は、それらの演算結果を、記憶部30の2次元データメモリ31に行列形式で格納する。   For example, the two-dimensional data generation unit 22 stores the detection data output from the sensor unit 10 in a storage area (current value memory) of the storage unit 30 as two-dimensional data in a matrix format. The two-dimensional data generation unit 22 calculates a difference between each detection data of the two-dimensional data stored in the current value memory and each detection data of the two-dimensional data stored in advance in another storage area (reference value memory) of the storage unit 30. Are calculated for the detection data corresponding to each other. The two-dimensional data generation unit 22 stores these calculation results in the two-dimensional data memory 31 of the storage unit 30 in a matrix format.

基準値メモリには、操作面に何も接触若しくは近接していない状態でセンサ部10から出力された検出データが予め記憶されている。そのため、2次元データ生成部22によって2次元データメモリ31に書き込まれる2次元データは、物体が操作面に接触若しくは近接していない状態からの変化量を表す。   In the reference value memory, detection data output from the sensor unit 10 in a state where nothing touches or is close to the operation surface is stored in advance. Therefore, the two-dimensional data written to the two-dimensional data memory 31 by the two-dimensional data generation unit 22 represents the amount of change from a state where the object is not in contact with or close to the operation surface.

なお、2次元データ生成部22において生成する2次元データは、上述のように未接触状態からの変化量を表すデータに限定されず、センサ部10において出力される検出データと同じものでもよい。   Note that the two-dimensional data generated by the two-dimensional data generation unit 22 is not limited to data representing the amount of change from the non-contact state as described above, and may be the same as the detection data output by the sensor unit 10.

領域特定部23は、2次元データ生成部22によって2次元データメモリ31に書き込まれた2次元データに基づいて、物体が接触若しくは近接した操作面上の領域を特定し、特定した領域に関する情報を記憶部30の領域情報メモリ33に格納する。   Based on the two-dimensional data written in the two-dimensional data memory 31 by the two-dimensional data generation unit 22, the region specifying unit 23 specifies a region on the operation surface that is in contact with or close to the object, and stores information on the specified region. The data is stored in the area information memory 33 of the storage unit 30.

例えば、領域特定部23は、記憶部30の2次元データメモリ31に格納された2次元データに含まれる各検出データを、物体の接触若しくは近接が有るか否かを示す2値化データ(オンデータ又はオフデータ)にそれぞれ変換し、その変換結果を記憶部30の2次元データメモリ32に格納する。具体的には、領域特定部23は、2次元データメモリ31の検出データを所定のしきい値と比較し、当該比較結果に応じた値を持つ2値化データに変換する。   For example, the area specifying unit 23 converts each detection data included in the two-dimensional data stored in the two-dimensional data memory 31 of the storage unit 30 into binarized data (ON Data or off-data), and the conversion result is stored in the two-dimensional data memory 32 of the storage unit 30. Specifically, the region specifying unit 23 compares the detection data in the two-dimensional data memory 31 with a predetermined threshold value, and converts it into binary data having a value corresponding to the comparison result.

2値化された2次元データが得られると、領域特定部23はこの2次元データに基づいて、操作面における個々の物体の接触領域若しくは近接領域を特定する。具体的には、領域特定部23は、2値化された2次元データを端から順番に走査して、物体の接触若しくは近接が有ることを示す2値化データ(オンデータ)を検索する。走査によってオンデータが見つかると、領域特定部23は、そのオンデータを始点として、オンデータが集合した領域の輪郭を追跡する。輪郭の追跡の結果として再び始点に戻ると、領域特定部23は、閉じた輪郭によって囲まれた領域を物体の接触・近接領域として特定し、その領域に固有のラベルを割り当てる。そして、領域特定部23は、固有のラベルを割り当てた領域に属する2値化データをオフデータに変更し、再度、2値化された2次元データを端から順番に走査する。走査によってまたオンデータが見つかると、領域特定部23は、上述と同様に輪郭追跡を行い、オンデータの集合領域を特定して、固有のラベルを割り当てる。領域特定部23は、この処理を繰り返すことにより、操作面上における物体の接触・近接領域をそれぞれ特定し、各領域に固有のラベルを割り当てる。   When binarized two-dimensional data is obtained, the region specifying unit 23 specifies a contact region or a close region of each object on the operation surface based on the two-dimensional data. Specifically, the area specifying unit 23 scans the binarized two-dimensional data in order from the end, and searches for binarized data (on data) indicating that the object is in contact with or close to the area. When the on-data is found by scanning, the area specifying unit 23 tracks the outline of the area where the on-data is gathered, starting from the on-data. When returning to the starting point again as a result of the contour tracking, the region specifying unit 23 specifies the region surrounded by the closed contour as the contact / proximity region of the object, and assigns a unique label to the region. Then, the region specifying unit 23 changes the binarized data belonging to the region to which the unique label is assigned to off-data, and scans the binarized two-dimensional data again sequentially from the end. When the on-data is found again by scanning, the region specifying unit 23 performs contour tracking in the same manner as described above, specifies a collection region of on-data, and assigns a unique label. By repeating this process, the area specifying unit 23 specifies the contact / proximity area of the object on the operation surface, and assigns a unique label to each area.

算出部24は、領域特定部23によって特定された領域に対応する仮想的な楕円の長軸と短軸との比に応じた第1評価値E1を算出する。この仮想的な楕円は、領域特定部23により特定された領域における検出データの二次元の分布を二次元正規分布と仮定した場合において、二次元正規分布を表す確率密度関数が一定値と等しい条件を満たす二次元平面上の点の集合(等高線)である。算出部24は、領域特定部23によって特定された領域に含まれる検出データとその検出位置とに基づいて、この仮想的な楕円の形状の特徴を表す第1評価値E1を算出する。   The calculation unit 24 calculates a first evaluation value E1 corresponding to the ratio between the major axis and the minor axis of a virtual ellipse corresponding to the region identified by the region identifying unit 23. This virtual ellipse is a condition that the probability density function representing the two-dimensional normal distribution is equal to a constant value when the two-dimensional distribution of detection data in the region specified by the region specifying unit 23 is assumed to be a two-dimensional normal distribution. A set of points (contour lines) on a two-dimensional plane that satisfies The calculation unit 24 calculates a first evaluation value E1 representing the feature of this virtual ellipse shape based on the detection data included in the region specified by the region specifying unit 23 and its detection position.

図2は、二次元正規分布を表す確率密度関数のグラフの一例を示す図である。「f(x,y)」は二次元正規分布の確率密度関数を示し、「x」,「y」は確率変数を示す。図2の例において、直交座標系を構成するx軸,y軸の座標値は確率変数x,yに対応し、x軸,y軸に対して垂直な座標軸の座標値は確率密度関数f(x,y)に対応する。   FIG. 2 is a diagram illustrating an example of a graph of a probability density function representing a two-dimensional normal distribution. “F (x, y)” indicates a probability density function of a two-dimensional normal distribution, and “x” and “y” indicate random variables. In the example of FIG. 2, the coordinate values of the x-axis and y-axis constituting the orthogonal coordinate system correspond to the random variables x and y, and the coordinate value of the coordinate axis perpendicular to the x-axis and y-axis is the probability density function f ( x, y).

指先が接触若しくは近接した領域における検出データ(物体の接触度合若しくは近接度合の検出結果を示すデータ)の分布は、図2に示すような二次元正規分布に近似する傾向がある。すなわち、センサ部10の操作面上に設定された直交座標系におけるx軸の座標値を確率変数xとし、当該直交座標系におけるy軸の座標値を確率変数yとした場合、当該直交座標系の座標(x,y)における検出データは、二次元正規分布の確率密度関数f(x,y)に応じた値を有する傾向がある。   The distribution of detection data (data indicating the contact degree or proximity detection result of an object) in a region where the fingertip is in contact with or in proximity tends to approximate a two-dimensional normal distribution as shown in FIG. That is, when the coordinate value of the x axis in the orthogonal coordinate system set on the operation surface of the sensor unit 10 is the random variable x and the coordinate value of the y axis in the orthogonal coordinate system is the random variable y, the orthogonal coordinate system The detected data at the coordinates (x, y) of the above has a tendency to have a value corresponding to the probability density function f (x, y) of the two-dimensional normal distribution.

以下、二次元正規分布の確率密度関数の等高線が、図2の下側において表すように楕円となることを説明する。そして、この楕円の長軸と短軸との比が、二次元正規分布の確率密度関数f(x,y)を規定するパラメータ(母数)によって算出できることを示す。   Hereinafter, it will be described that the contour line of the probability density function of the two-dimensional normal distribution becomes an ellipse as shown in the lower side of FIG. The ratio between the major axis and the minor axis of the ellipse can be calculated by a parameter (parameter) that defines the probability density function f (x, y) of the two-dimensional normal distribution.

2次元正規分布の確率密度関数f(X)は、次の式で表される。   The probability density function f (X) of the two-dimensional normal distribution is expressed by the following equation.

式(1)において、「X」は確率変数行列、「μ」は平均値行列、「S」は分散共分散行列をそれぞれ示す。この確率変数行列X、平均値行列μ、分散共分散行列Sは、次の式で表される。   In Expression (1), “X” represents a random variable matrix, “μ” represents an average value matrix, and “S” represents a variance-covariance matrix. This random variable matrix X, mean value matrix μ, and variance-covariance matrix S are expressed by the following equations.

式(3)における「μ」は確率変数xについての平均値を示し、「μ」は確率変数yについての平均値を示す。また、式(4)における「σ 」は確率変数xについての分散を示し、「σ 」は確率変数yについての分散を示し、「σxy」は確率変数x及びyについての共分散を示す。分散σ 、分散σ 、共分散σxyは、それぞれ次の式で表される。 In formula (3), “μ x ” indicates an average value for the random variable x, and “μ y ” indicates an average value for the random variable y. Further, “σ x 2 ” in Equation (4) indicates the variance for the random variable x, “σ y 2 ” indicates the variance for the random variable y, and “σ xy ” indicates the common for the random variables x and y. Indicates variance. The variance σ x 2 , the variance σ y 2 , and the covariance σ xy are each expressed by the following equations.

式(5)〜(7)において、「Z(x,y)」は、二次元正規分布に近似される二次元データの各サンプル値を示し、本実施形態では、2次元データメモリ31に格納される2次元データの各検出データに対応する。   In Expressions (5) to (7), “Z (x, y)” indicates each sample value of two-dimensional data approximated to a two-dimensional normal distribution, and is stored in the two-dimensional data memory 31 in this embodiment. Corresponds to each detection data of the two-dimensional data.

式(1)における分散共分散行列Sの逆行列S−1と行列式|S|は、それぞれ次の式で表される。 The inverse matrix S −1 and the determinant | S | of the variance-covariance matrix S in Equation (1) are represented by the following equations, respectively.

この式(8),(9)を式(1)に代入して整理すると、確率密度関数f(x,y)は次の式で表される。   When the equations (8) and (9) are substituted into the equation (1) and rearranged, the probability density function f (x, y) is expressed by the following equation.

式(10)は、更に次の式のように変形できる。   Equation (10) can be further transformed into the following equation.

式(11)における定数「ρ」は、次の式で表される。   The constant “ρ” in Expression (11) is expressed by the following expression.

式(11)に示す確率密度関数f(x,y)が一定の値cに等しいものとすると、式(11)は次式のように変形できる。   Assuming that the probability density function f (x, y) shown in the equation (11) is equal to a constant value c, the equation (11) can be transformed as the following equation.

ここで、確率変数x,yを、次式に示す変数x,yに置換する。 Here, the random variables x and y are replaced with variables x e and y e shown in the following equation.

また、式(13)における左辺は定数なので、これを「C」と置く。そうすると、式(11)は、更に次のように変形できる。   Also, since the left side in equation (13) is a constant, it is set as “C”. Then, the expression (11) can be further modified as follows.

式(16)は、直交座標系の座標軸(x軸、y軸)に対して長軸及び短軸が傾いている楕円の方程式を表す。従って、二次元正規分布の確率密度関数の等高線が、図2の下側の2次元平面において表すように楕円となることが分かる。   Expression (16) represents an ellipse equation in which the major axis and the minor axis are inclined with respect to the coordinate axes (x axis, y axis) of the orthogonal coordinate system. Accordingly, it can be seen that the contour line of the probability density function of the two-dimensional normal distribution is an ellipse as shown in the lower two-dimensional plane of FIG.

共分散σxyがゼロの場合、式(12)の関係から定数「ρ」はゼロとなる。式(11)において「ρ」をゼロとすると、式(11)に示す楕円の方程式は次式のようになる。 When the covariance σ xy is zero, the constant “ρ” is zero from the relationship of the equation (12). If “ρ” is zero in the equation (11), the elliptic equation shown in the equation (11) is as follows.

式(17)は、直交座標系の座標軸(x軸、y軸)に対して長軸及び短軸が傾いていない(長軸及び短軸が座標軸と平行若しくは直交している)楕円の方程式を表す。従って、共分散σxyは、直交座標系の座標軸に対する楕円の傾きに関与するパラメータであると考えられる。 Equation (17) is an elliptic equation in which the major axis and the minor axis are not inclined with respect to the coordinate axes (x axis, y axis) of the orthogonal coordinate system (the major axis and the minor axis are parallel or orthogonal to the coordinate axes). Represent. Therefore, the covariance σ xy is considered to be a parameter related to the inclination of the ellipse with respect to the coordinate axis of the orthogonal coordinate system.

ここで、座標軸に対して傾きのない楕円について座標軸の回転を行うことにより、式(16)で表されるように、座標軸に対して傾いた楕円になったとする。楕円の傾きがない座標系における変数を「u」「v」とすると、この回転変換は次式のように表される。   Here, it is assumed that an ellipse that is tilted with respect to the coordinate axis is formed by rotating the coordinate axis with respect to an ellipse that is not tilted with respect to the coordinate axis, as represented by Expression (16). If the variables in the coordinate system without the inclination of the ellipse are “u” and “v”, this rotational transformation is expressed as follows.

また、確率変数Xと確率変数Yとの間の変換は、次のように表すことができる。   Further, the conversion between the random variable X and the random variable Y can be expressed as follows.

式(19)において、「a」は定数ベクトルを示し、「B」は係数行列を示す。   In Expression (19), “a” represents a constant vector, and “B” represents a coefficient matrix.

確率変数Xについての平均値行列μは、次式で表される。   The average value matrix μ for the random variable X is expressed by the following equation.

確率変数Xについての分散共分散行列Σは、次式で表される。   The variance-covariance matrix Σ for the random variable X is expressed by the following equation.

確率変数Yについての平均値行列μは、次式で表される。 Mean value matrix mu Y for random variable Y is expressed by the following equation.

確率変数Yについての分散共分散行列Σは、次式で表される。 Variance-covariance matrix sigma Y for random variable Y is expressed by the following equation.

式(23)における右辺の係数行列Bは、式(18)の右辺における回転変換の係数行列とみなすことができる。他方、2変数の正規分布における分散共分散行列Σは、式(4)において示すように、分散と共分散を用いて表される。楕円の傾きがない座標系の変数uについての分散を「σ 」、変数vについての分散を「σ 」、変数u及びvについての共分散を「σuv」とすると、楕円の傾きがない場合には共分散「σuv」がゼロになると考えられるため、式(23)は次式のようになる。 The coefficient matrix B on the right side in Expression (23) can be regarded as a coefficient matrix for rotational transformation on the right side of Expression (18). On the other hand, the variance-covariance matrix Σ in the two-variable normal distribution is expressed using variance and covariance as shown in Equation (4). If the variance for the variable u in the coordinate system without the inclination of the ellipse is “σ u 2 ”, the variance for the variable v is “σ v 2 ”, and the covariance for the variables u and v is “σ uv ”, Since it is considered that the covariance “σ uv ” becomes zero when there is no inclination, the equation (23) becomes as follows.

式(24)から、次式が得られる。   From the equation (24), the following equation is obtained.

式(25)から式(26)を引くと、次式が得られる。   When the equation (26) is subtracted from the equation (25), the following equation is obtained.

また式(24)から、次式が得られる。   Further, from the equation (24), the following equation is obtained.

式(25)と式(26)を加えると、次式が得られる。   When formula (25) and formula (26) are added, the following formula is obtained.

式(27)を2乗すると、次式が得られる。   When the equation (27) is squared, the following equation is obtained.

式(28)を2乗すると、次式が得られる。   When the equation (28) is squared, the following equation is obtained.

式(30)と式(31)を加えて、両辺の平方根を求めると、次式が得られる。   When the square roots of both sides are obtained by adding Expression (30) and Expression (31), the following expression is obtained.

式(29)と式(32)から、次式が得られる。   From the equations (29) and (32), the following equation is obtained.

式(33)と式(34)から、楕円の長軸と短軸との比Rは次式のように表される。   From the equations (33) and (34), the ratio R between the major axis and the minor axis of the ellipse is expressed as the following equation.

式(35)が示すように、楕円の長軸と短軸との比Rは、二次元正規分布の確率密度関数f(x,y)を規定するパラメータ(σ ,σ ,σxy)によって算出できる。 As shown in Expression (35), the ratio R between the major axis and the minor axis of the ellipse is a parameter (σ x 2 , σ y 2 , σ) that defines the probability density function f (x, y) of the two-dimensional normal distribution. xy ).

なお、式(35)では平方根の計算が必要であるが、この式を次のように簡略化することで、平方根の計算を回避できる。   In addition, although calculation of a square root is required in Formula (35), calculation of a square root can be avoided by simplifying this formula as follows.

式(36)における平方根の部分を第1評価値E1とすると、第1評価値E1は次式で表される。   Assuming that the square root in Expression (36) is the first evaluation value E1, the first evaluation value E1 is expressed by the following expression.

式(37)で表される第1評価値E1も、楕円の長軸と短軸との比Rに応じた値を有する。   The first evaluation value E1 represented by Expression (37) also has a value corresponding to the ratio R between the major axis and the minor axis of the ellipse.

算出部24は、領域特定部23によって特定された領域に含まれる検出データとその検出位置とに基づいて、式(5)〜(7)で表されるパラメータσ ,σ ,σxyを算出する。そして、算出部24は、算出したこれらのパラメータに基づいて、式(37)により表される第1評価値E1を算出する。 Based on the detection data included in the region specified by the region specifying unit 23 and its detection position, the calculation unit 24 uses the parameters σ x 2 , σ y 2 , σ represented by the equations (5) to (7). xy is calculated. And the calculation part 24 calculates the 1st evaluation value E1 represented by Formula (37) based on these calculated parameters.

なお、式(5)〜(7)における分母の項(領域内に含まれる検出データの合計値)は、式(37)において約分されるため、式(37)を求める場合に当該分母の項の計算は不要である。従って、算出部24は、式(5)〜(7)における分子の項のみを算出し、その算出結果を用いて第1評価値E1を算出してもよい。
以上が、算出部24の説明である。
Since the denominator term (the total value of the detection data included in the region) in Equations (5) to (7) is reduced in Equation (37), when calculating Equation (37), No term calculation is required. Therefore, the calculation unit 24 may calculate only the numerator term in the equations (5) to (7) and calculate the first evaluation value E1 using the calculation result.
The above is the description of the calculation unit 24.

図1に戻る。
判定部25は、算出部24において算出された第1評価値E1が所定の範囲内(第1の範囲内)にある場合、操作面に接触若しくは近接した物体が指先であると判定し、第1評価値E1がこの範囲内にない場合、当該物体が指先でないと判定する。
Returning to FIG.
When the first evaluation value E1 calculated by the calculation unit 24 is within a predetermined range (within the first range), the determination unit 25 determines that an object that is in contact with or close to the operation surface is a fingertip. If the 1 evaluation value E1 is not within this range, it is determined that the object is not a fingertip.

座標演算部26は、領域特定部23において特定された物体の接触領域若しくは近接領域に基づいて、物体が接触若しくは近接した操作面上の座標を演算する。
例えば、座標演算部26は、領域特定部23において特定された領域の横方向(電極Lyが配列する方向)と縦方向(電極Lyが配列する方向)のそれぞれについてプロファイルデータを作成する。横方向のプロファイルデータは、操作面の縦方向における一群の検出データの和を1列毎に算出し、その検出データの和を操作面の横方向の順番に配列したものである。縦方向のプロファイルデータは、操作面の横方向における一群の検出データの和を1行毎に算出し、その検出データの和を操作面の縦方向の順番に配列したものである。座標演算部28は、この横方向のプロファイルデータと縦方向のプロファイルデータのそれぞれについて、検出データのピークの位置や重心の位置を演算する。この演算により求められた横方向の位置と縦方向の位置が、操作面上において物体が接触若しくは近接した座標を表す。座標演算部28は、このような演算により求めた座標のデータを、記憶部30の物体座標メモリ34に格納する。
Based on the contact area or proximity area of the object specified by the area specifying unit 23, the coordinate calculation unit 26 calculates coordinates on the operation surface where the object has contacted or approached.
For example, the coordinate calculation unit 26 creates profile data for each of the horizontal direction (direction in which the electrode Ly is arranged) and the vertical direction (direction in which the electrode Ly is arranged) of the region specified by the region specifying unit 23. The profile data in the horizontal direction is obtained by calculating the sum of a group of detection data in the vertical direction of the operation surface for each column and arranging the sum of the detection data in the horizontal direction of the operation surface. The profile data in the vertical direction is obtained by calculating the sum of a group of detection data in the horizontal direction of the operation surface for each row and arranging the sum of the detection data in the order of the vertical direction of the operation surface. The coordinate calculation unit 28 calculates the peak position and the center of gravity position of the detection data for each of the horizontal profile data and the vertical profile data. The position in the horizontal direction and the position in the vertical direction obtained by this calculation represent coordinates at which the object is in contact with or close to the operation surface. The coordinate calculation unit 28 stores the coordinate data obtained by such calculation in the object coordinate memory 34 of the storage unit 30.

なお、座標演算部26は、領域特定部23において特定された領域のうち、判定部25で指先と判定された領域の座標のみを演算してもよい。   Note that the coordinate calculation unit 26 may calculate only the coordinates of the region determined as the fingertip by the determination unit 25 among the regions specified by the region specifying unit 23.

[記憶部30]
記憶部30は、処理部20において処理に使用される定数データや変数データを記憶する。処理部20がコンピュータを含む場合、記憶部30は、そのコンピュータにおいて実行されるプログラムを記憶してもよい。記憶部30は、例えば、DRAMやSRAMなどの揮発性メモリ、フラッシュメモリなどの不揮発性メモリ、ハードディスクなどを含んで構成される。
[Storage unit 30]
The storage unit 30 stores constant data and variable data used for processing in the processing unit 20. When the processing unit 20 includes a computer, the storage unit 30 may store a program executed on the computer. The storage unit 30 includes, for example, a volatile memory such as a DRAM or SRAM, a nonvolatile memory such as a flash memory, a hard disk, or the like.

[インターフェース部40]
インターフェース部40は、入力装置と他の制御装置(入力装置を搭載する情報機器のコントロール用ICなど)との間でデータをやり取りするための回路である。処理部20は、記憶部30に記憶される情報(物体の座標情報、物体数など)をインターフェース部40から図示しない制御装置へ出力する。また、インターフェース部40は、処理部20のコンピュータにおいて実行されるプログラムを不図示のディスクドライブ装置(非一時的記録媒体に記録されたプログラムを読み取る装置)やサーバなどから取得して、記憶部30にロードしてもよい。
[Interface unit 40]
The interface unit 40 is a circuit for exchanging data between the input device and another control device (such as a control IC for an information device equipped with the input device). The processing unit 20 outputs information (such as object coordinate information and the number of objects) stored in the storage unit 30 from the interface unit 40 to a control device (not shown). Further, the interface unit 40 acquires a program executed in the computer of the processing unit 20 from a disk drive device (not shown) (device that reads a program recorded in a non-temporary recording medium), a server, or the like, and the storage unit 30 You may load it.

ここで、上述した構成を有する図1に示す入力装置の動作について、図3のフローチャートを参照して説明する。例えば入力装置は、図3のフローチャートに示す動作を一定周期ごとに反復し、操作面上における物体の接触・近接位置の情報を取得する。   Here, the operation of the input device shown in FIG. 1 having the above-described configuration will be described with reference to the flowchart of FIG. For example, the input device repeats the operation shown in the flowchart of FIG. 3 at regular intervals, and acquires information on the contact / proximity position of the object on the operation surface.

ST100:
処理部20のタイミング制御部21は、操作面の全面に分布する複数の検出位置において検出データが得られるようにセンサ部10を制御する。センサ部10の駆動部14は、タイミング制御部21の制御に従って、センサマトリクス11の複数の駆動電極を順番に選択し、パルス電圧を印加する。検出データ生成部13は、一の駆動電極が選択されて駆動される度に、センサマトリクス11の複数の検出電極を順番に選択して、駆動電極と検出電極との交差点における容量性センサ素子12の静電容量に応じた電圧信号を生成し、この電圧信号を所定ビット長の検出データに変換して処理部20に出力する。
ST100:
The timing control unit 21 of the processing unit 20 controls the sensor unit 10 so that detection data is obtained at a plurality of detection positions distributed over the entire operation surface. The driving unit 14 of the sensor unit 10 sequentially selects a plurality of driving electrodes of the sensor matrix 11 according to the control of the timing control unit 21 and applies a pulse voltage. The detection data generation unit 13 selects a plurality of detection electrodes in the sensor matrix 11 in order each time one drive electrode is selected and driven, and the capacitive sensor element 12 at the intersection of the drive electrode and the detection electrode. A voltage signal corresponding to the electrostatic capacity is generated, and the voltage signal is converted into detection data having a predetermined bit length and output to the processing unit 20.

ST105:
処理部20の2次元データ生成部22は、センサ部10から順次に出力される検出データを、記憶部30の所定の記憶領域(現在値メモリ)に行列形式の2次元データとして格納する。2次元データ生成部22は、現在値に格納した2次元データの各検出データと、記憶部30の別の記憶領域(基準値メモリ)に予め格納した2次元データの各検出データとの差を演算し、それらの演算結果を2次元データメモリ31に2次元データとして格納する。
ST105:
The two-dimensional data generation unit 22 of the processing unit 20 stores the detection data sequentially output from the sensor unit 10 in a predetermined storage area (current value memory) of the storage unit 30 as two-dimensional data in a matrix format. The two-dimensional data generation unit 22 calculates a difference between each detection data of the two-dimensional data stored in the current value and each detection data of the two-dimensional data stored in advance in another storage area (reference value memory) of the storage unit 30. The calculation results are stored in the two-dimensional data memory 31 as two-dimensional data.

ST110:
処理部20の領域特定部23は、2次元データメモリ31の各検出データを所定のしきい値と比較し、当該比較結果に応じた値を持つ2値化データに変換して、2次元データメモリ32に格納する。図4は、2次元データの2値化の例を示す図である。図4Aに示す2次元データにおいて、各検出データはそれぞれ0以上の数値を有している。図4Bに示す2値化後の2次元データにおいては、しきい値50を超える検出データが「1」(オンデータ)に変換され、しきい値50より小さい検出データが「0」(オフデータ)に変換されている。
このようにして2値化された2次元データが得られると、次に領域特定部23は、2値化後の2次元データに対して輪郭追跡及びラベリングを行う。図5は、2値化された2次元データに基づいて物体の接触・近接領域が特定される例を示す図である。図5Aは2値化された2次元データを示し、図5Bは物体の接触・近接領域が特定された状態を示す。領域特定部23は、輪郭追跡によって閉じた輪郭に含まれる領域をそれぞれ特定し、特定した領域ごとに固有のラベルを割り当てる。図5Bの例では、特定された3つの領域に「1」〜「3」の数値が割り当てられている。
ST110:
The region specifying unit 23 of the processing unit 20 compares each detection data in the two-dimensional data memory 31 with a predetermined threshold value, converts the detected data into binary data having a value corresponding to the comparison result, and converts the two-dimensional data Store in the memory 32. FIG. 4 is a diagram illustrating an example of binarization of two-dimensional data. In the two-dimensional data shown in FIG. 4A, each detection data has a numerical value of 0 or more. In the two-dimensional data after binarization shown in FIG. 4B, detection data exceeding the threshold 50 is converted to “1” (on data), and detection data smaller than the threshold 50 is “0” (off data). ).
When the binarized two-dimensional data is obtained in this way, the region specifying unit 23 next performs contour tracking and labeling on the binarized two-dimensional data. FIG. 5 is a diagram illustrating an example in which a contact / proximity region of an object is specified based on binarized two-dimensional data. FIG. 5A shows binarized two-dimensional data, and FIG. 5B shows a state where the contact / proximity region of the object is specified. The region specifying unit 23 specifies each region included in the closed contour by contour tracking, and assigns a unique label to each specified region. In the example of FIG. 5B, numerical values “1” to “3” are assigned to the three specified areas.

ST115:
ステップST110において1以上の物体の接触・近接位置が特定された場合、処理部20はステップST120に移行し、接触・近接位置が一つも特定されなかった場合は処理を終了する。
ST115:
When the contact / proximity position of one or more objects is identified in step ST110, the processing unit 20 proceeds to step ST120, and when no contact / proximity position is identified, the process ends.

ST120:
処理部20は、ステップST110において特定された領域が指先の接触若しくは近接によるものか否かを判定する指判定処理を行う。
ST120:
The processing unit 20 performs a finger determination process for determining whether or not the region identified in step ST110 is due to fingertip contact or proximity.

図6は、指判定処理を説明するためのフローチャートである。
処理部20の算出部24は、領域特定部24において特定された領域(図5B)を順に選択し(ST200)、選択した領域に含まれる検出データとその検出位置(図4A)とに基づいて、二次元正規分布の確率密度関数f(x,y)を規定する各パラメータ(σ ,σ ,σxy)を算出する(ST205)。更に算出部24は、それらのパラメータに基づいて、式(29)により表される第1評価値E1を算出する(ST210)。処理部20の判定部25は、算出部24で算出された第1評価値E1が所定の範囲内にあるか否か調べる(ST220)。判定部25は、第1評価値E1が所定の範囲内にある場合、領域特定部24において特定された当該領域が指先の接触若しくは近接によるものであると判定し(ST230)、第1評価値E1が所定の範囲内にない場合、当該領域が指先の接触若しくは近接によるものでないと判定する(ST235)。処理部20は、領域特定部24において特定された各領域について、ステップST205以降の処理を行い、各領域が指先によるものか否かを判定する。
FIG. 6 is a flowchart for explaining the finger determination process.
The calculation unit 24 of the processing unit 20 sequentially selects the regions (FIG. 5B) specified by the region specifying unit 24 (ST200), and based on the detection data included in the selected region and its detection position (FIG. 4A). Then, each parameter (σ x 2 , σ y 2 , σ xy ) defining the probability density function f (x, y) of the two-dimensional normal distribution is calculated (ST205). Furthermore, the calculation unit 24 calculates the first evaluation value E1 represented by the equation (29) based on these parameters (ST210). The determination unit 25 of the processing unit 20 checks whether or not the first evaluation value E1 calculated by the calculation unit 24 is within a predetermined range (ST220). When the first evaluation value E1 is within the predetermined range, the determination unit 25 determines that the region specified by the region specifying unit 24 is due to contact or proximity of the fingertip (ST230), and the first evaluation value If E1 is not within the predetermined range, it is determined that the area is not due to fingertip contact or proximity (ST235). The processing unit 20 performs the processes after step ST205 for each area specified by the area specifying unit 24, and determines whether each area is a fingertip.

以上説明したように、本実施形態に係る入力装置によれば、センサ部10の操作面に物体が接触若しくは近接した領域における検出データの二次元の分布が、二次元正規分布と仮定される。操作面に物体が接触若しくは近接した領域の輪郭は、この二次元正規分布を表す確率密度関数f(x,y)が一定値と等しい条件を満たす二次元平面上の点の集合である仮想的な楕円(式(16))に近似される。物体が接触若しくは近接した操作面上の領域が特定されると、当該特定された領域に含まれる検出データとその検出位置とに基づいて(式(5)〜(7))、この仮想的な楕円の長軸と短軸との比に応じた第1評価値E1(式(37))が算出される。第1評価値E1が所定の範囲内にあるか否かに応じて、この領域に接触若しくは近接した物体が指先であるか否かが判定される。
すなわち、物体の接触・近接領域に含まれる検出データとその検出位置の情報を用いて比較的簡易な計算(式(5)〜(7))により確率密度関数f(x,y)のパラメータ(σ ,σ ,σxy)を算出し、それらのパラメータに基づいて楕円の形状の特徴を表す第1評価値E1を簡単に算出できる。そのため、領域の輪郭線に近似する楕円方程式を導出する従来の方法に比べて、計算処理が単純となり、計算量を大幅に削減できる。
As described above, according to the input device according to the present embodiment, the two-dimensional distribution of detection data in a region where an object is in contact with or close to the operation surface of the sensor unit 10 is assumed to be a two-dimensional normal distribution. The contour of the region where the object is in contact with or close to the operation surface is a virtual set of points on a two-dimensional plane that satisfies the condition that the probability density function f (x, y) representing the two-dimensional normal distribution is equal to a constant value. Approximate ellipse (formula (16)). When the region on the operation surface that is in contact with or close to the object is specified, based on the detection data included in the specified region and its detection position (Equations (5) to (7)), this virtual A first evaluation value E1 (Expression (37)) corresponding to the ratio between the major axis and the minor axis of the ellipse is calculated. Depending on whether or not the first evaluation value E1 is within a predetermined range, it is determined whether or not the object in contact with or close to this area is the fingertip.
That is, the parameters of the probability density function f (x, y) by the relatively simple calculation (formulas (5) to (7)) using the detection data included in the contact / proximity region of the object and the information of the detection position ( σ x 2 , σ y 2 , σ xy ) are calculated, and the first evaluation value E1 representing the feature of the ellipse shape can be easily calculated based on these parameters. Therefore, the calculation process is simplified and the amount of calculation can be greatly reduced as compared with the conventional method for deriving an elliptic equation that approximates the outline of the region.

また、物体が接触若しくは近接した領域に含まれる検出データとその検出位置とに基づいて算出される第1評価値E1は、当該領域の輪郭線付近の情報のみに基づいて導出される楕円の方程式に比べて、楕円の形状の特徴を精度良く表すことができる。そのため、輪郭線に近似した楕円の方程式を導出する従来の方法に比べて、指先の判定精度を高めることができる。   Further, the first evaluation value E1 calculated based on the detection data included in the region in contact with or close to the object and the detection position is an elliptic equation derived based only on information near the outline of the region. Compared to, the feature of the ellipse shape can be expressed with high accuracy. Therefore, the fingertip determination accuracy can be improved as compared with the conventional method of deriving an elliptic equation approximate to the contour line.

なお、本発明は上述した実施形態にのみ限定されるものではなく、種々のバリエーションを含んでいる。   In addition, this invention is not limited only to embodiment mentioned above, Various modifications are included.

上述した実施形態では、センサ部10の操作面上の領域に接触・近接した物体が指先か否かの判定において、当該領域に近似する楕円の長軸と短軸との比に応じた評価値が用いられているが、本発明はこれに限定されない。本発明の他の実施形態では、楕円の長軸と短軸との比に応じた評価値に加えて、例えば楕円の面積に応じた評価値を指先の判定に用いてもよい。   In the embodiment described above, in determining whether an object that is in contact with or close to the region on the operation surface of the sensor unit 10 is a fingertip, the evaluation value according to the ratio between the major axis and the minor axis of an ellipse that approximates the region However, the present invention is not limited to this. In another embodiment of the present invention, in addition to the evaluation value according to the ratio between the major axis and the minor axis of the ellipse, for example, an evaluation value according to the area of the ellipse may be used for fingertip determination.

図7は、本発明の他の実施形態における指判定処理の例を説明するためのフローチャートである。図7に示すフローチャートは、既に説明した図6のフローチャートにステップST215,ST225を追加したものであり、他のステップは図6に示すフローチャートと同じである。図7において示す指判定処理において、算出部24は、既に説明した第1評価値E1に加えて、楕円の面積に応じた第2評価値E2を算出する(ST215)。この第2評価値E2は、変数xについての分散σ と変数yについての分散σ を用いて次式のように表される。 FIG. 7 is a flowchart for explaining an example of finger determination processing according to another embodiment of the present invention. The flowchart shown in FIG. 7 is obtained by adding steps ST215 and ST225 to the flowchart shown in FIG. 6, and the other steps are the same as those shown in FIG. In the finger determination process shown in FIG. 7, the calculation unit 24 calculates a second evaluation value E2 corresponding to the area of the ellipse in addition to the already described first evaluation value E1 (ST215). The second evaluation value E2 is expressed by the following equation using the variance σ x 2 for the variable x and the variance σ y 2 for the variable y.

判定部25は、第1評価値E1が所定の範囲内(第1の範囲内)にありかつ第2評価値E2が所定の範囲内(第2の範囲内)にある場合、センサ部10の操作面に接触若しくは近接した物体が指先であると判定し、第1評価値Eが所定の範囲内(第1の範囲内)にない又は第2評価値E2が所定の範囲内(第2の範囲内)にない場合、当該物体が指先でないと判定する(ST220〜ST235)。
例えば、楕円の長軸と短軸との比が指先の形状として許容できる値であっても、領域の面積が指先として許容できない程度に極端に大きい場合や極端に小さい場合、判定部25は、操作面に接触若しくは近接した物体が指先でないと判定する。
このように、楕円の形状に加えてその大きさ(接触・近接領域の面積)も加味することによって、指先の判定の精度を更に高めることができる。また、第1評価値E1の算出に用いられるものと同じパラメータ(σ ,σ )を第2評価値E2の算出にも用いることができるため、第2評価値E2の算出による計算量の増加を微小に抑えることができる。
When the first evaluation value E1 is within a predetermined range (within the first range) and the second evaluation value E2 is within the predetermined range (within the second range), the determination unit 25 determines whether the sensor unit 10 It is determined that the object in contact with or close to the operation surface is the fingertip, and the first evaluation value E is not within the predetermined range (first range) or the second evaluation value E2 is within the predetermined range (second If it is not within the range, it is determined that the object is not a fingertip (ST220 to ST235).
For example, even if the ratio of the major axis to the minor axis of the ellipse is a value that is acceptable as the shape of the fingertip, if the area of the region is extremely large or extremely small to an unacceptable level for the fingertip, It is determined that the object in contact with or close to the operation surface is not a fingertip.
Thus, by adding the size (area of the contact / proximity region) in addition to the shape of the ellipse, the accuracy of fingertip determination can be further increased. In addition, since the same parameters (σ x 2 , σ y 2 ) as those used for calculating the first evaluation value E1 can be used for calculating the second evaluation value E2, calculation by calculating the second evaluation value E2 is also possible. The increase in the amount can be suppressed to a minute.

10…センサ部、11…センサマトリクス、12…容量性センサ素子、13…検出データ生成部、14…駆動部、20…処理部、21…タイミング制御部、22…2次元データ生成部、23…領域特定部、24…算出部、25…判定部、26…座標演算部、30…記憶部、31,32…2次元データメモリ、33…領域情報メモリ、34…物体座標メモリ、40…インターフェース部、E1…第1評価値、E2…第2評価値。
DESCRIPTION OF SYMBOLS 10 ... Sensor part, 11 ... Sensor matrix, 12 ... Capacitive sensor element, 13 ... Detection data generation part, 14 ... Drive part, 20 ... Processing part, 21 ... Timing control part, 22 ... Two-dimensional data generation part, 23 ... Area specifying unit, 24 ... calculating unit, 25 ... determining unit, 26 ... coordinate calculating unit, 30 ... storage unit, 31, 32 ... two-dimensional data memory, 33 ... region information memory, 34 ... object coordinate memory, 40 ... interface unit , E1 ... first evaluation value, E2 ... second evaluation value.

Claims (8)

操作面への物体の接触若しくは近接に応じた情報を入力する入力装置であって、
前記操作面上に分布する複数の検出位置において物体の接触若しくは近接の度合をそれぞれ検出するセンサ部と、
前記センサ部の検出結果に基づいて、前記操作面上の複数の位置における物体の接触若しくは近接の度合を示す複数の検出データを含んだ2次元データを生成する2次元データ生成部と、
前記2次元データに基づいて、物体が接触若しくは近接した前記操作面上の領域を特定する領域特定部と、
前記領域特定部によって特定された領域に対応する仮想的な楕円の長軸と短軸との比に応じた第1評価値を算出する算出部と、
前記第1評価値が第1の範囲内にある場合、前記操作面に接触若しくは近接した物体が指先であると判定し、前記第1評価値が前記第1の範囲内にない場合、当該物体が指先でないと判定する判定部とを有し、
前記仮想的な楕円は、前記領域特定部により特定された領域における前記検出データの二次元の分布を二次元正規分布と仮定した場合において、前記二次元正規分布を表す確率密度関数が一定値と等しい条件を満たす二次元平面上の点の集合であり、
前記算出部は、前記特定された領域に含まれる前記検出データとその検出位置とに基づいて前記第1評価値を算出する
ことを特徴とする入力装置。
An input device for inputting information according to contact or proximity of an object to an operation surface,
A sensor unit for detecting the degree of contact or proximity of an object at a plurality of detection positions distributed on the operation surface;
A two-dimensional data generation unit that generates two-dimensional data including a plurality of detection data indicating the degree of contact or proximity of an object at a plurality of positions on the operation surface based on the detection result of the sensor unit;
Based on the two-dimensional data, an area specifying unit that specifies an area on the operation surface that is in contact with or close to an object;
A calculation unit that calculates a first evaluation value according to a ratio between a major axis and a minor axis of a virtual ellipse corresponding to the region identified by the region identifying unit;
When the first evaluation value is within the first range, it is determined that the object that is in contact with or close to the operation surface is a fingertip, and when the first evaluation value is not within the first range, the object And a determination unit that determines that is not a fingertip,
When the virtual ellipse is assumed that the two-dimensional distribution of the detection data in the region specified by the region specifying unit is a two-dimensional normal distribution, the probability density function representing the two-dimensional normal distribution is a constant value. A set of points on a two-dimensional plane that satisfy the same condition,
The input unit, wherein the calculation unit calculates the first evaluation value based on the detection data included in the specified region and its detection position.
前記算出部は、前記確率密度関数における所定のパラメータを、前記特定された領域に含まれる前記検出データに基づいて算出し、当該算出したパラメータに基づいて前記第1評価値を算出する
ことを特徴とする請求項1に記載の入力装置。
The calculation unit calculates a predetermined parameter in the probability density function based on the detection data included in the specified region, and calculates the first evaluation value based on the calculated parameter. The input device according to claim 1.
前記検出データの検出位置は、前記操作面上に設定された直交座標系における第1座標軸の座標値及び第2座標軸の座標値によって指定されており、
前記算出部は、前記第1座標軸の座標値を前記確率密度関数の第1確率変数とし、前記第2座標軸の座標値を前記確率密度関数の第2確率変数とし、前記確率密度関数が前記検出データに応じた値を持つ場合において、前記第1確率変数についての分散に応じた第1パラメータ、前記第2確率変数についての分散に応じた第2パラメータ、及び、前記第1確率変数及び前記第2確率変数についての共分散に応じた第3パラメータを算出し、当該算出した第1パラメータ、第2パラメータ及び第3パラメータに基づいて前記第1評価値を算出する
ことを特徴とする請求項2に記載の入力装置。
The detection position of the detection data is specified by the coordinate value of the first coordinate axis and the coordinate value of the second coordinate axis in the orthogonal coordinate system set on the operation surface,
The calculation unit uses the coordinate value of the first coordinate axis as a first random variable of the probability density function, the coordinate value of the second coordinate axis as a second random variable of the probability density function, and the probability density function detects the detection In the case of having a value according to the data, the first parameter according to the variance for the first random variable, the second parameter according to the variance for the second random variable, and the first random variable and the first The third parameter according to the covariance for two random variables is calculated, and the first evaluation value is calculated based on the calculated first parameter, second parameter, and third parameter. The input device described in 1.
前記算出部は、前記第1パラメータと前記第2パラメータとの差を二乗した値と前記第3パラメータの4倍の値とを加算した値が、前記第1パラメータと前記第2パラメータとの和を二乗した値で除されることにより得られる数値に応じた前記第1評価値を取得する
ことを特徴とする請求項3に記載の入力装置。
The calculation unit adds a value obtained by squaring a difference between the first parameter and the second parameter and a value that is four times the third parameter to obtain a sum of the first parameter and the second parameter. The input device according to claim 3, wherein the first evaluation value corresponding to a numerical value obtained by dividing by a squared value is acquired.
前記算出部は、前記仮想的な楕円の面積に応じた第2評価値を前記第1パラメータ及び前記第2パラメータに基づいて算出し、
前記判定部は、前記第1評価値が前記第1の範囲内にありかつ前記第2評価値が第2の範囲内にある場合、前記操作面に接触若しくは近接した物体が指先であると判定し、前記第1評価値が前記第1の範囲内にない又は前記第2評価値が第2の範囲内にない場合、当該物体が指先でないと判定する
ことを特徴とする請求項3又は4に記載の入力装置。
The calculation unit calculates a second evaluation value corresponding to the area of the virtual ellipse based on the first parameter and the second parameter;
The determination unit determines that an object that is in contact with or close to the operation surface is a fingertip when the first evaluation value is within the first range and the second evaluation value is within the second range. When the first evaluation value is not within the first range or the second evaluation value is not within the second range, it is determined that the object is not a fingertip. The input device described in 1.
前記算出部は、前記第1パラメータと前記第2パラメータとの和に応じた前記第2評価値を算出する
ことを特徴とする請求項5に記載の入力装置。
The input device according to claim 5, wherein the calculation unit calculates the second evaluation value according to a sum of the first parameter and the second parameter.
操作面上に分布する複数の検出位置において物体の接触若しくは近接の度合をそれぞれ検出するセンサの検出結果を入力したコンピュータが、当該検出結果に基づいて、当該物体が指先であるか否かを判定する指判定方法であって、
前記センサの検出結果に基づいて、前記操作面上の複数の位置における物体の接触若しくは近接の度合を示す複数の検出データを含んだ2次元データを生成するステップと、
前記2次元データに基づいて、物体が接触若しくは近接した前記操作面上の領域を特定するステップと、
前記特定された領域に対応する仮想的な楕円の長軸と短軸との比に応じた第1評価値を算出するステップと、
前記第1評価値が第1の範囲内にある場合、前記操作面に接触若しくは近接した物体が指先であると判定し、前記第1評価値が前記第1の範囲内にない場合、当該物体が指先でないと判定するステップと
を有し、
前記仮想的な楕円は、前記領域を特定するステップで特定された領域における前記検出データの二次元の分布を二次元正規分布と仮定した場合において、前記二次元正規分布を表す確率密度関数が一定値と等しい条件を満たす二次元平面上の点の集合であり、
前記第1評価値を算出するステップにおいては、前記特定された領域に含まれる前記検出データとその検出位置とに基づいて前記第1評価値を算出する
ことを特徴とする指判定方法。
A computer that has input detection results of sensors that detect the degree of contact or proximity of an object at a plurality of detection positions distributed on the operation surface determines whether the object is a fingertip based on the detection result. A finger determination method for
Generating two-dimensional data including a plurality of detection data indicating the degree of contact or proximity of an object at a plurality of positions on the operation surface based on a detection result of the sensor;
Identifying a region on the operation surface in contact with or close to an object based on the two-dimensional data;
Calculating a first evaluation value according to a ratio between a major axis and a minor axis of a virtual ellipse corresponding to the identified region;
When the first evaluation value is within the first range, it is determined that the object that is in contact with or close to the operation surface is a fingertip, and when the first evaluation value is not within the first range, the object Determining that is not a fingertip,
The virtual ellipse has a constant probability density function representing the two-dimensional normal distribution when the two-dimensional distribution of the detection data in the region specified in the step of specifying the region is assumed to be a two-dimensional normal distribution. A set of points on a two-dimensional plane that satisfy a condition equal to a value,
In the step of calculating the first evaluation value, the first evaluation value is calculated based on the detection data included in the specified region and its detection position.
請求項7に記載の指判定方法における各ステップをコンピュータにおいて実行させるためのプログラム。
A program for causing a computer to execute each step in the finger determination method according to claim 7.
JP2014154241A 2014-07-29 2014-07-29 Input device, finger determination method, and program Active JP6224543B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014154241A JP6224543B2 (en) 2014-07-29 2014-07-29 Input device, finger determination method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014154241A JP6224543B2 (en) 2014-07-29 2014-07-29 Input device, finger determination method, and program

Publications (2)

Publication Number Publication Date
JP2016031672A true JP2016031672A (en) 2016-03-07
JP6224543B2 JP6224543B2 (en) 2017-11-01

Family

ID=55442007

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014154241A Active JP6224543B2 (en) 2014-07-29 2014-07-29 Input device, finger determination method, and program

Country Status (1)

Country Link
JP (1) JP6224543B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019515372A (en) * 2016-03-31 2019-06-06 シナプティクス インコーポレイテッド Combination of transformer capacity data and absolute capacity data for touch force estimation
CN111311593A (en) * 2020-03-14 2020-06-19 深圳市维森软件股份有限公司 Multi-ellipse detection and evaluation algorithm, device, terminal and readable storage medium based on image gradient information

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030185421A1 (en) * 2002-03-28 2003-10-02 Kabushiki Kaisha Toshiba Image processing apparatus and method
JP2011513873A (en) * 2008-03-12 2011-04-28 エーティーラブ・インコーポレーテッド Contact sensor device and pointing coordinate determination method for the device
JP2013045446A (en) * 2011-08-21 2013-03-04 Tpk Touch Solutions (Xiamen) Inc Touch sensing method and device using the same
JP2013137613A (en) * 2011-12-28 2013-07-11 Nintendo Co Ltd Information processing program, information processing apparatus, information processing system, and information processing method
JP2014109888A (en) * 2012-11-30 2014-06-12 Kddi Corp Input device and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030185421A1 (en) * 2002-03-28 2003-10-02 Kabushiki Kaisha Toshiba Image processing apparatus and method
JP2011513873A (en) * 2008-03-12 2011-04-28 エーティーラブ・インコーポレーテッド Contact sensor device and pointing coordinate determination method for the device
JP2013045446A (en) * 2011-08-21 2013-03-04 Tpk Touch Solutions (Xiamen) Inc Touch sensing method and device using the same
JP2013137613A (en) * 2011-12-28 2013-07-11 Nintendo Co Ltd Information processing program, information processing apparatus, information processing system, and information processing method
JP2014109888A (en) * 2012-11-30 2014-06-12 Kddi Corp Input device and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019515372A (en) * 2016-03-31 2019-06-06 シナプティクス インコーポレイテッド Combination of transformer capacity data and absolute capacity data for touch force estimation
JP7112961B2 (en) 2016-03-31 2022-08-04 シナプティクス インコーポレイテッド Combining Transformer Capacitance Data and Absolute Capacitance Data for Touch Force Estimation
CN111311593A (en) * 2020-03-14 2020-06-19 深圳市维森软件股份有限公司 Multi-ellipse detection and evaluation algorithm, device, terminal and readable storage medium based on image gradient information
CN111311593B (en) * 2020-03-14 2023-05-26 深圳市维森软件股份有限公司 Multi-ellipse detection and evaluation algorithm, device and terminal

Also Published As

Publication number Publication date
JP6224543B2 (en) 2017-11-01

Similar Documents

Publication Publication Date Title
KR20190054100A (en) A system for detecting and characterizing inputs on a touch sensor
US20110291944A1 (en) Systems and methods for improved touch screen response
TWI454979B (en) Method of distinguishing a plurality of objects on a touch panel and computer readable medium
KR101378237B1 (en) Touch panel
EP2570897A2 (en) Edge grip detection method of a touch panel and a device using the same
US10203804B2 (en) Input device, and control method and program therefor
CN104364743A (en) Operation device
JP6278889B2 (en) INPUT DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6224543B2 (en) Input device, finger determination method, and program
EP3115874B1 (en) Input device, method for controlling them and program, that adapt the filtering process according to the number of touches
EP3136207B1 (en) Input device, method of controlling the same, and program
JP6255321B2 (en) Information processing apparatus, fingertip operation identification method and program
JP6100144B2 (en) Input device and information input method thereof
JP6705052B2 (en) Input device, control method thereof, and program
JP6061426B2 (en) Input device and information input method thereof
JP6219264B2 (en) INPUT DEVICE, ITS CONTROL METHOD, AND PROGRAM
WO2012162200A2 (en) Identifying contacts and contact attributes in touch sensor data using spatial and temporal features
US10599257B2 (en) Touch screen device having improved floating mode entry conditions
JP6704754B2 (en) Judgment device and judgment method
JP2012238210A (en) Input device
JP6278888B2 (en) INPUT DEVICE, ITS CONTROL METHOD, AND PROGRAM
JP6219260B2 (en) INPUT DEVICE, ITS CONTROL METHOD, AND PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170928

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171005

R150 Certificate of patent or registration of utility model

Ref document number: 6224543

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350