JP2012038289A - Touch panel device - Google Patents

Touch panel device Download PDF

Info

Publication number
JP2012038289A
JP2012038289A JP2010285453A JP2010285453A JP2012038289A JP 2012038289 A JP2012038289 A JP 2012038289A JP 2010285453 A JP2010285453 A JP 2010285453A JP 2010285453 A JP2010285453 A JP 2010285453A JP 2012038289 A JP2012038289 A JP 2012038289A
Authority
JP
Japan
Prior art keywords
operator
touch panel
panel device
component
operation input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010285453A
Other languages
Japanese (ja)
Other versions
JP5652711B2 (en
Inventor
Mayumi Nakamura
真弓 中村
Masatake Harashima
正豪 原島
Masahito Takada
将人 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2010285453A priority Critical patent/JP5652711B2/en
Publication of JP2012038289A publication Critical patent/JP2012038289A/en
Application granted granted Critical
Publication of JP5652711B2 publication Critical patent/JP5652711B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a touch panel device with which the position of operation articles can be easily grasped by an operator having inconvenience at seeing and the power saving can be achieved.SOLUTION: When the operation position is in the vicinity of a GUI part (YES in S4) and the pressure degree is below the predetermined threshold value (YES in S5), a main control device estimates that an operator did not recognize the position of the GUI part and makes a stationary wave pattern (S11B), so that a stationary wave in which the bulge exists in the center of the GUI part and sections exit in the border of the GUI part is generated on the surface substrate.

Description

本発明は、画像表示部に操作部品を表示し、操作入力パネルから入力される操作入力を受け付けるタッチパネル装置に関するものである。   The present invention relates to a touch panel device that displays an operation component on an image display unit and receives an operation input input from an operation input panel.

携帯電話や音楽プレーヤーなどの端末装置の表示画面には、タッチパネルを用いた入力装置(以下、タッチパネル装置という)が広く使用されている。一般的なタッチパネル装置は、画像表示部たる液晶画面などの表示画面に操作入力パネルを重ね合わせて用いられる。このようなタッチパネル装置では、表示画面にボタンなどの操作部品を表示し、操作部品の表示位置に対応した操作入力パネル上の位置を操作体である指でタッチして操作部品の操作を行う。ボタンなどの操作部品としては、GUI(Graphical User Interface)部品が挙げられる。このようなタッチパネル装置は、メカニカルなボタンやスライダーやダイヤルなどのインターフェース部品が配置された操作パネルとは異なり、操作部品のレイアウトがソフトウェアにより自由に変更ができるため利便性が高く、今後も更に需要が増して来ることが予想される。   An input device using a touch panel (hereinafter referred to as a touch panel device) is widely used for a display screen of a terminal device such as a mobile phone or a music player. A general touch panel device is used by superimposing an operation input panel on a display screen such as a liquid crystal screen as an image display unit. In such a touch panel device, an operation component such as a button is displayed on the display screen, and a position on the operation input panel corresponding to the display position of the operation component is touched with a finger as an operation body to operate the operation component. Examples of operation parts such as buttons include GUI (Graphical User Interface) parts. Unlike touch panels with mechanical buttons, sliders, dials, and other interface parts, these touch panel devices are highly convenient because the layout of the control parts can be freely changed by software. Is expected to increase.

特許文献1、2には、操作者が操作部品を操作したときに、ストローク感やクリック感を操作者に提供するタッチパネル装置が記載されている。具体的には、操作入力パネルを押圧した時点からその押圧が確定されるまでの間、所定の振幅の信号波形に従って操作入力パネルを変位させることによって、操作者にストローク感やクリック感を提供している。   Patent Documents 1 and 2 describe a touch panel device that provides an operator with a feeling of stroke and a feeling of clicking when an operator operates an operation component. Specifically, the operation input panel is displaced according to a signal waveform having a predetermined amplitude from the time when the operation input panel is pressed until the press is confirmed, thereby providing the operator with a feeling of stroke or clicking. ing.

しかしながら、上記特許文献1、2のタッチパネル装置においては、操作者が、操作部品を操作した操作感を提供することはできるが、操作入力パネルを押圧した時点から振動が発生するため、操作者が操作入力パネルの表面を軽く触れた段階で操作部品を認識することができなかった。このため、視覚の不自由な操作者が、操作部品の位置を把握することが困難であるという課題があった。   However, in the touch panel devices disclosed in Patent Documents 1 and 2, although the operator can provide an operational feeling when operating the operation component, vibration is generated from the time when the operation input panel is pressed. The operation parts could not be recognized when the surface of the operation input panel was lightly touched. For this reason, there is a problem that it is difficult for an visually handicapped operator to grasp the position of the operation component.

本出願人は、特願2009−060259号(以下、先願という)において、操作者が操作入力パネル表面を触れただけで、操作部品の位置関係を把握することのできるタッチパネル装置を提案した。具体的には、操作入力パネルの操作部品の位置に対応する箇所が腹となるような定在波(定常波)を操作入力パネルに発生させるのである。これにより、操作入力パネルの操作部品に対応する箇所に触れたとき、指先に振動を感じ、その位置に操作部品があることを認識することができる。このように、触覚だけで、操作部品の位置を把握することができるので、視覚の不自由な操作者でも、容易に操作部品の位置を把握することができる。   In Japanese Patent Application No. 2009-060259 (hereinafter referred to as a prior application), the present applicant has proposed a touch panel device that allows the operator to grasp the positional relationship of the operation components simply by touching the surface of the operation input panel. Specifically, a standing wave (standing wave) is generated in the operation input panel so that a portion corresponding to the position of the operation component on the operation input panel becomes an antinode. Thereby, when the part corresponding to the operation component of the operation input panel is touched, it is possible to feel the vibration at the fingertip and recognize that the operation component exists at that position. Thus, since the position of the operation component can be grasped only by tactile sense, even the visually impaired operator can easily grasp the position of the operation component.

しかしながら、先願のタッチパネル装置においては、常に操作入力パネルに定在波を発生させていたため、定在波を発生させるための電力が常に必要となり、多くの消費電力が必要となるという課題があった。特に、携帯機器など、電池で駆動する装置に上記先願のタッチパネル装置を採用した場合、電池の電力が早期になくなり、装置の使用時間が短縮されることになるという課題があった。   However, the touch panel device of the prior application always generates a standing wave on the operation input panel, so that there is a problem that power for generating the standing wave is always required and much power consumption is required. It was. In particular, when the above-mentioned touch panel device is adopted as a battery-driven device such as a portable device, there is a problem that the power of the battery is lost early and the usage time of the device is shortened.

本発明は以上の課題に鑑みなされたものであり、その目的は、視覚の不自由な操作者に対して容易に操作部品の位置を把握させることができ、かつ、省電力化を実現することができるタッチパネル装置を提供することである。   The present invention has been made in view of the above problems, and the object thereof is to make it possible for a visually-impaired operator to easily grasp the position of an operation component and to realize power saving. It is providing the touch panel device which can do.

上記目的を達成するために、請求項1の発明は、自身の表面に操作体が接することで操作入力を受け付ける操作入力パネルと、前記操作入力パネルに対向して設けられ画像を表示する画像表示部と、前記画像表示部に画像として表示させる操作部品を生成する操作部品生成部と、を備え、前記画像表示部に表示された前記操作部品の位置に対応した前記操作入力パネル上の位置に前記操作体を接触させて、前記操作体により前記操作部品を操作するタッチパネル装置において、前記画像表示部に表示された前記操作部品の位置に対応した前記操作入力パネルの箇所に、前記操作部品が触覚的に認識できるような振動を前記操作入力パネルに発生させる振動発生手段と、前記操作部品の位置に対する操作者の認識状態を推定する推定手段と、前記推定手段が推定した操作者の認識状態に基づいて、前記振動発生手段を制御する制御手段とを備えたことを特徴とするものである。
また、請求項2の発明は、請求項1のタッチパネル装置において、前記制御手段は、前記推定手段が、操作者が操作部品を認識していると推定した場合は、前記振動発生手段の駆動を停止するよう制御することを特徴とするものである。
また、請求項3の発明は、請求項1または2のタッチパネル装置において、前記制御手段は、前記推定手段が、操作者が操作部品を少し認識していると推定したときの前記操作部品の位置に対応した前記操作入力パネルの箇所に発生させる振動の振幅を、前記推定手段が、操作者が操作部品を全く認識していないと推定したときの前記操作部品の位置に対応した前記操作入力パネルの箇所に発生させる振動の振幅よりも小さくなるよう振動発生手段を制御することを特徴とするものである。
また、請求項4の発明は、請求項1乃至3いずれかのタッチパネル装置において、前記推定手段は、前記操作体の前記操作入力パネルとの接触状態に基づいて、前記操作部品の位置に対する前記操作者の認識状態を推定することを特徴とするものである。
また、請求項5の発明は、請求項4のタッチパネル装置において、前記操作体の前記操作入力パネルとの接触状態として、前記操作体の前記操作入力パネル面への押圧度合いを用いたことを特徴とするものである。
また、請求項6の発明は、請求項4のタッチパネル装置において、前記操作体の前記操作入力パネルとの接触状態として、前記操作体の移動速度を用いたことを特徴とするものである。
また、請求項7の発明は、請求項4のタッチパネル装置において、前記操作体の前記操作入力パネルとの接触状態として、前記操作体の移動加速度を用いたことを特徴とするものである。
また、請求項8の発明は、請求項1乃至7いずれかののタッチパネル装置において、前記操作者が装置を操作しているときの操作者の顔を撮像する撮像手段を備え、前記推定手段は、前記撮像手段が撮像した顔画像に基づいて、前記操作部品の位置に対する前記操作者の認識状態を推定することを特徴とするものである。
In order to achieve the above object, an invention according to claim 1 is directed to an operation input panel that receives an operation input when an operating body is in contact with its surface, and an image display that is provided opposite to the operation input panel and displays an image. And an operation component generation unit that generates an operation component to be displayed as an image on the image display unit, and a position on the operation input panel corresponding to the position of the operation component displayed on the image display unit. In the touch panel device in which the operation body is brought into contact and the operation part is operated by the operation body, the operation part is located at a position of the operation input panel corresponding to the position of the operation part displayed on the image display unit. Vibration generating means for generating vibration that can be recognized tactilely in the operation input panel; estimation means for estimating a recognition state of the operator with respect to the position of the operation component; Based on the recognition state estimation means has estimated the operator, is characterized in that a control means for controlling said vibration generating means.
According to a second aspect of the present invention, in the touch panel device according to the first aspect, the control means drives the vibration generating means when the estimation means estimates that the operator recognizes the operation component. It is characterized by controlling to stop.
According to a third aspect of the present invention, in the touch panel device according to the first or second aspect, the control unit determines the position of the operation component when the estimation unit estimates that the operator recognizes the operation component a little. The operation input panel corresponding to the position of the operation component when the estimation means estimates that the vibration amplitude generated at the position of the operation input panel corresponding to the operator is not recognized at all by the operator The vibration generating means is controlled so as to be smaller than the amplitude of the vibration generated at this point.
According to a fourth aspect of the present invention, in the touch panel device according to any one of the first to third aspects, the estimation means performs the operation on the position of the operation component based on a contact state of the operation body with the operation input panel. The recognition state of the person is estimated.
The invention according to claim 5 is the touch panel device according to claim 4, wherein the degree of pressing of the operation body on the operation input panel surface is used as the contact state of the operation body with the operation input panel. It is what.
According to a sixth aspect of the present invention, in the touch panel device according to the fourth aspect, the moving speed of the operating body is used as the contact state of the operating body with the operation input panel.
According to a seventh aspect of the present invention, in the touch panel device according to the fourth aspect, the movement acceleration of the operating body is used as a contact state of the operating body with the operation input panel.
The invention according to claim 8 is the touch panel device according to any one of claims 1 to 7, further comprising imaging means for imaging the face of the operator when the operator is operating the apparatus. The recognition state of the operator with respect to the position of the operation component is estimated based on the face image captured by the imaging unit.

本発明によれば、操作部品の位置に対する操作者の認識状態を推定する推定手段に基づいて、次のように振動発生手段を制御すれば、視覚の不自由な操作者に対して容易に操作部品の位置を把握させることができ、かつ、省電力化を実現することができる。すなわち、推定手段が、操作者が操作部品の位置を正しく認識していると推定した場合は、振動発生手段の駆動を停止して振動を発生させず、推定手段が、操作者が操作部品の位置を正しく認識していないと推定した場合は、振動発生手段を駆動して操作部品の位置に対応した操作入力パネルの箇所に振動を発生させるよう制御するのである。これにより、視覚の不自由な人など画像表示部に表示された操作部品の位置を正しく認識できない操作者のときは、操作部品の位置に対応した操作入力パネルの位置に振動が生じているため、操作者が操作入力パネルを触れれば、振動で操作部品の位置を把握することができる。よって、視覚の不自由な操作者に対して容易に操作部品の位置を把握させることができる。また、画像表示部に表示された操作部品の位置を正しく認識できている人に対しては、上記のような振動を発生させて、触覚的に操作部品を認識させなくても、操作部品を正しく操作することができる。よって、振動発生手段の駆動を停止する。その結果、消費電力を抑えることができ、省電力化を実現することができる。   According to the present invention, if the vibration generating means is controlled as follows based on the estimating means for estimating the operator's recognition state with respect to the position of the operating component, the operation can be easily performed for the visually handicapped operator. The position of the component can be grasped, and power saving can be realized. That is, when the estimation unit estimates that the operator correctly recognizes the position of the operation component, the drive of the vibration generation unit is stopped and no vibration is generated. When it is estimated that the position is not recognized correctly, the vibration generating means is driven to control to generate vibration at the position of the operation input panel corresponding to the position of the operation component. As a result, when an operator who cannot correctly recognize the position of the operation component displayed on the image display unit, such as a visually impaired person, vibration is generated at the position of the operation input panel corresponding to the position of the operation component. If the operator touches the operation input panel, the position of the operation component can be grasped by vibration. Therefore, the position of the operation component can be easily grasped by the visually impaired operator. In addition, for a person who can correctly recognize the position of the operation component displayed on the image display unit, the operation component is generated without causing the operation component to be recognized tactilely by generating vibration as described above. It can be operated correctly. Therefore, the drive of the vibration generating means is stopped. As a result, power consumption can be suppressed and power saving can be realized.

本実施形態のタッチパネル装置の断面構造を示す図。The figure which shows the cross-section of the touchscreen apparatus of this embodiment. 同タッチパネル装置の表面基板を通じて表示されるGUI部品と、表面基板に生成される定在波の振幅のピーク値との位置関係を示す図。The figure which shows the positional relationship of the GUI component displayed through the surface substrate of the touch panel apparatus, and the peak value of the amplitude of the standing wave produced | generated on a surface substrate. 同タッチパネル装置の液晶パネルの表示の一例を示す図。The figure which shows an example of the display of the liquid crystal panel of the touch panel device. 同タッチパネル装置の主制御装置に含まれる一部の回路構成を示すブロック図。The block diagram which shows the one part circuit structure contained in the main controller of the touch panel device. 図4に示される状態判定回路の回路構成を示すブロック図。The block diagram which shows the circuit structure of the state determination circuit shown by FIG. GUI部品の認識状態による操作者の指の動きの違いについて説明する図。The figure explaining the difference in an operator's finger | toe movement by the recognition state of GUI components. 指が表面基板の表面をなぞりながら移動させたときの操作位置の変化の一例について示す図。The figure shown about an example of the change of the operation position when a finger | toe is moved, tracing the surface of a surface board. 同タッチパネル装置の主制御装置によって実行される駆動パターンの生成処理の手順を示すフローチャート。The flowchart which shows the procedure of the production | generation process of the drive pattern performed by the main controller of the touch panel device. 変形例のタッチパネル装置の断面構造を示す図。The figure which shows the cross-section of the touchscreen apparatus of a modification.

以下、本発明のタッチパネル装置を適用した実施形態について説明する。図1は、本実施形態のタッチパネル装置100の断面構造を示す図である。   Hereinafter, embodiments to which the touch panel device of the present invention is applied will be described. FIG. 1 is a diagram illustrating a cross-sectional structure of a touch panel device 100 according to the present embodiment.

本実施形態のタッチパネル装置100は、基板1、液晶パネル2、操作入力パネル17、圧電駆動装置5A、5B、接触センサ処理回路6、画像表示回路7、駆動制御回路8、主制御装置9、及びメモリ10などを備えている。操作入力パネル17は、接触センサ3と表面基板4とで構成される。   The touch panel device 100 of this embodiment includes a substrate 1, a liquid crystal panel 2, an operation input panel 17, piezoelectric drive devices 5A and 5B, a contact sensor processing circuit 6, an image display circuit 7, a drive control circuit 8, a main control device 9, and A memory 10 is provided. The operation input panel 17 includes the contact sensor 3 and the surface substrate 4.

基板1は、液晶パネル2、操作入力パネル17、及び圧電駆動装置5A、5Bを搭載するための基板であり、例えば、ガラスエポキシ基板やガラスコンポジット基板で構成されるプリント基板(PCB:Printed Circuit Board)を用いることができる。   The substrate 1 is a substrate on which the liquid crystal panel 2, the operation input panel 17, and the piezoelectric driving devices 5A and 5B are mounted. For example, a printed circuit board (PCB: Printed Circuit Board) composed of a glass epoxy substrate or a glass composite substrate. ) Can be used.

画像表示部たる液晶パネル2は、基板1に搭載され、画像表示回路7によって生成されるGUI部品を表示する表示部である。なお、この表示部は、GUI部品を表示できればよいため、液晶パネル2に限られるものではない。例えば、液晶パネル2の代わりに、有機EL(Electro−Luminescence)パネルを用いてもよい。   The liquid crystal panel 2 serving as an image display unit is a display unit that is mounted on the substrate 1 and displays GUI components generated by the image display circuit 7. The display unit is not limited to the liquid crystal panel 2 as long as it can display GUI parts. For example, an organic EL (Electro-Luminescence) panel may be used instead of the liquid crystal panel 2.

接触センサ3は、液晶パネル2の上に搭載され、操作者が押圧した位置の座標を検出する座標検出装置である。実施形態では、接触センサ3として抵抗膜方式のセンサを用いる形態について説明するが、接触センサ3としては、抵抗膜方式のセンサに限られるものではなく、例えば、感圧式のセンサ、静電容量方式のセンサ、音響波照合方式のセンサなど公知のセンサを用いることができる。   The contact sensor 3 is a coordinate detection device that is mounted on the liquid crystal panel 2 and detects the coordinates of the position pressed by the operator. In the embodiment, an embodiment using a resistive film type sensor as the contact sensor 3 will be described. However, the contact sensor 3 is not limited to a resistive film type sensor, and may be, for example, a pressure-sensitive sensor or a capacitance type sensor. Well-known sensors such as the above-mentioned sensors and acoustic wave matching type sensors can be used.

抵抗膜方式のセンサは、複数の透明電極が一定間隔でマトリクス状に対向配置された電極シートを有している。操作者が表面基板4の表面を操作体たる指先で押圧すると、対向する電極同士が接触して導通し、その接触位置によって電極シートのX方向及びY方向の抵抗値が変化する。この抵抗値の変化により、抵抗膜方式のセンサから出力されるX方向及びY方向に対応する電圧値が変化する。この電圧値の変化により、押圧された操作位置の座標が特定される。   The resistive film type sensor has an electrode sheet in which a plurality of transparent electrodes are arranged to face each other in a matrix at regular intervals. When the operator presses the surface of the surface substrate 4 with a fingertip that is an operating body, the opposing electrodes come into contact with each other, and the resistance values in the X and Y directions of the electrode sheet change depending on the contact position. Due to the change in the resistance value, the voltage value corresponding to the X direction and the Y direction output from the resistive film type sensor changes. By this change in voltage value, the coordinates of the pressed operation position are specified.

表面基板4は、タッチパネル装置100の操作入力部となる透明基板であり、上述のように操作者が表面基板4の表面を押圧すると接触センサ3で操作位置の座標が検出される。このため、表面基板4の表面は、実施形態のタッチパネル装置100を操作するための座標入力面となる。この表面基板4としては、例えば、アクリル製あるいはポリカーボネート製の樹脂基板、又はガラス基板を用いることができる。   The front substrate 4 is a transparent substrate serving as an operation input unit of the touch panel device 100. When the operator presses the surface of the front substrate 4 as described above, the coordinates of the operation position are detected by the contact sensor 3. For this reason, the surface of the surface substrate 4 becomes a coordinate input surface for operating the touch panel device 100 of the embodiment. As the surface substrate 4, for example, an acrylic or polycarbonate resin substrate or a glass substrate can be used.

振動発生手段たる圧電駆動装置5A、5Bは、積層された複数の薄板状の圧電素子を電極板で挟んで樹脂製の筐体に収納したパッケージ型の駆動素子である。圧電駆動装置5A、5Bは、図1に示すように、基板1と表面基板4との間に挟まれた状態で、液晶パネル2及び接触センサ3の両側に対をなすように、一つずつ配設される。圧電駆動装置5A、5Bは、実際には、基板1及び表面基板4の紙面を貫く方向の辺と略同じ長さを有する細長い駆動素子である。圧電駆動装置5A、5Bは、電圧が印加されると、積層方向に歪んで変位し、表面基板4に振動を生成する。   The piezoelectric drive devices 5A and 5B as vibration generating means are package type drive elements in which a plurality of laminated thin plate-like piezoelectric elements are sandwiched between electrode plates and housed in a resin casing. As shown in FIG. 1, the piezoelectric driving devices 5A and 5B are sandwiched between the substrate 1 and the surface substrate 4 so as to be paired on both sides of the liquid crystal panel 2 and the contact sensor 3 one by one. Arranged. The piezoelectric driving devices 5A and 5B are actually elongate driving elements having substantially the same length as the sides of the substrate 1 and the front substrate 4 passing through the paper surface. When a voltage is applied, the piezoelectric driving devices 5 </ b> A and 5 </ b> B are distorted and displaced in the stacking direction, and generate vibration on the surface substrate 4.

接触センサ処理回路6は、接触センサ3から出力される操作位置の座標を表す電圧値に信号処理を行う回路である。この信号処理により、操作位置の座標を表す電圧値は、増幅、ノイズ除去、及びデジタル変換が行われ、デジタル電圧値として出力される。このように信号処理を行うため、接触センサ3から出力される電圧値が微小であっても、操作位置を正確に検出することができる。また、上述のように複数の透明電極をマトリクス状に配列した抵抗膜方式の接触センサ3を用いている場合には、押圧によって接触が生じた電極の数から接触面積を求めることができる。また、接触面の中心位置を算出して操作位置(接触位置)を正確に導出できる。さらに、接触センサ処理回路6は、操作位置や接触面積の時間変化量を検出することもできる。また、接触センサ3及び接触センサ処理回路6は、座標入力面上でなされた操作入力の押圧度合を検出する押圧度合検出部としての機能も有する。   The contact sensor processing circuit 6 is a circuit that performs signal processing on a voltage value that represents the coordinates of the operation position output from the contact sensor 3. By this signal processing, the voltage value representing the coordinates of the operation position is amplified, noise-removed, and digitally converted, and output as a digital voltage value. Since signal processing is performed in this way, the operation position can be accurately detected even if the voltage value output from the contact sensor 3 is very small. In addition, when the resistive film type contact sensor 3 in which a plurality of transparent electrodes are arranged in a matrix as described above is used, the contact area can be obtained from the number of electrodes that are brought into contact by pressing. Further, the operation position (contact position) can be accurately derived by calculating the center position of the contact surface. Furthermore, the contact sensor processing circuit 6 can also detect the time change amount of the operation position and the contact area. Further, the contact sensor 3 and the contact sensor processing circuit 6 also have a function as a pressing degree detection unit that detects the pressing degree of the operation input made on the coordinate input surface.

また、接触センサ処理回路6には、操作位置(接触位置)が変化するまでにかかった時間(以下、移動時間)や、操作者が表面基板4に接触してから、操作位置(接触位置)が変化した時刻(移動時刻)を計測している。具体的には、操作位置(接触位置)が導出されたら、タイマーをスタートさせる。そして、操作位置(接触位置)が変化したら、その時刻を移動時刻として後述するメモリバッファ16(図5参照)に格納する。移動時間の場合は、現像の操作位置の移動時刻から前回の操作位置の移動時刻を差し引くことで、算出することができる。   Further, the contact sensor processing circuit 6 includes a time (hereinafter referred to as movement time) required until the operation position (contact position) changes, and an operation position (contact position) after the operator contacts the surface substrate 4. The time (movement time) when is changed is measured. Specifically, when the operation position (contact position) is derived, a timer is started. When the operation position (contact position) changes, the time is stored as a movement time in a memory buffer 16 (see FIG. 5) described later. The movement time can be calculated by subtracting the movement time of the previous operation position from the movement time of the development operation position.

接触センサ処理回路6は、操作位置の座標を表す電圧値に上述の信号処理を行い、操作位置(接触位置)を表す入力座標情報と、押圧度合の指標値である接触面積を表す面積情報を出力する。入力座標情報は、例えば、入力操作が行われた領域の中心位置の座標を表し、面積情報は接触面積の大きさを示す。操作者による押圧度合が高くなると、対向配置された接触センサ3の電極シートが接触する接触面積が増えるため、電極シート間の抵抗値が下がり、接触センサ処理回路6から出力される面積情報を表す電圧値は低くなる。一方、押圧度合が低い場合は、接触面積が減るため、面積情報を表す電圧値は高くなる。面積情報の変化は、操作者による表面基板4の押圧度合の変化を表す情報として利用することができる。入力座標情報と面積情報は、操作者の操作入力の内容を表す情報として、主制御装置9に入力される。   The contact sensor processing circuit 6 performs the above-described signal processing on the voltage value representing the coordinates of the operation position, and obtains input coordinate information representing the operation position (contact position) and area information representing the contact area, which is an index value of the pressing degree. Output. The input coordinate information represents, for example, the coordinates of the center position of the area where the input operation has been performed, and the area information indicates the size of the contact area. When the degree of pressing by the operator increases, the contact area with which the electrode sheets of the contact sensor 3 arranged in contact with each other increases, so that the resistance value between the electrode sheets decreases and represents the area information output from the contact sensor processing circuit 6. The voltage value becomes low. On the other hand, when the degree of pressing is low, the contact area is reduced, and the voltage value representing the area information is high. The change in the area information can be used as information indicating the change in the degree of pressing of the surface substrate 4 by the operator. The input coordinate information and the area information are input to the main control device 9 as information representing the contents of the operation input by the operator.

操作部品生成部としての画像表示回路7は、液晶パネル2の各画素を駆動して所望の画像を表示させるための回路である。例えば、液晶パネルがアクティブマトリクス駆動される場合は、画像表示回路7は、主制御装置9から入力される画像データ及び表示座標データに基づき、各画素を駆動するためのTFT(Thin Film Transistor)を駆動する。画像表示回路7は、主制御装置9によってメモリ10から読み出される画像データをアナログ電圧信号に変換して出力し、液晶パネル2を駆動する。これにより、液晶パネル2には、GUI部品に関する画像データもしくはGUI部品以外の画像データに応じた画像(画像パターン)が表示座標データに応じた表示位置に表示される。また、表示座標データは、画像データを表す位置を座標上で特定するためのデータであり、画像データと関連付けられてメモリ10内に格納されている。   The image display circuit 7 as an operation component generation unit is a circuit for driving each pixel of the liquid crystal panel 2 to display a desired image. For example, when the liquid crystal panel is driven in an active matrix, the image display circuit 7 includes a TFT (Thin Film Transistor) for driving each pixel based on image data and display coordinate data input from the main control device 9. To drive. The image display circuit 7 converts the image data read from the memory 10 by the main controller 9 into an analog voltage signal and outputs the analog voltage signal to drive the liquid crystal panel 2. Thereby, on the liquid crystal panel 2, an image (image pattern) corresponding to the image data related to the GUI component or the image data other than the GUI component is displayed at the display position corresponding to the display coordinate data. The display coordinate data is data for specifying the position representing the image data on the coordinates, and is stored in the memory 10 in association with the image data.

駆動制御回路8は、圧電駆動装置5A、5Bを駆動するための駆動電圧(駆動信号)を出力する回路であり、例えば、ファンクションジェネレータを用いることができる。駆動制御回路8は、主制御装置9から入力される駆動パターンに応じて駆動電圧の電圧波形の変調や増幅を行い、圧電駆動装置5A、5Bを駆動する。駆動パターンは、電圧波形の周波数及び振幅で決まるため、電圧波形の周波数及び振幅は、主制御装置9がメモリ10から読み出す周波数データ及び振幅データによって設定されることになる。   The drive control circuit 8 is a circuit that outputs a drive voltage (drive signal) for driving the piezoelectric drive devices 5A and 5B. For example, a function generator can be used. The drive control circuit 8 modulates and amplifies the voltage waveform of the drive voltage in accordance with the drive pattern input from the main controller 9, and drives the piezoelectric drive devices 5A and 5B. Since the drive pattern is determined by the frequency and amplitude of the voltage waveform, the frequency and amplitude of the voltage waveform are set by the frequency data and amplitude data that the main controller 9 reads from the memory 10.

制御手段たる主制御装置9は、例えば、CPU(Central Processing Unit:中央演算処理装置)などで構成され、実施形態のタッチパネル装置100の制御を統括する処理装置である。実施形態では、主制御装置9は、メモリ10内に格納されたプログラムを実行して操作者に所定のサービスを提供する際に、接触センサ処理回路6から入力される入力座標情報および/または面積情報と、液晶パネル2に表示しているGUI部品の種類を表すデータとに基づき、操作者の操作内容を判定する。そして、判定されたの操作内容に対応する処理や画像パターンを表示する。画像パターンの表示は、判定されたの操作内容に対応する画像パターンを生成するための画像データをメモリ10から読み出し、画像表示回路7を介して液晶パネル2に表示させる。例えば、実施形態のタッチパネル装置100がATMとして用いられる場合は、主制御装置9は、操作者の操作入力に応じて、暗証番号や金額を入力するためのボタンを表すGUI部品を液晶パネル2に表示させ、操作者の操作入力に応じて現金の支払い処理や振り込み処理等を実行する。また、主制御装置9は、後述するように、入力座標情報および面積情報に基づいて、操作者のGUI部品の認識状態を推定する。   The main control device 9 as a control means is configured by, for example, a CPU (Central Processing Unit) and the like, and is a processing device that controls the touch panel device 100 according to the embodiment. In the embodiment, when the main control device 9 executes a program stored in the memory 10 to provide a predetermined service to the operator, the input coordinate information and / or the area input from the contact sensor processing circuit 6 Based on the information and data representing the type of GUI component displayed on the liquid crystal panel 2, the operation content of the operator is determined. Then, a process and an image pattern corresponding to the determined operation content are displayed. For the display of the image pattern, image data for generating an image pattern corresponding to the determined operation content is read from the memory 10 and displayed on the liquid crystal panel 2 via the image display circuit 7. For example, when the touch panel device 100 according to the embodiment is used as an ATM, the main control device 9 provides a GUI part that represents a button for inputting a password or an amount on the liquid crystal panel 2 in accordance with an operation input by the operator. The cash payment process and the transfer process are executed according to the operation input of the operator. Further, as will be described later, main controller 9 estimates the recognition state of the operator's GUI component based on the input coordinate information and the area information.

また、制御手段たる主制御装置9は、上述のような所定のサービスを提供するために、メモリ10から画像データを読み出して液晶パネル2に画像を表示させる際に、メモリ10内で画像データと関連付けられた振幅データ、周波数データ、及び位相差データを読み出し、駆動制御回路8を介して圧電駆動装置5A、5Bを駆動させて、表面基板4を振動させるための処理を実行する。このように表面基板4を振動させるための処理の詳細については後述する。   Further, the main control device 9 as a control means reads out image data from the memory 10 and displays the image data in the memory 10 when displaying the image on the liquid crystal panel 2 in order to provide the predetermined service as described above. The associated amplitude data, frequency data, and phase difference data are read, and the piezoelectric drive devices 5A and 5B are driven via the drive control circuit 8 to execute processing for vibrating the surface substrate 4. The details of the process for vibrating the surface substrate 4 will be described later.

メモリ10は、実施形態のタッチパネル装置100の駆動に必要なプログラム等の種々のデータを格納するメモリであり、実施形態では、所定のサービスを提供するためのプログラムと、画像データ及び表示座標データとに加えて、振幅データ、周波数データ、及び位相差データを格納する。
画像データは、液晶パネル2に表示するためのGUI部品の画像、及びその他の画像を表すデータである。また、表示座標データは、各画像データによる画像を表示する位置を座標上で特定するためのデータである。
振幅データ、周波数データ、及び位相差データは、駆動制御回路8を介して圧電駆動装置5A、5Bを駆動するための駆動パターンを表すデータである。
この駆動パターンを表す振幅データ、周波数データ、及び位相差データは、画像データ及び表示座標データと関連付けられてメモリ10に格納されている。
The memory 10 is a memory that stores various data such as a program necessary for driving the touch panel device 100 according to the embodiment. In the embodiment, a program for providing a predetermined service, image data, display coordinate data, and the like. In addition, amplitude data, frequency data, and phase difference data are stored.
The image data is data representing an image of a GUI component to be displayed on the liquid crystal panel 2 and other images. The display coordinate data is data for specifying on the coordinates a position where an image based on each image data is displayed.
The amplitude data, frequency data, and phase difference data are data representing drive patterns for driving the piezoelectric drive devices 5A and 5B via the drive control circuit 8.
The amplitude data, frequency data, and phase difference data representing the drive pattern are stored in the memory 10 in association with image data and display coordinate data.

表面基板4を振動させるための処理の詳細について説明する。
実施形態のタッチパネル装置100は、圧電駆動装置5A、5Bを駆動して、液晶パネル2に表示されるボタン等であるGUI部品の中央部に腹が位置し、かつ、GUI部品の境界部に節が位置するような定在波を表面基板4に発生させる。
Details of the process for vibrating the surface substrate 4 will be described.
The touch panel device 100 according to the embodiment drives the piezoelectric driving devices 5A and 5B, has a belly located at the center of the GUI part which is a button or the like displayed on the liquid crystal panel 2, and is connected to the boundary of the GUI part. A standing wave is generated on the surface substrate 4 such that is located.

図2は、実施形態のタッチパネル装置100の表面基板4を通じて表示されるGUI部品と、表面基板4に生成される定在波の振幅のピーク値との位置関係を示す図である。ここで、GUI部品と対応する箇所に発生させる定在波233は、表面基板4の一端に配置された圧電駆動装置5Aと、表面基板4の他端に配置された圧電駆動装置5Bとで、表面基板4の固有振動数で加振することによって、形成される。定在波の腹や節の位置は、各圧電駆動装置5A、5Bで発生させる振動波の周波数および位相差によって決まるので、これらを調整することによって、表面基板の任意の位置に定在波の腹及び節を生成することができる。   FIG. 2 is a diagram illustrating a positional relationship between a GUI component displayed through the surface substrate 4 of the touch panel device 100 according to the embodiment and the peak value of the amplitude of the standing wave generated on the surface substrate 4. Here, the standing wave 233 generated at a location corresponding to the GUI component is generated by the piezoelectric driving device 5A disposed at one end of the surface substrate 4 and the piezoelectric driving device 5B disposed at the other end of the surface substrate 4. It is formed by exciting at the natural frequency of the surface substrate 4. The positions of the antinodes and nodes of the standing wave are determined by the frequency and phase difference of the vibration wave generated by each of the piezoelectric driving devices 5A and 5B. By adjusting these, the position of the standing wave can be set at any position on the surface substrate. Abdomen and nodes can be generated.

図3は、実施形態のタッチパネル装置100の液晶パネル2の表示の一例を示す図である。主制御装置9は、後述する画像パターンIDを用いてメモリ10にアクセスし、画像パターンIDに関連付けられた画像データIDに対応する画像データと、表示座標データとを読み出す。そして主制御装置9が画像データと表示座標データを画像表示回路7に入力すると、画像表示回路7は、画像データと表示座標データを用いて液晶パネル2内の所望の位置に画像(画像パターン)を生成する。このようにして液晶パネル2にGUI部品として、例えば、14個のGUIボタン21とGUI入力確定表示画面22が表示される。   FIG. 3 is a diagram illustrating an example of display on the liquid crystal panel 2 of the touch panel device 100 according to the embodiment. The main control device 9 accesses the memory 10 using an image pattern ID, which will be described later, and reads image data corresponding to the image data ID associated with the image pattern ID and display coordinate data. When the main controller 9 inputs image data and display coordinate data to the image display circuit 7, the image display circuit 7 uses the image data and display coordinate data to display an image (image pattern) at a desired position in the liquid crystal panel 2. Is generated. Thus, for example, 14 GUI buttons 21 and a GUI input confirmation display screen 22 are displayed on the liquid crystal panel 2 as GUI components.

図4は、本実施形態のタッチパネル装置100の主制御装置9に含まれる一部の回路構成を示すブロック図である。図4に示すように、主制御装置9は、状態判定回路11、操作感生成回路12、定在波生成回路13を有する。なお、上述のように、主制御装置9は、タッチパネル装置100の種々の処理を統括する処理装置であるため、ここに示す回路は、主制御装置9のうちの一部分である。具体的には、図4に示す主制御装置9の回路は、接触センサ処理回路6から入力される情報のうち、操作位置(接触位置)を表す情報である入力座標情報、押圧度合いを表す情報である面積情報、移動時刻などを基に駆動パターンを決定する回路のみを抜き出したものである。   FIG. 4 is a block diagram showing a partial circuit configuration included in the main control device 9 of the touch panel device 100 of the present embodiment. As shown in FIG. 4, the main controller 9 includes a state determination circuit 11, an operational feeling generation circuit 12, and a standing wave generation circuit 13. Note that, as described above, the main control device 9 is a processing device that controls various processes of the touch panel device 100, and therefore the circuit shown here is a part of the main control device 9. Specifically, the circuit of the main controller 9 shown in FIG. 4 includes input coordinate information, which is information representing the operation position (contact position), and information representing the degree of pressing, among the information input from the contact sensor processing circuit 6. Only the circuit for determining the drive pattern based on the area information, the movement time, etc. is extracted.

推定手段たる状態判定回路11は、接触センサ処理回路6から入力される情報のうち、入力座標情報、面積情報、移動時刻(移動時間)などから操作者のGUI部品認識状態を判定する回路である。操作感生成回路12および定在波生成回路13は、圧電駆動装置5A、5Bを駆動させるための駆動パターンを生成する回路である。操作感生成回路12は、操作者が液晶パネル2に表示するGUIボタンやスライドバーに触れて操作を行う際に、操作完了を知らせる触感を与えるための駆動パターン(操作完了駆動パターン)を生成する回路である。一方、定在波生成回路13は、実際のボタンにふれているような触感を与えるための駆動パターン(定在波駆動パターン)を生成する回路である。具体的には、液晶パネル2に表示されるボタン等であるGUI部品の中央部に腹が位置し、かつGUI部品の境界部に節が位置するような定在波を表面基板4に発生させる駆動パターンを生成する回路である。   The state determination circuit 11 serving as an estimation unit is a circuit that determines the GUI component recognition state of the operator from input coordinate information, area information, movement time (movement time), and the like among information input from the contact sensor processing circuit 6. . The operational feeling generation circuit 12 and the standing wave generation circuit 13 are circuits that generate drive patterns for driving the piezoelectric drive devices 5A and 5B. The operation feeling generation circuit 12 generates a drive pattern (operation completion drive pattern) for giving a tactile sensation to notify the completion of the operation when the operator touches the GUI button or slide bar displayed on the liquid crystal panel 2 to perform the operation. Circuit. On the other hand, the standing wave generating circuit 13 is a circuit that generates a driving pattern (standing wave driving pattern) for giving a tactile sensation as if touching an actual button. Specifically, a standing wave is generated on the surface substrate 4 such that a belly is located at the center of the GUI part, such as a button displayed on the liquid crystal panel 2, and a node is located at the boundary of the GUI part. It is a circuit that generates a drive pattern.

図5は、図4に示される状態判定回路11の回路構成を示すブロック図である。図5に示すように、状態判定回路11は、接触状態判定回路14と認識状態判定回路15とを有している。接触状態判定回路14は、接触センサ処理回路6から得られた操作者による入力座標情報、面積情報を基に、GUI部品の操作を行ったか否かを判定する回路である。メモリバッファ16には、接触センサ処理回路6から得られた入力座標情報(操作位置)、移動時間(移動時刻)などが格納されている。認識状態判定回路15は、接触状態判定回路14から得られた操作状態と、メモリバッファ16に格納されている情報を基に、操作者の認識の状態を判定する回路である。   FIG. 5 is a block diagram showing a circuit configuration of the state determination circuit 11 shown in FIG. As shown in FIG. 5, the state determination circuit 11 includes a contact state determination circuit 14 and a recognition state determination circuit 15. The contact state determination circuit 14 is a circuit that determines whether or not the GUI component has been operated based on input coordinate information and area information obtained by the operator from the contact sensor processing circuit 6. The memory buffer 16 stores input coordinate information (operation position) obtained from the contact sensor processing circuit 6, movement time (movement time), and the like. The recognition state determination circuit 15 is a circuit that determines the recognition state of the operator based on the operation state obtained from the contact state determination circuit 14 and information stored in the memory buffer 16.

メモリバッファ16内には、下記表1に示すように、ID、移動時刻(移動時間)、入力座標情報(操作位置)が関連付けられて格納されている。IDは、移動時刻、操作位置を関連付けるための番号である。

Figure 2012038289
In the memory buffer 16, as shown in Table 1 below, an ID, a movement time (movement time), and input coordinate information (operation position) are stored in association with each other. The ID is a number for associating the movement time and the operation position.
Figure 2012038289

次に、先の図5に示した状態判定回路11での操作者のGUI部品認識状態の判定について、説明する。
図6は、GUI部品の認識状態による操作者の指の動きの違いについて説明する図である。
操作者が、GUI部品を認識しているときは、操作者は、図中黒丸で示す操作対象のGUI部品の箇所を所定の押圧力で押圧していく。一方、GUI部品を認識していない操作者は、GUI部品に対応した箇所に発生する振動を指で認識しながら、GUIの部品の位置を確認してGUI部品を押圧していくことになる。GUI部品の箇所をある程度認識している操作者は、指で表面基板4をなぞってGUI部品の位置を指で確認しながらも、図6の点線で示すように、ほぼ最短経路で、かつ、ある程度の移動速度で操作対象のGUI部品を押していく。一方、GUI部品を全く認識できていない操作者は、指先をゆっくり動かし図6の実線に示すように大きく蛇行して、周囲のGUI部品の位置を指で確認しながら、操作対象のGUI部品の位置を把握し、操作対象のGUI部品を押していく。
Next, the determination of the operator's GUI component recognition state in the state determination circuit 11 shown in FIG. 5 will be described.
FIG. 6 is a diagram for explaining a difference in the movement of the operator's finger depending on the recognition state of the GUI component.
When the operator recognizes the GUI component, the operator presses the location of the operation target GUI component indicated by the black circle in the drawing with a predetermined pressing force. On the other hand, an operator who has not recognized the GUI component confirms the position of the GUI component and presses the GUI component while recognizing the vibration generated at the location corresponding to the GUI component with his / her finger. The operator who recognizes the part of the GUI part to some extent can trace the surface substrate 4 with his finger and confirm the position of the GUI part with his finger, as shown by the dotted line in FIG. The GUI part to be operated is pushed at a certain moving speed. On the other hand, an operator who has not recognized any GUI part slowly moves his / her fingertip to meander as shown by the solid line in FIG. 6 and confirms the position of the surrounding GUI part with the finger, The position is grasped and the GUI part to be operated is pushed.

このように、GUI部品の位置を正しく認識できている操作者に対しては、GUI部品が触覚的に認識できるような振動を、発生させなくても、正しくボタン操作が行えるので、定在波を発生させる必要はない。GUI部品の位置をある程度把握している操作者に対する定在波は、GUI部品の位置を把握するための補助的なものであるため、定在波の振幅は小さくても十分である。一方、GUI部品を全く認識していない操作者に対する定在波は、GUI部品を触覚的に認識させるためのものであるため、定在波の振幅を大きくする必要がある。   In this way, for an operator who can correctly recognize the position of the GUI component, the button can be operated correctly without generating a vibration that allows the GUI component to be tactilely recognized. It is not necessary to generate Since the standing wave for the operator who knows the position of the GUI component to some extent is an auxiliary one for grasping the position of the GUI component, it is sufficient that the amplitude of the standing wave is small. On the other hand, since the standing wave for the operator who does not recognize the GUI component at all is for tactile recognition of the GUI component, it is necessary to increase the amplitude of the standing wave.

表2は、状態判定回路11内の各回路での判定と、状態判定回路11の判定結果を示す表である。

Figure 2012038289
Table 2 is a table showing the determination in each circuit in the state determination circuit 11 and the determination result of the state determination circuit 11.
Figure 2012038289

まず、接触状態判定回路14に、接触センサ処理回路6から押圧度合いを表す面積情報と、操作位置(接触位置)を表す入力座標情報が入力されると、接触状態判定回路14は、入力座標情報から操作位置(接触位置)がGUI部品の位置か否かの判定を行う。そして、操作位置(接触位置)がGUI部品の位置である場合、面積情報から押圧度合いが予め設定された閾値以上か否かの判定を行う。このとき、押圧度合いが閾値以上のときは、GUI部品の操作がなされた判定する。この場合は、操作者は、GUI部品の位置を正しく認識していると推定されるので、状態判定回路11は、認識状態として『迷いがない』と判定する。接触状態判定回路14で、『迷いがない』と判定された場合は、メモリバッファ16に格納されたデータを削除する。   First, when the area information indicating the degree of pressing and the input coordinate information indicating the operation position (contact position) are input from the contact sensor processing circuit 6 to the contact state determination circuit 14, the contact state determination circuit 14 inputs the input coordinate information. To determine whether the operation position (contact position) is the position of the GUI component. Then, when the operation position (contact position) is the position of the GUI part, it is determined whether or not the pressing degree is equal to or greater than a preset threshold value from the area information. At this time, if the degree of pressing is equal to or greater than the threshold value, it is determined that the GUI component has been operated. In this case, since it is presumed that the operator correctly recognizes the position of the GUI component, the state determination circuit 11 determines that “there is no hesitation” as the recognition state. If the contact state determination circuit 14 determines that “there is no hesitation”, the data stored in the memory buffer 16 is deleted.

一方、GUI部品の位置が正しく認識できてない操作者は、表面基板4をなぞりながら、GUI部品の位置を認識しようとするため、押圧度合いが閾値未満となる。よって、操作位置(接触位置)がGUI部品付近での押圧の値が閾値未満のときは、GUI部品の位置が正しく認識できてない『迷いがある』と判定する。このように、接触状態判定回路14で『迷いがある』と判定された場合は、認識状態判定回路15で、操作者の迷いの度合いを判定する。   On the other hand, an operator who cannot correctly recognize the position of the GUI component tries to recognize the position of the GUI component while tracing the front substrate 4, and thus the pressing degree is less than the threshold value. Therefore, when the operation position (contact position) is less than the threshold value in the vicinity of the GUI part, it is determined that the position of the GUI part is not correctly recognized and “there is a problem”. As described above, when the contact state determination circuit 14 determines that “there is a hesitation”, the recognition state determination circuit 15 determines the degree of the operator's hesitation.

認識状態判定回路15では、操作者が表面基板4をなぞりながら移動するときの指の移動速度に基づいて、判定する。   The recognition state determination circuit 15 performs determination based on the moving speed of the finger when the operator moves while tracing the front substrate 4.

移動速度Vは、次の式から算出される。

Figure 2012038289

数1におけるnは、ID番号であり、Tは、移動時刻である。上記数1に示すように、本実施形態の移動速度Vは、接触位置間の移動速度の平均値を用いた。 The moving speed V is calculated from the following equation.
Figure 2012038289

In Expression 1, n is an ID number, and T is a movement time. As shown in the above equation 1, the average value of the moving speed between the contact positions is used as the moving speed V of the present embodiment.

図7は、指が表面基板4の表面をなぞりながら移動させたときの入力座標情報(操作位置)の変化の一例について示す図であり、下記表3は、そのときのメモリバッファ16に格納されるデータについて示している。例えば、図7に示すように、接触位置aでの押圧度合いが閾値未満と判定された場合、接触センサ処理回路6は、タイマーをスタートさせ、移動時刻の計測を開始する。また、メモリバッファ16に、移動時刻と、操作位置(x2、y2)とを格納する。次に、操作位置が、aからbに切り替わり、bの位置での押圧度合いが閾値未満の場合は、そのときの移動時刻T1と、操作位置(x3、y2)とを格納する。認識状態判定回路15は、メモリバッファ16に格納された、ID=0と1の操作位置と、移動時刻とを読み出し、移動速度Vを算出する。認識状態判定回路15は、移動速度Vが閾値以上の場合は、ある程度、GUI部品の位置を認識していると推定し、『迷いが少ない』と判定する。一方、移動速度Vが閾値以上の場合は、GUI部品の位置を全く認識していないと推定し、『迷いがある』と判定する。操作位置が、bの位置からcの位置へ変化した場合は、認識状態判定回路15は、メモリバッファ16に格納された、ID=0〜2の操作位置と、移動時刻とを読み出し、移動速度Vを算出し、算出した移動速度Vから、再び、操作者の認識状態を推定する。

Figure 2012038289
FIG. 7 is a diagram showing an example of changes in input coordinate information (operation position) when a finger moves while tracing the surface of the front substrate 4. Table 3 below is stored in the memory buffer 16 at that time. It shows about the data. For example, as shown in FIG. 7, when it is determined that the degree of pressing at the contact position a is less than the threshold, the contact sensor processing circuit 6 starts a timer and starts measuring the movement time. Further, the movement time and the operation position (x2, y2) are stored in the memory buffer 16. Next, when the operation position is switched from a to b, and the degree of pressing at the position of b is less than the threshold value, the movement time T1 and the operation position (x3, y2) at that time are stored. The recognition state determination circuit 15 reads the operation positions of ID = 0 and 1 and the movement time stored in the memory buffer 16 and calculates the movement speed V. When the moving speed V is equal to or higher than the threshold value, the recognition state determination circuit 15 estimates that the position of the GUI component is recognized to some extent, and determines that “there is little hesitation”. On the other hand, when the moving speed V is equal to or higher than the threshold, it is estimated that the position of the GUI component is not recognized at all, and it is determined that “there is a problem”. When the operation position changes from the position b to the position c, the recognition state determination circuit 15 reads the operation position of ID = 0 to 2 and the movement time stored in the memory buffer 16, and moves the movement speed. V is calculated, and the operator's recognition state is estimated again from the calculated moving speed V.
Figure 2012038289

上記では、操作位置が1回変更されたら、メモリバッファ16に移動時刻と操作位置とを格納しているが、透明電極の間隔は、非常に狭いため、移動時刻の分解能が間に合わない場合がある。よって、複数回操作位置が変更されたときの移動時刻と操作位置とをメモリバッファ16に格納してもよい。例えば、3回操作位置が変更されたら、メモリバッファに格納されるようにした場合は、図7に示すdの位置の操作位置とそのときの移動時刻が、ID=1のデータとしてメモリバッファに格納され、aの位置のデータとdの位置のデータとから、移動速度Vが算出される。   In the above, when the operation position is changed once, the movement time and the operation position are stored in the memory buffer 16, but since the interval between the transparent electrodes is very narrow, the resolution of the movement time may not be in time. . Therefore, the movement time and the operation position when the operation position is changed a plurality of times may be stored in the memory buffer 16. For example, when the operation position is changed three times and stored in the memory buffer, the operation position at the position d shown in FIG. 7 and the movement time at that time are stored in the memory buffer as data of ID = 1. The moving speed V is calculated from the stored position data “a” and position data “d”.

また、移動速度Vの算出式としては、数1のように、操作位置間の移動速度の平均値でなく、数2に示すように、移動時刻の計測を開始した操作位置(図7におけるa)から、現在の操作位置までの距離と、移動時刻とから算出してもよい。この場合、メモリバッファ16には、aの位置の操作位置(x2、y2)と、現在の移動時刻と操作位置とを記憶しておけばよい。

Figure 2012038289
The calculation formula for the movement speed V is not the average value of the movement speed between the operation positions as shown in Equation 1, but the operation position at which the measurement of the movement time is started as shown in Equation 2 (a in FIG. 7). ) To the current operation position and the movement time may be calculated. In this case, the memory buffer 16 may store the operation position (x2, y2) at the position a, the current movement time, and the operation position.
Figure 2012038289

また、数3に示すように、移動速度Vを、前回の操作位置から今回の操作位置までの移動速度にしてもよい。この場合、メモリバッファ16には、前回の操作位置と移動時刻、現在の操作位置と移動時刻を記憶しておけばよい。

Figure 2012038289
Further, as shown in Equation 3, the moving speed V may be a moving speed from the previous operation position to the current operation position. In this case, the memory buffer 16 may store the previous operation position and movement time, and the current operation position and movement time.
Figure 2012038289

また、GUI部品の位置をある程度認識している操作者は、指先を操作対象のGUI部品付近へ移動させる段階では、指先を速く移動させ、指先が操作対象のGUI部品付近に到達して、GUI部品位置を確定するときは、指先をゆっくり移動させる。よって、数3のように、移動速度Vを、前回の操作位置から今回の操作位置までの移動速度にすることによって、GUI部品位置を確定するときの動きのときは、『迷いがある』と判定し、定在波の振幅が大きくなる。これにより、GUI部品の位置をある程度認識している操作者のGUI部品位置の確定が容易になる。   In addition, when the operator who recognizes the position of the GUI component to some extent moves the fingertip to the vicinity of the GUI component to be operated, the fingertip quickly moves so that the fingertip reaches the vicinity of the GUI component to be operated, and the GUI Move the fingertip slowly to determine the part position. Therefore, as shown in Equation 3, the movement speed V is set to the movement speed from the previous operation position to the current operation position, and when the movement is to determine the GUI part position, “there is a hesitation”. The amplitude of the standing wave increases. This facilitates the determination of the GUI part position of the operator who recognizes the position of the GUI part to some extent.

また、認識状態判定回路15での判定は、指先の移動速度ではなく、所定時間経過時点での指先の移動距離や、加速度から判定してもよい。   Further, the determination by the recognition state determination circuit 15 may be determined not based on the moving speed of the fingertip but based on the moving distance or acceleration of the fingertip when a predetermined time has elapsed.

移動距離の場合、GUI部品付近(図7の操作位置a)での押圧の値が閾値未満と判定された場合、接触センサ処理回路6は、タイマーをスタートさせ、時刻の計測を開始する。また、メモリバッファ16にそのときの入力座標情報(操作位置)を書込む。時刻が、所定値となったら、接触センサ処理回路6は、タイマーをリセットし、メモリバッファ16にそのときの操作位置を書込む。認識状態判定回路15は、メモリバッファ16に現在の操作位置が書込まれたら、メモリバッファ16からタイマースタート開始時の操作位置と、現在の操作位置とを読み出し、移動距離を算出し、算出した移動距離から、操作者のGUI認識状態を推定する。   In the case of the movement distance, when it is determined that the pressure value near the GUI component (operation position a in FIG. 7) is less than the threshold value, the contact sensor processing circuit 6 starts a timer and starts measuring time. Further, the input coordinate information (operation position) at that time is written in the memory buffer 16. When the time reaches a predetermined value, the contact sensor processing circuit 6 resets the timer and writes the operation position at that time in the memory buffer 16. When the current operation position is written in the memory buffer 16, the recognition state determination circuit 15 reads the operation position at the start of the timer start and the current operation position from the memory buffer 16, calculates the movement distance, and calculates The operator's GUI recognition state is estimated from the movement distance.

移動距離が長い場合は、次のGUI部品へ一気に移動していると考えられるため、ある程度、GUI部品の位置を認識している状態と考えられる。一方、移動距離が短い場合は、指先をゆっくり動かして指先で振動を確認しながら、GUI部品の位置を把握している状態と考えられ、GUI部品を全く認識していない状態と考えられる。よって、移動距離が、閾値未満の場合、認識状態判定回路15は、『迷いがある』と判定し、定在波の振幅を大きくし、移動距離が閾値以上の場合、認識状態判定回路15は、『迷いが少ない』と判定し、定在波の振幅を小さくする。   When the movement distance is long, it is considered that the movement to the next GUI component is performed at a stroke, and therefore, it is considered that the position of the GUI component is recognized to some extent. On the other hand, when the movement distance is short, it is considered that the position of the GUI component is grasped while slowly checking the vibration with the fingertip and the GUI component is not recognized at all. Therefore, when the movement distance is less than the threshold, the recognition state determination circuit 15 determines that “there is a problem”, increases the amplitude of the standing wave, and when the movement distance is equal to or greater than the threshold, the recognition state determination circuit 15 , "Determine less" and reduce the amplitude of the standing wave.

また、移動距離で判定する場合も、指先を操作対象のGUI部品付近へ近づける段階では、指先の移動距離が長くなり、指先が操作対象のGUI部品に近づいて、GUI部品位置を確定するときは移動距離が短くなる。よって、この場合も、GUI部品位置を確定するときは、『迷いがある』と判定され、定在波の振幅が大きくなり、GUI部品位置を確定しやすくなる。   Also, when determining by the movement distance, when the fingertip is moved closer to the operation target GUI component, the movement distance of the fingertip becomes longer, and the fingertip approaches the operation target GUI component to determine the GUI component position. The moving distance is shortened. Therefore, also in this case, when the GUI component position is determined, it is determined that “there is a problem”, the amplitude of the standing wave is increased, and the GUI component position is easily determined.

また、指先の加速度で判定する場合は、先の数3で示した式を用いて、前回の操作位置から今回の操作位置までの移動速度を算出する。そして、この移動速度と、移動時刻とを、メモリバッファ16に格納する。操作位置が変更されたら、同様にして、移動速度と移動時刻とがメモリバッファ16に格納される。認識状態判定回路15は、前回算出した移動速度および移動時刻と、今回算出した移動速度と移動時刻とをメモリバッファ16から読み出し、加速度を算出する。加速度が正の値の場合、操作対象のGUI部品へ一気に動き出していると考えられるため、『迷いが少ない』と考えられる。一方、指先が操作対象のGUI部品に近づいてくると、加速度が負となり、GUI部品位置を確定するようなゆっくりとした動きをとっていると考えられる。よって、この場合は、『迷いがある』と判定し、定在波の振幅を大きくする。   Further, when the determination is made based on the acceleration of the fingertip, the moving speed from the previous operation position to the current operation position is calculated using the equation shown in Equation 3 above. Then, the movement speed and the movement time are stored in the memory buffer 16. When the operation position is changed, the movement speed and the movement time are similarly stored in the memory buffer 16. The recognition state determination circuit 15 reads the movement speed and movement time calculated last time and the movement speed and movement time calculated this time from the memory buffer 16 and calculates acceleration. When the acceleration is a positive value, it is considered that the GUI component that is the operation target has started to move at a stretch, and therefore it is considered that “there is little hesitation”. On the other hand, when the fingertip approaches the GUI component to be operated, the acceleration becomes negative and it is considered that the fingertip moves slowly so as to determine the GUI component position. Therefore, in this case, it is determined that “there is a problem” and the amplitude of the standing wave is increased.

なお、本実施形態では、操作者のGUI部品の認識状態を3段階で判定しているが、3段階に限られるものではない。   In the present embodiment, the recognition state of the GUI part of the operator is determined in three stages, but is not limited to three stages.

図8は、本実施形態のタッチパネル装置100の主制御装置9によって実行される駆動パターンの生成処理の手順を示すフローチャートである。
主制御装置9は、タッチパネル装置100が起動されると、駆動パターン生成処理を開始する(Start)。まず、主制御装置9は、座標入力面(表面基板4の表面)への接触状態を検出し(S1)、接触センサ処理回路6から入力される面積情報を表す電圧値を読み込む(S2)。次いで、主制御装置9は、ステップS2で読み込んだ値を基に押圧度合を算出する(S3)。次いで、主制御装置9は、接触センサ処理回路6から入力される面積情報を表す電圧値から、接触面の中心位置を算出して入力座標情報(操作位置)を算出し、操作位置が、GUI部品付近か否かを判定する(S4)。操作位置が、GUI部品から近い位置である場合(S4のYES)は、ステップS3で算出した押圧度合いが所定の閾値未満か以上かを判定する(S5)。
FIG. 8 is a flowchart showing a procedure of drive pattern generation processing executed by the main control device 9 of the touch panel device 100 of the present embodiment.
When the touch panel device 100 is activated, the main control device 9 starts drive pattern generation processing (Start). First, main controller 9 detects a contact state with the coordinate input surface (the surface of front substrate 4) (S1), and reads a voltage value representing area information input from contact sensor processing circuit 6 (S2). Next, main controller 9 calculates the degree of pressing based on the value read in step S2 (S3). Next, the main control device 9 calculates the input coordinate information (operation position) by calculating the center position of the contact surface from the voltage value representing the area information input from the contact sensor processing circuit 6, and the operation position is the GUI. It is determined whether or not it is near the part (S4). When the operation position is a position close to the GUI component (YES in S4), it is determined whether or not the pressing degree calculated in step S3 is less than or equal to a predetermined threshold (S5).

主制御装置9は、ステップS5の判定結果が閾値未満の場合(S5のYES)、メモリバッファにID=1以上のデータが格納されているか否か判定する(S6)。メモリバッファにID=1以上のデータが格納されている場合は、メモリバッファ16から状態変化度合いを判定するためのデータを読み込む(S7)。次いで、主制御装置9は、ステップS7で読み込んだデータを基に、状態変化度合を算出する(S8)。具体的には、状態変化度合いとして移動速度Vを用いる場合、メモリバッファ16から、移動時刻と操作位置(接触位置)を読み出して、移動速度Vを算出する。状態変化度合いとして加速度を用いる場合、メモリバッファ16から移動時刻と移動速度を読み出して、加速度を算出する。   If the determination result in step S5 is less than the threshold value (YES in S5), main controller 9 determines whether data equal to or greater than ID = 1 is stored in the memory buffer (S6). When data of ID = 1 or more is stored in the memory buffer, data for determining the state change degree is read from the memory buffer 16 (S7). Next, the main control device 9 calculates the state change degree based on the data read in step S7 (S8). Specifically, when the moving speed V is used as the state change degree, the moving time and the operation position (contact position) are read from the memory buffer 16 to calculate the moving speed V. When acceleration is used as the degree of state change, the movement time and movement speed are read from the memory buffer 16 and the acceleration is calculated.

次いで、主制御装置9は、ステップS8で算出された値が所定の閾値未満か以上かを判定する(S9)。ステップS8で算出された値が所定の閾値未満の場合(S9のYES)、認識状態A(迷いがある)と判定し(S10B)、振幅の大きな定在波パターンを生成する(S11B)。   Next, main controller 9 determines whether the value calculated in step S8 is less than or equal to a predetermined threshold value (S9). If the value calculated in step S8 is less than the predetermined threshold value (YES in S9), it is determined that the recognition state A is in doubt (S10B), and a standing wave pattern with a large amplitude is generated (S11B).

一方、ステップS8で算出された値が所定の閾値以上の場合(S9のNo)、認識状態B(迷いが少ない)と判定し(S10C)、振幅の小さな定在波パターンを生成する(S11C)。   On the other hand, when the value calculated in step S8 is equal to or greater than the predetermined threshold (No in S9), it is determined that the recognition state B is less confusing (S10C), and a standing wave pattern with a small amplitude is generated (S11C). .

一方、ステップS5の判定結果が閾値以上の場合(S5のNO)、認識状態X(迷いがない)と判定する(S10A)。この場合は、GUI部品の操作が確定しているので、定在波パターンではなく、操作完了駆動パターンを生成する(S11A)。   On the other hand, when the determination result in step S5 is equal to or greater than the threshold (NO in S5), it is determined that the recognition state X (no doubt) (S10A). In this case, since the operation of the GUI component is confirmed, an operation completion drive pattern is generated instead of the standing wave pattern (S11A).

次いで、主制御装置9は、ステップS11で生成されたパターンを基に圧電駆動装置5A、5Bを駆動する(S12)。   Next, the main control device 9 drives the piezoelectric drive devices 5A and 5B based on the pattern generated in step S11 (S12).

なお、ステップS2からステップS5は、図5における接触状態判定回路14が処理する部分である。また、ステップS6からステップS9は、図5における認識状態判定回路15が処理する部分である。また、ステップS11Aは、図4における操作感生成回路12が処理する部分であり、ステップS11Bおよびステップ11Cは、定在波生成回路13が処理する部分である。   Steps S2 to S5 are parts processed by the contact state determination circuit 14 in FIG. Steps S6 to S9 are parts processed by the recognition state determination circuit 15 in FIG. Step S11A is a part processed by the operational feeling generation circuit 12 in FIG. 4, and Steps S11B and 11C are parts processed by the standing wave generation circuit 13.

図8に示すフローからわかるように、操作者がGUI部品を認識している場合は、接触状態が検出されるときは、押圧度合が閾値以上で、操作が確定したときである。よって、操作者がGUI部品を認識しているときは、操作者にGUI部品を操作したような感覚を与える操作完了駆動パターンのみが生成され、定在波パターンは、生成されることがない。よって、常に定在波パターンを生成する装置に比べて、消費電力を抑えることができる。   As can be seen from the flow shown in FIG. 8, when the operator recognizes the GUI component, the contact state is detected when the pressing degree is equal to or greater than the threshold value and the operation is confirmed. Therefore, when the operator recognizes the GUI component, only the operation completion drive pattern that gives the operator the feeling of operating the GUI component is generated, and the standing wave pattern is not generated. Therefore, power consumption can be suppressed as compared with a device that always generates a standing wave pattern.

一方、接触状態が検出されたときの押圧度合いが、閾値未満の場合は、操作者がGUI部品の位置を認識しておらず、GUI部品の位置を認識するために、パネル表面をなぞっている状態であるので、定在波パターンを生成して、振動により操作者にGUI部品の位置を認識させることができる。これにより、視覚に障害のある操作者でも、タッチパネル装置100を操作することができる。   On the other hand, when the degree of pressing when the contact state is detected is less than the threshold value, the operator does not recognize the position of the GUI component, and traces the panel surface in order to recognize the position of the GUI component. Since it is in a state, a standing wave pattern can be generated and the operator can recognize the position of the GUI component by vibration. As a result, even a visually impaired operator can operate the touch panel device 100.

また、図8のステップS4で示すように、操作位置がGUI部品近傍にきたとき、はじめて、状態変化が算出され、定在波が生じる。これにより、操作者がGUI部品から遠い位置を指でなぞっているときは、定在波が発生しなくなり、消費電力を抑えることができる。   Also, as shown in step S4 of FIG. 8, when the operation position comes near the GUI component, the state change is calculated and a standing wave is generated. Thus, when the operator is tracing the position far from the GUI component with his / her finger, the standing wave is not generated and the power consumption can be suppressed.

また、タッチパネル装置100が起動された(Start)のとき、タッチパネルに触れると、振動でGUI部品の位置を知らせる旨を不図示のスピーカから音声で報知するようにしてもよい。また、押圧度合いが閾値未満で、操作位置(接触位置)が、GUI部品上である場合は、音声でそのGUI部品の情報を報知してもよい。例えば、GUI部品が数字に対応している場合は、その数字情報を、音声で報知するのである。これにより、視覚に障害がある操作者が、GUI部品を良好に認識することができる。   Further, when the touch panel device 100 is activated (Start), when the touch panel is touched, a notification that the position of the GUI component is to be notified by vibration may be given by voice from a speaker (not shown). In addition, when the degree of pressing is less than the threshold and the operation position (contact position) is on a GUI component, information on the GUI component may be notified by voice. For example, when the GUI component corresponds to a number, the number information is notified by voice. As a result, an operator with visual impairment can recognize the GUI component well.

次に、本実施形態の変形例について説明する。
図9は、変形例のタッチパネル装置100Aの断面構造を示す図である。
この変形例のタッチパネル装置100Aは、カメラ18と、カメラ18で撮像した画像を画像処理する画像演算処理回路19とが設けられており、カメラ18を通して、画像演算処理回路19から得られる操作者の表情や目線などを用いて、操作者のGUI部品の認識状態を推定するものである。
Next, a modification of this embodiment will be described.
FIG. 9 is a diagram illustrating a cross-sectional structure of a modified touch panel device 100A.
The touch panel device 100 </ b> A of this modification is provided with a camera 18 and an image arithmetic processing circuit 19 that performs image processing on an image captured by the camera 18, and an operator obtained from the image arithmetic processing circuit 19 through the camera 18. The recognition state of the GUI part of the operator is estimated using a facial expression, a line of sight, and the like.

操作者が、GUI部品を正しく認識できていない場合は、眉間にシワがよっている、目を細めるなどの特有の表情が現れる。このように、GUI部品を正しく認識できていない場合の特有の表情が現れる顔の箇所(目のまわりなど)を特徴点とし、数値化して、GUI部品を正しく認識できているか否かを判定する。具体的には、タッチパネル操作前の平常時の顔をカメラ18で撮像し、眉間の部分や目の部分など、GUI部品が認識できていない場合に変化する特徴的な部分を記憶させる。次に、操作者がタッチパネル装置100Aを操作しているときの顔をカメラ18で撮像し、平常時とを比較して、GUI部品の認識状態を推定する。操作時の顔の特徴点部分と、操作前の平常時の特徴的部分とにほとんど変化がない場合は、GUI部品を認識していると判定し、定在波パターンを生成しない。一方、操作時の特徴的部分と操作前の平常時の特徴的部分に変化がある場合は、GUI部品を認識できていないと推定し、定在波を生成する。操作前の平常時の顔を学習し、操作時の顔と、操作前の平常時の顔と比較して、認識状態を把握してもよい。この場合、操作前の平常時の顔と操作時の顔とがほとんど変化していない場合は、GUI部品を認識していると推定し、顔が変化している場合は、GUI部品を認識していると推定する。   If the operator does not correctly recognize the GUI component, a specific expression such as wrinkles between the eyebrows or narrowing of the eyes appears. In this way, a facial part (such as around the eyes) where a specific expression appears when the GUI part is not correctly recognized is used as a feature point, and is digitized to determine whether the GUI part is correctly recognized. . Specifically, a normal face before the touch panel operation is imaged by the camera 18, and characteristic parts that change when the GUI part cannot be recognized, such as a part between eyebrows and an eye part, are stored. Next, the face when the operator is operating the touch panel device 100A is captured by the camera 18, and compared with the normal time, the recognition state of the GUI component is estimated. When there is almost no change between the feature point portion of the face at the time of operation and the normal feature portion before the operation, it is determined that the GUI component is recognized, and the standing wave pattern is not generated. On the other hand, if there is a change in the characteristic part at the time of operation and the characteristic part in the normal state before the operation, it is estimated that the GUI component cannot be recognized, and a standing wave is generated. A normal face before the operation may be learned, and the recognition state may be grasped by comparing the face during the operation with the normal face before the operation. In this case, if there is almost no change between the normal face before the operation and the face at the time of the operation, it is estimated that the GUI component is recognized, and if the face is changed, the GUI component is recognized. It is estimated that

また、カメラ18の撮像画像と、指先の移動速度などの情報とを組み合わせて、GUI部品認識状態を推定してもよい。この場合、仮に、操作時に眉間にシワがよっているなど、操作時の顔が、操作前の平常時の顔から変化していても、GUI部品の位置を所定押圧力で押圧している場合は、GUI部品を認識していると推定し、定在波を生成しない。一方、操作時の顔が、操作前の平常時の顔から変化しており、操作パネルを指でなぞっているような状態の場合は、GUI部品を認識していないと推定し、定在波を生成する。   Further, the GUI component recognition state may be estimated by combining the captured image of the camera 18 and information such as the moving speed of the fingertip. In this case, even if the face at the time of operation changes from the normal face before the operation, such as wrinkles between the eyebrows at the time of operation, if the position of the GUI component is pressed with a predetermined pressing force It is assumed that the GUI component is recognized, and no standing wave is generated. On the other hand, when the face at the time of operation has changed from the normal face before the operation and the operation panel is traced with a finger, it is estimated that the GUI component is not recognized, and the standing wave Is generated.

以上、本実施形態のタッチパネル装置100によれば、自身の表面に操作体が接することで操作入力を受け付ける操作入力パネル17と、操作入力パネル17に対向して設けられ画像を表示する画像表示部たる液晶パネル2と、液晶パネル2に画像として表示させる操作部品たるGUI部品を生成する操作部品生成部たる画像表示回路7と、を備えている。また、液晶パネル2に表示されたGUI部品の位置に対応した操作入力パネル17の箇所に、GUI部品が触覚的に認識できるような振動を操作入力パネル17に発生させる振動発生手段たる圧電駆動装置5A、5Bと、GUI部品の位置に対する操作者の認識状態を推定する推定手段としての状態判定回路11と、状態判定回路11が推定した操作者の認識状態に基づいて、圧電駆動装置5A、5Bを制御する制御手段たる主制御装置9とを備えている。そして、状態判定回路11が、操作者がGUI部品を認識していると推定した場合は、圧電駆動装置5A、5Bの駆動を停止するよう制御する。これにより、GUI部品を認識している操作者に対しては、定在波が発生しないので、消費電力を抑えることができる。また、定在波が発生しなくても、GUI部品を認識している操作者は、迷うことなくタッチパネル装置100の操作を行うことができる。一方、GUI部品を認識していない操作者に対しては、定在波が発生するので、触覚でGUI部品の位置を認識することができ、GUI部品を認識していない操作者も、タッチパネル装置100の操作を行うことができる。   As described above, according to the touch panel device 100 of the present embodiment, the operation input panel 17 that receives an operation input when the operating body is in contact with its surface, and the image display unit that is provided to face the operation input panel 17 and displays an image. The liquid crystal panel 2 is an image display circuit 7 that is an operation component generation unit that generates a GUI component that is an operation component to be displayed as an image on the liquid crystal panel 2. In addition, a piezoelectric drive device serving as a vibration generating unit that generates vibrations on the operation input panel 17 so that the GUI parts can be tactilely recognized at locations on the operation input panel 17 corresponding to the positions of the GUI parts displayed on the liquid crystal panel 2. 5A, 5B, a state determination circuit 11 as estimation means for estimating the operator's recognition state with respect to the position of the GUI component, and the piezoelectric drive devices 5A, 5B based on the operator's recognition state estimated by the state determination circuit 11 And a main control device 9 which is a control means for controlling. When the state determination circuit 11 estimates that the operator recognizes the GUI component, the state determination circuit 11 controls to stop driving the piezoelectric drive devices 5A and 5B. As a result, a standing wave is not generated for the operator who recognizes the GUI component, so that power consumption can be suppressed. Further, even when no standing wave is generated, an operator who recognizes the GUI component can operate the touch panel device 100 without hesitation. On the other hand, since a standing wave is generated for an operator who does not recognize the GUI component, the position of the GUI component can be recognized by touch, and an operator who does not recognize the GUI component can also recognize the touch panel device. 100 operations can be performed.

また、状態判定回路11が、操作者がGUI部品を少し認識している(迷いが少ない)と推定したときの操作入力パネル17の箇所に発生させる振動の振幅を、状態判定回路11が、操作者が操作部品を全く認識していない(迷いがある)と推定したときの操作入力パネル17の箇所に発生させる振動の振幅よりも小さくなるよう圧電駆動装置5A、5Bを制御する。これにより、GUI部品を少し認識している操作者にとって振動は、GUI部品の位置を認識するための補助的な役割なので、振動が弱くても、十分にGUI部品の位置を認識することができる。これにより、操作者がGUI部品の操作を良好に行えるとともに、消費電力を抑えることができる。また、GUI部品を全く認識していない操作者のときは、振幅が大きいので触覚的にGUI部品の位置を良好に認識させることができる。これにより、部品を全く認識していない操作者もタッチパネル装置100を良好に操作することができる。   Further, the state determination circuit 11 operates the amplitude of the vibration generated at the position of the operation input panel 17 when the state determination circuit 11 estimates that the operator recognizes the GUI part a little (there is little hesitation). The piezoelectric driving devices 5A and 5B are controlled so as to be smaller than the amplitude of the vibration generated at the position of the operation input panel 17 when it is estimated that the user does not recognize the operation component at all (there is a doubt). As a result, the vibration is an auxiliary role for recognizing the position of the GUI component for the operator who recognizes the GUI component a little, so that the position of the GUI component can be sufficiently recognized even if the vibration is weak. . As a result, the operator can operate the GUI component satisfactorily and power consumption can be suppressed. Further, when the operator does not recognize the GUI component at all, the amplitude is large, so that the position of the GUI component can be recognized well in a tactile sense. As a result, an operator who does not recognize any component can also operate the touch panel device 100 satisfactorily.

また、状態判定回路11は、指先の操作入力パネル17との接触状態として、指の操作入力パネル面への押圧度合いに基づいて、GUI部品の位置に対する操作者の認識状態を推定する。GUI部品を認識している操作者は、GUI部品の位置を所定の押圧力で、押圧していくのに対し、GUI部品を認識していない人は、操作入力パネルを指でなぞりながら触覚的にGUI部品の位置を認識しようとするため、操作入力パネルへの押圧力が弱い。このように、GUI部品を認識している操作者と、GUI部品の位置を認識していない操作者とでは、指の操作入力パネル面への押圧度合いが異なる。よって、押圧度合いで、GUI部品を認識しているか否かを推定することができる。   Further, the state determination circuit 11 estimates the operator's recognition state with respect to the position of the GUI component based on the degree of pressing of the finger on the operation input panel surface as the contact state of the fingertip with the operation input panel 17. The operator who recognizes the GUI part presses the position of the GUI part with a predetermined pressing force, whereas the person who does not recognize the GUI part touches the operation input panel with his / her finger. In order to recognize the position of the GUI component, the pressing force to the operation input panel is weak. Thus, the degree of pressing of the finger on the operation input panel surface is different between the operator who recognizes the GUI component and the operator who does not recognize the position of the GUI component. Therefore, it is possible to estimate whether the GUI component is recognized based on the degree of pressing.

また、指先の操作入力パネル17との接触状態として、指の移動速度を用いてもよい。GUI部品を認識している操作者は、触覚でGUI部品の位置を確認する必要がないため、操作対象のGUI部品の位置へすばやく指を移動させるので移動速度が速い。一方、GUI部品を認識していない操作者は、触覚でGUI部品の位置を確認しながら操作対象のGUI部品の位置へ指を移動させるので移動速度は遅い。よって、指の移動速度から、GUI部品を認識しているか否かを推定することができる。また、移動速度を用いることで、操作対象のGUI部品に近づいて、移動速度が減少したら、操作対象のGUIの部品を触覚でも認識できるように、振動を発生することも可能となる。   Further, the moving speed of the finger may be used as the contact state of the fingertip with the operation input panel 17. Since the operator who recognizes the GUI component does not need to confirm the position of the GUI component by tactile sense, the operator can quickly move the finger to the position of the GUI component to be operated, so that the moving speed is fast. On the other hand, an operator who has not recognized the GUI component moves the finger to the position of the GUI component to be operated while confirming the position of the GUI component with a tactile sense, so the moving speed is slow. Therefore, it is possible to estimate whether or not the GUI component is recognized from the moving speed of the finger. Further, by using the moving speed, it is possible to generate vibration so that the GUI part to be operated can be recognized by tactile sensation when the moving speed decreases by approaching the GUI part to be operated.

さらに、指の操作入力パネルとの接触状態として、指の移動加速度を用いてもよい。GUI部品を認識している人は、一気に操作対象のGUI部品へ指を移動させるため、指の移動加速度が大きい。一方、GUI部品を認識していない操作者は、触覚でGUI部品の位置を確認しながら操作対象のGUI部品の位置へ指を移動するため、指の移動加速度が小さい。よって、指の移動加速度から、GUI部品を認識しているか否かを推定することができる。また、移動加速度を用いることで、操作対象のGUI部品に近づいて、移動加速度が負になったら、操作対象のGUIの部品を触覚でも認識できるように、振動を発生することも可能となる。   Furthermore, finger movement acceleration may be used as the contact state of the finger with the operation input panel. Since the person who recognizes the GUI component moves the finger to the GUI component to be operated at once, the movement acceleration of the finger is large. On the other hand, an operator who has not recognized the GUI component moves the finger to the position of the GUI component to be operated while confirming the position of the GUI component with a tactile sense, and thus the movement acceleration of the finger is small. Therefore, it is possible to estimate whether the GUI component is recognized from the movement acceleration of the finger. Further, by using the movement acceleration, it is possible to generate a vibration so that the GUI part to be operated can be recognized by tactile sensation when the movement acceleration becomes negative by approaching the operation target GUI part.

また、操作者が装置を操作しているときの操作者の顔を撮像する撮像手段たるカメラ18を備え、状態判定回路11は、カメラ18が撮像した顔画像に基づいて、GUI部品の位置に対する操作者の認識状態を推定してもよい。GUI部品を正しく認識していない操作者は、眉間にシワを寄せたり、目を細めたり、特徴的な表情をする。また、視覚に不自由がある操作者は、目線が操作入力パネル17に向いていない。このように、GUI部品を正しく認識していない操作者は、特徴的な表情や、特徴点な目線であるため、カメラ18が撮像した操作者が装置を操作しているときの操作者の顔により、GUI部品を認識しているか否かを推定することができる。   In addition, the camera 18 is provided as an imaging unit that captures an operator's face when the operator is operating the apparatus, and the state determination circuit 11 determines the position of the GUI component based on the face image captured by the camera 18. The recognition state of the operator may be estimated. An operator who does not recognize the GUI component correctly wrinkles between the eyebrows, narrows his eyes, or makes a characteristic expression. Further, an operator who is visually impaired does not have his / her eyes on the operation input panel 17. Thus, since the operator who does not recognize the GUI component correctly has a characteristic expression or a characteristic point of view, the operator's face when the operator imaged by the camera 18 is operating the apparatus. Thus, it can be estimated whether or not the GUI component is recognized.

2:液晶パネル
3:接触センサ
4:表面基板
5A,5B:圧電駆動装置
6:接触センサ処理回路
7:画像表示回路
8:駆動制御回路
9:主制御装置
11:状態判定回路
12:操作感生成回路
13:定在波生成回路
14:接触状態判定回路
15:認識状態判定回路
16:メモリバッファ
17:操作入力パネル
18:カメラ
19:画像演算処理回路
21:GUIボタン21
100:タッチパネル装置
233:定在波
2: Liquid crystal panel 3: Contact sensor 4: Surface substrate 5A, 5B: Piezoelectric drive device 6: Contact sensor processing circuit 7: Image display circuit 8: Drive control circuit 9: Main control device 11: State determination circuit 12: Operation feeling generation Circuit 13: Standing wave generation circuit 14: Contact state determination circuit 15: Recognition state determination circuit 16: Memory buffer 17: Operation input panel 18: Camera 19: Image arithmetic processing circuit 21: GUI button 21
100: Touch panel device 233: Standing wave

特開2005−149405号公報JP 2005-149405 A 特開2005−149197号公報JP 2005-149197 A

Claims (8)

自身の表面に操作体が接することで操作入力を受け付ける操作入力パネルと、
前記操作入力パネルに対向して設けられ画像を表示する画像表示部と、
前記画像表示部に画像として表示させる操作部品を生成する操作部品生成部と、を備え、
前記画像表示部に表示された前記操作部品の位置に対応した前記操作入力パネル上の位置に前記操作体を接触させて、前記操作体により前記操作部品を操作するタッチパネル装置において、
前記画像表示部に表示された前記操作部品の位置に対応した前記操作入力パネルの箇所に、前記操作部品が触覚的に認識できるような振動を前記操作入力パネルに発生させる振動発生手段と、
前記操作部品の位置に対する操作者の認識状態を推定する推定手段と、
前記推定手段が推定した操作者の認識状態に基づいて、前記振動発生手段を制御する制御手段とを備えたことを特徴とするタッチパネル装置。
An operation input panel that receives an operation input by contacting an operating body with its surface;
An image display unit provided opposite to the operation input panel and displaying an image;
An operation component generation unit that generates an operation component to be displayed as an image on the image display unit,
In the touch panel device in which the operation body is brought into contact with a position on the operation input panel corresponding to the position of the operation component displayed on the image display unit, and the operation component is operated by the operation body.
Vibration generating means for causing the operation input panel to generate vibration such that the operation component can be tactilely recognized at a position of the operation input panel corresponding to the position of the operation component displayed on the image display unit;
Estimating means for estimating the recognition state of the operator with respect to the position of the operation component;
A touch panel device comprising: control means for controlling the vibration generating means based on an operator's recognition state estimated by the estimating means.
請求項1のタッチパネル装置において、
前記制御手段は、前記推定手段が、操作者が操作部品を認識していると推定した場合は、前記振動発生手段の駆動を停止するよう制御することを特徴とするタッチパネル装置。
The touch panel device according to claim 1,
The touch panel device according to claim 1, wherein the control unit controls the driving of the vibration generating unit to stop when the estimation unit estimates that the operator recognizes the operation component.
請求項1または2のタッチパネル装置において、
前記制御手段は、前記推定手段が、操作者が操作部品を少し認識していると推定したときの前記操作部品の位置に対応した前記操作入力パネルの箇所に発生させる振動の振幅を、前記推定手段が、操作者が操作部品を全く認識していないと推定したときの前記操作部品の位置に対応した前記操作入力パネルの箇所に発生させる振動の振幅よりも小さくなるよう振動発生手段を制御することを特徴とするタッチパネル装置。
The touch panel device according to claim 1 or 2,
The control means is configured to estimate the amplitude of vibration generated at the position of the operation input panel corresponding to the position of the operation part when the estimation means estimates that the operator recognizes the operation part a little. The vibration control means controls the vibration generation means to be smaller than the amplitude of vibration generated at the position of the operation input panel corresponding to the position of the operation component when it is estimated that the operator does not recognize the operation component at all. A touch panel device characterized by that.
請求項1乃至3いずれかのタッチパネル装置において、
前記推定手段は、前記操作体の前記操作入力パネルとの接触状態に基づいて、前記操作部品の位置に対する前記操作者の認識状態を推定することを特徴とするタッチパネル装置。
The touch panel device according to any one of claims 1 to 3,
The said estimation means estimates the said operator's recognition state with respect to the position of the said operation component based on the contact state with the said operation input panel of the said operation body, The touch panel apparatus characterized by the above-mentioned.
請求項4のタッチパネル装置において、
前記操作体の前記操作入力パネルとの接触状態として、前記操作体の前記操作入力パネル面への押圧度合いを用いたことを特徴とするタッチパネル装置。
The touch panel device according to claim 4,
The touch panel device according to claim 1, wherein a degree of pressing of the operation body against the operation input panel surface is used as a contact state of the operation body with the operation input panel.
請求項4のタッチパネル装置において、
前記操作体の前記操作入力パネルとの接触状態として、前記操作体の移動速度を用いたことを特徴とするタッチパネル装置。
The touch panel device according to claim 4,
A touch panel device using a moving speed of the operating body as a contact state of the operating body with the operation input panel.
請求項4のタッチパネル装置において、
前記操作体の前記操作入力パネルとの接触状態として、前記操作体の移動加速度を用いたことを特徴とするタッチパネル装置。
The touch panel device according to claim 4,
A touch panel device, wherein a moving acceleration of the operating body is used as a contact state of the operating body with the operation input panel.
請求項1乃至7いずれかののタッチパネル装置において、
前記操作者が装置を操作しているときの操作者の顔を撮像する撮像手段を備え、
前記推定手段は、前記撮像手段が撮像した顔画像に基づいて、前記操作部品の位置に対する前記操作者の認識状態を推定することを特徴とするタッチパネル装置。
The touch panel device according to claim 1,
Comprising imaging means for imaging the face of the operator when the operator is operating the device;
The touch panel device is characterized in that the estimation means estimates a recognition state of the operator with respect to a position of the operation component based on a face image captured by the imaging means.
JP2010285453A 2010-07-14 2010-12-22 Touch panel device Expired - Fee Related JP5652711B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010285453A JP5652711B2 (en) 2010-07-14 2010-12-22 Touch panel device

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2010159528 2010-07-14
JP2010159528 2010-07-14
JP2010285453A JP5652711B2 (en) 2010-07-14 2010-12-22 Touch panel device

Publications (2)

Publication Number Publication Date
JP2012038289A true JP2012038289A (en) 2012-02-23
JP5652711B2 JP5652711B2 (en) 2015-01-14

Family

ID=45850178

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010285453A Expired - Fee Related JP5652711B2 (en) 2010-07-14 2010-12-22 Touch panel device

Country Status (1)

Country Link
JP (1) JP5652711B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014002490A1 (en) * 2012-06-26 2014-01-03 京セラ株式会社 Input device, control method and portable terminal device
JP2014186409A (en) * 2013-03-22 2014-10-02 Kyocera Corp Display device
JP2015219744A (en) * 2014-05-19 2015-12-07 Fdk株式会社 Vibration control device of piezoelectric element
JP2016033727A (en) * 2014-07-31 2016-03-10 京セラドキュメントソリューションズ株式会社 Touch panel apparatus and image forming apparatus including the same
JP6300891B1 (en) * 2016-12-12 2018-03-28 レノボ・シンガポール・プライベート・リミテッド INPUT DEVICE, INFORMATION PROCESSING DEVICE, INPUT DEVICE CONTROL METHOD, AND INPUT DEVICE CONTROL PROGRAM
US9952670B2 (en) 2015-08-11 2018-04-24 Konica Minolta, Inc. Operation panel and image forming apparatus including the same
JP2019215868A (en) * 2018-06-12 2019-12-19 イマージョン コーポレーションImmersion Corporation Device and method for providing localized haptic effect to display screen
JP2022009517A (en) * 2016-09-06 2022-01-14 アップル インコーポレイテッド Device, method, and graphical user interface that provide tactile feedback
US11735014B2 (en) 2016-06-12 2023-08-22 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5977867A (en) * 1998-05-29 1999-11-02 Nortel Networks Corporation Touch pad panel with tactile feedback
JP2002149312A (en) * 2000-08-08 2002-05-24 Ntt Docomo Inc Portable electronic equipment, electronic equipment, oscillation generator, reporting method by oscillation, and report control method
JP2008234007A (en) * 2007-03-16 2008-10-02 Mitsubishi Electric Corp Operation device
US20090292990A1 (en) * 2008-05-23 2009-11-26 Lg Electronics Inc. Terminal and method of control
JP2010009321A (en) * 2008-06-26 2010-01-14 Kyocera Corp Input device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5977867A (en) * 1998-05-29 1999-11-02 Nortel Networks Corporation Touch pad panel with tactile feedback
JP2002149312A (en) * 2000-08-08 2002-05-24 Ntt Docomo Inc Portable electronic equipment, electronic equipment, oscillation generator, reporting method by oscillation, and report control method
US20020149561A1 (en) * 2000-08-08 2002-10-17 Masaaki Fukumoto Electronic apparatus vibration generator, vibratory informing method and method for controlling information
JP2008234007A (en) * 2007-03-16 2008-10-02 Mitsubishi Electric Corp Operation device
US20090292990A1 (en) * 2008-05-23 2009-11-26 Lg Electronics Inc. Terminal and method of control
JP2010009321A (en) * 2008-06-26 2010-01-14 Kyocera Corp Input device

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014006755A (en) * 2012-06-26 2014-01-16 Kyocera Corp Input device, control method and portable terminal
US9594448B2 (en) 2012-06-26 2017-03-14 Kyocera Corporation Input device, control method and portable terminal device
WO2014002490A1 (en) * 2012-06-26 2014-01-03 京セラ株式会社 Input device, control method and portable terminal device
JP2014186409A (en) * 2013-03-22 2014-10-02 Kyocera Corp Display device
JP2015219744A (en) * 2014-05-19 2015-12-07 Fdk株式会社 Vibration control device of piezoelectric element
JP2016033727A (en) * 2014-07-31 2016-03-10 京セラドキュメントソリューションズ株式会社 Touch panel apparatus and image forming apparatus including the same
US9952670B2 (en) 2015-08-11 2018-04-24 Konica Minolta, Inc. Operation panel and image forming apparatus including the same
US11735014B2 (en) 2016-06-12 2023-08-22 Apple Inc. Devices, methods, and graphical user interfaces for providing haptic feedback
JP2022009517A (en) * 2016-09-06 2022-01-14 アップル インコーポレイテッド Device, method, and graphical user interface that provide tactile feedback
JP6300891B1 (en) * 2016-12-12 2018-03-28 レノボ・シンガポール・プライベート・リミテッド INPUT DEVICE, INFORMATION PROCESSING DEVICE, INPUT DEVICE CONTROL METHOD, AND INPUT DEVICE CONTROL PROGRAM
JP2018097520A (en) * 2016-12-12 2018-06-21 レノボ・シンガポール・プライベート・リミテッド Input device, information processing apparatus, method for controlling input device, and program for controlling input device
US11100771B2 (en) 2018-06-12 2021-08-24 Immersion Corporation Devices and methods for providing localized haptic effects to a display screen
JP2019215868A (en) * 2018-06-12 2019-12-19 イマージョン コーポレーションImmersion Corporation Device and method for providing localized haptic effect to display screen

Also Published As

Publication number Publication date
JP5652711B2 (en) 2015-01-14

Similar Documents

Publication Publication Date Title
JP5652711B2 (en) Touch panel device
JP5343871B2 (en) Touch panel device, display device with touch panel including the same, and control method for touch panel device
CN104423591B (en) System and method for the visual processes of spectrogram to generate haptic effect
US9436282B2 (en) Contactor-based haptic feedback generation
TWI294099B (en)
WO2015045063A1 (en) Drive control apparatus, electronic device, and drive control method
JP2019121396A (en) Device and method for dynamically associating user input with mobile device operation
US20100315364A1 (en) Portable Terminal
JP6246640B2 (en) Electronics
JP6037030B2 (en) Electronic device and verification method in electronic device
EP3096206A1 (en) Haptic effects based on predicted contact
WO2015121955A1 (en) Electronic device, input device, and drive control method
JP2011221676A (en) Information presentation device, touch sensation presentation method and program
JPWO2014141763A1 (en) Touch panel system
US20180011538A1 (en) Multimodal haptic effects
TW201113769A (en) Electrical device with touch panel and operating method thereof
JP2012003690A (en) User interface
JP2011146006A (en) Input device and electronic apparatus
KR20120115159A (en) Tactile feedback method and apparatus
JP6011605B2 (en) Information processing device
TW201133301A (en) Operation method of electronic device
JP6402823B2 (en) Drive control apparatus, electronic device, drive control program, and drive control method
TW201209692A (en) Haptic presentation device
WO2016092644A1 (en) Electronic device and drive control method
JP6300891B1 (en) INPUT DEVICE, INFORMATION PROCESSING DEVICE, INPUT DEVICE CONTROL METHOD, AND INPUT DEVICE CONTROL PROGRAM

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20131111

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140618

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140718

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20141024

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20141106

R151 Written notification of patent or utility model registration

Ref document number: 5652711

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees