JP2005092472A - Display device equipped with touch panel - Google Patents

Display device equipped with touch panel Download PDF

Info

Publication number
JP2005092472A
JP2005092472A JP2003323903A JP2003323903A JP2005092472A JP 2005092472 A JP2005092472 A JP 2005092472A JP 2003323903 A JP2003323903 A JP 2003323903A JP 2003323903 A JP2003323903 A JP 2003323903A JP 2005092472 A JP2005092472 A JP 2005092472A
Authority
JP
Japan
Prior art keywords
touch
displayed
touch panel
display screen
operation button
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2003323903A
Other languages
Japanese (ja)
Other versions
JP4039344B2 (en
Inventor
Takashi Hoshino
剛史 星野
Takeru Minemoto
長 峯元
Arihito Tsukada
有人 塚田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2003323903A priority Critical patent/JP4039344B2/en
Publication of JP2005092472A publication Critical patent/JP2005092472A/en
Application granted granted Critical
Publication of JP4039344B2 publication Critical patent/JP4039344B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To simplify the visual and tactile recognition of the touch or operation of a desired touch operation area on a display picture equipped with a touch panel. <P>SOLUTION: In the transition of a state that a region where any touch operation member is not displayed is touched by an instructing means to a state that a region where a touch operation member is displayed is touched by the instructing means, a display picture is moved to a predetermined first height, and when pressurizing power P is not less than a predetermined value in a state that the region where the touch operation member is displayed is touched by the instructing means, the display picture is moved to a predetermined second height, and the function of the touch operation member is executed. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、据置型や携帯型などの端末装置に用いられるタッチパネルを備えた表示装置に関する。   The present invention relates to a display device provided with a touch panel used in a stationary or portable terminal device.

近年、各種業界では、端末装置が広く使用されるようになってきている。例えば、銀行などでATM(Automatic Tellers Machine:自動預入支払機)が、駅などでは券売機や地図案内機が夫々設置され、銀行や駅などの業務の一部を端末装置で賄うことができるようにしている。また、ファーストフード店などの店舗においても、商品の注文処理に端末装置を用いるようにする場合もあり、さらに、インターネットなどの通信ネットワークを利用してコンテンツの配信を受ける端末装置やウェブ閲覧(ブラウズ)用の端末装置なども実現あるいは提案されている。   In recent years, terminal devices have been widely used in various industries. For example, ATMs (Automatic Tellers Machines) are installed at banks, and ticket machines and map guides are installed at stations, etc., so that a part of business such as banks and stations can be covered by terminal devices. I have to. Also, in stores such as fast food restaurants, terminal devices may be used for merchandise order processing, and terminal devices that receive content distribution using a communication network such as the Internet or web browsing (browsing). ) Terminal devices and the like have also been realized or proposed.

ところで、このような端末装置では、表示装置が設けられており、その表示画面に表示されるメッセージなどの情報を見ながらキーボードなどの入力手段を操作することにより、上記のような各種の作業ができるようにしているが、表示画面に入力手段としての機能を持たせ、その表示画面に表示されるメッセージやメニューなどにしたがって画面操作を行なうことにより、各種の作業を実行することができるようにしたタッチパネルを備えた表示装置が用いられるようになってきている。   By the way, in such a terminal device, a display device is provided, and various operations as described above can be performed by operating input means such as a keyboard while viewing information such as messages displayed on the display screen. The display screen has a function as an input means, and various operations can be performed by operating the screen according to messages and menus displayed on the display screen. Display devices having a touch panel have been used.

このようなタッチパネルを備えた表示装置によると、その表示画面に直接指先を触れて操作を行なうものであるから、操作がし易く、操作の間違いが少ない、という優れた操作性を実現することができるし、また、キーボードなどの操作部も、操作ボタンの数を少なくすることができるので、端末装置自体を小型化でき、設置面積も狭くできて、店内や構内などでの設置場所の自由度が高まるといったようなメリットも得られることになる。   According to such a display device equipped with a touch panel, since the operation is performed by directly touching the display screen with a fingertip, it is easy to operate and there are few operational errors. In addition, the operation unit such as the keyboard can reduce the number of operation buttons, so the terminal device itself can be downsized, the installation area can be reduced, and the degree of freedom of installation location in the store or on the premises Benefits such as increased will also be obtained.

特開平5ー216587号公報Japanese Patent Laid-Open No. 5-216587

しかし、従来のタッチパネルを備えた表示装置では、その表示画面に操作ボタン(タッチボタン)などのタッチ操作部材からなる入力手段の画像を表示することにより、その入力手段を顧客やユーザの視覚で認識させ、この認識のもとに、この入力手段の画像の操作したいと思われる個所をタッチして操作するものであるから、次のような問題が生ずる。   However, in a display device equipped with a conventional touch panel, an image of an input unit made of a touch operation member such as an operation button (touch button) is displayed on the display screen, so that the input unit is recognized visually by a customer or a user. Then, based on this recognition, the operation is performed by touching the place where the image of the input means is desired to be operated, and the following problems arise.

まず、ユーザがタッチ操作するためのタッチ操作部材のタッチ操作エリアは、表示画面に表示されたものであるから、そのタッチ操作エリア以外の部分と同じ平面上にあり、キーボードなどの操作部とは違って、タッチ操作エリアをタッチした感じとそれ以外の部分をタッチした感じとは同じである。このため、指先でタッチした位置が所望とするタッチ操作エリアからずれても、気が付かない場合
もあり得る。
First, since the touch operation area of the touch operation member for the user to perform a touch operation is displayed on the display screen, the touch operation area is on the same plane as the part other than the touch operation area. Differently, the feeling of touching the touch operation area is the same as the feeling of touching the other parts. For this reason, even if the position touched with the fingertip deviates from a desired touch operation area, it may not be noticed.

特に、タッチ操作部材として、案内のメッセージなどとともに、いくつかの操作ボタンを表示する場合には、これら操作ボタンを表示画面のあちこちに表示する場合があり、このように表示される操作ボタンを操作する場合には、指先のタッチ位置が所望とする操作ボタンの表示位置からずれる場合もあり得る。このようなずれがわずかであっても、この操作ボタンはタッチされなかったことになり、機能しない。しかし、ユーザとしては、その操作ボタンにタッチしたつもりであり、タッチしていないことに気が付かない場合もある。このため、再度同じ操作スイッチをタッチする操作をすることになるが、このためには、タッチしなかったと認識することが必要であり、しかし、この認識にある程度の時間を要することになる、という問題があった。   In particular, when several operation buttons are displayed as a touch operation member with a guidance message, etc., these operation buttons may be displayed around the display screen, and the operation buttons displayed in this way are operated. In this case, the touch position of the fingertip may deviate from the desired display position of the operation button. Even if such a deviation is slight, this operation button is not touched and does not function. However, the user intends to touch the operation button, and may not notice that the operation button is not touched. For this reason, the same operation switch will be touched again. For this purpose, it is necessary to recognize that the touch switch has not been touched, but this recognition will require a certain amount of time. There was a problem.

また、多くの操作ボタンが互いに近接して表示画面に同時に表示するような場合もあり、このような場合には、各操作ボタンは比較的小さく表示されるので、指先のタッチ位置が所望とする操作ボタンの表示位置からわずかでもずれると、隣の操作ボタンにタッチしてしまうこともある。従来のタッパネルを備えた表示装置は、表示される操作ボタンがタッチされると、直ちに機能するように構成されているので、タッチ位置がずれて隣の操作ボタンにタッチすると、この隣の操作ボタンが機能してしまい、この機能を停止させて再度操作をし直さなければならない、という問題があった。   In addition, many operation buttons may be displayed close to each other on the display screen at the same time. In such a case, each operation button is displayed in a relatively small size, so that the touch position of the fingertip is desired. If the display position of the operation button slightly deviates, the adjacent operation button may be touched. A display device having a conventional touch panel is configured to function immediately when a displayed operation button is touched, so that when the touch position is shifted and the adjacent operation button is touched, this adjacent operation button is displayed. Functioned, and there was a problem that this function had to be stopped and then operated again.

本発明の目的は、かかる問題を解消し、表示画面に表される操作ボタンなどのタッチ操作部材を指先などでタッチしたことを容易に認識でき、しかも、該タッチ操作部材を操作したことを容易にかつ確実に認識できるようにしたタッチパネルを備えた表示装置を提供することにある。   An object of the present invention is to solve such a problem and easily recognize that a touch operation member such as an operation button displayed on a display screen is touched with a fingertip or the like, and further, easily operate the touch operation member. It is another object of the present invention to provide a display device including a touch panel that can be reliably recognized.

上記目的を達成するために、本発明は、表示パネルの表示画面に指示手段のタッチ位置を検出するタッチパネルが設けられ、該表示画面に表示されるタッチ操作部材をタッチして操作できるようにしたタッチパネルを備えた表示装置であって、該タッチ操作部材をタッチ操作する際の該指示手段による押圧力Pを検知する検知手段と、前記指示手段が該タッチ操作部材が表示されていない領域をタッチした状態から該タッチ操作部材が表示されている領域をタッチした状態となった時に、該表示画面を所定の第一の高さに移動させる処理を行い、前記指示手段が該タッチ操作部材が表示されている領域をタッチした状態で押圧力Pが所定値以上の値である場合に、該表示画面を所定の第二の高さに移動させる処理を行うとともに該タッチ操作部材の機能を実行させる制御部とを有するものである。   In order to achieve the above object, according to the present invention, a touch panel for detecting the touch position of the instruction means is provided on the display screen of the display panel, and the touch operation member displayed on the display screen can be touched and operated. A display device including a touch panel, wherein a detection unit that detects a pressing force P by the instruction unit when the touch operation member is touch-operated, and the instruction unit touches an area where the touch operation member is not displayed. When the area where the touch operation member is displayed is touched, the display screen is moved to a predetermined first height, and the instruction means displays the touch operation member. When the pressing force P is equal to or greater than a predetermined value while the touched area is touched, the touch operation is performed while the display screen is moved to a predetermined second height. In which a control unit for executing the function of the wood.

そして、第一の高さは、表示画面の直前の状態の高さよりも相対的に高い高さであり、第二の高さは、表示画面の直前の状態の高さよりも相対的に低い高さであるものである。   The first height is a height that is relatively higher than the height immediately before the display screen, and the second height is a height that is relatively lower than the height immediately before the display screen. That's what it is.

以上説明したように、本発明によると、所望とするタッチ操作部材を押し込んだことを、触覚的に、容易にかつ確実に確認することもできる。   As described above, according to the present invention, it is possible to easily and surely confirm that the desired touch operation member has been pushed in.

以下、本発明の実施形態を図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明によるタッチパネルを備えた表示装置の第1の実施形態を示す構成図であって、同図(a)は外観斜視図、同図(b)は側面図、同図(c)は断面図であり、1は筐体、1aは開口、2は表示画面、3は取付部、4はスタンド、5は回転軸、6はピン穴、7はピン、8は表示パネル、8aは表示面、9はタッチパネル、10,10a,10bは支持部材、11は駆動モータ、12は回転歯車、13は平歯車、14はリンク機構、14a,14bはリンク、14c,14dは支持部材、15,16は引張りバネである。   FIG. 1 is a block diagram showing a first embodiment of a display device having a touch panel according to the present invention. FIG. 1 (a) is an external perspective view, FIG. 1 (b) is a side view, and FIG. Is a housing, 1a is an opening, 2 is a display screen, 3 is a mounting portion, 4 is a stand, 5 is a rotating shaft, 6 is a pin hole, 7 is a pin, 8 is a display panel, and 8a is a display panel. Display surface, 9 is a touch panel, 10, 10a and 10b are support members, 11 is a drive motor, 12 is a rotating gear, 13 is a spur gear, 14 is a link mechanism, 14a and 14b are links, 14c and 14d are support members, 15 , 16 are tension springs.

同図において、箱型の筐体1の前面に矩形状の開口1aが形成されており、この開口1aに表示画面2が設けられている。この表示画面2に、図示しないが、操作ボタンやメッセージなどのタッチ操作できる部材(以下、タッチ操作部材という)が表示され、かかるタッチ操作部材をタッチ操作することにより、この実施形態である表示装置を利用した装置(例えば、後述するATMや券売機など)を動作させることができる。   In the figure, a rectangular opening 1a is formed on the front surface of a box-shaped housing 1, and a display screen 2 is provided in the opening 1a. Although not shown in the figure, a member (hereinafter referred to as a touch operation member) such as an operation button or a message is displayed on the display screen 2, and the display device according to this embodiment is operated by touching the touch operation member. Can be operated (for example, an ATM or a ticket vending machine described later).

この筐体1の開口1aとは反対側の背面側には、取付部3が一体に設けられており、この取付部3が回転軸5を介してスタンド4に取り付けられている。この取付部3は、従って、筐体1は、スタンド4に対して、この回転軸5を中心に回動可能であり、筐体1をこのように回動させることにより、表示画面2の上下方向の向きを変えることができる。   An attachment portion 3 is integrally provided on the back side opposite to the opening 1 a of the housing 1, and the attachment portion 3 is attached to the stand 4 via the rotation shaft 5. Accordingly, the mounting portion 3 can rotate the housing 1 around the rotation shaft 5 with respect to the stand 4, and by rotating the housing 1 in this manner, You can change the direction of the direction.

表示画面2の向きを連続的に変えることができるようにしてもよいが、ここでは、段階的に変化できるようにしている。このために、図1(b)に示すように、取付部3の側面部に、回転軸5を中心として複数のピン穴6が設けられており、これらピン穴6の配列線上の一点に対向して、このピン穴6に嵌り込むピン7がスタンド4に押し込み可能に設けられている。筐体1を回転軸5を中心に回動させ、表示画面2を所定の向きにすると、ピン7がこれに近いピン穴6に嵌め込むことができ、表示画面2はほぼこの所定の向きで安定化する。   Although the orientation of the display screen 2 may be changed continuously, it can be changed stepwise here. For this purpose, as shown in FIG. 1 (b), a plurality of pin holes 6 are provided on the side surface of the mounting portion 3 around the rotating shaft 5, and one point on the array line of these pin holes 6 is opposed. A pin 7 fitted into the pin hole 6 is provided so as to be pushed into the stand 4. When the housing 1 is rotated about the rotation shaft 5 and the display screen 2 is set in a predetermined direction, the pin 7 can be fitted into the pin hole 6 close thereto, and the display screen 2 is almost in this predetermined direction. Stabilize.

このように、ピン穴6とピン7とは、表示画面の向き(角度)を調整手段を構成しており、ピン穴6の個数分だけ、表示画面2の向きを変えることができる。   Thus, the pin hole 6 and the pin 7 constitute a means for adjusting the orientation (angle) of the display screen, and the orientation of the display screen 2 can be changed by the number of the pin holes 6.

この筐体1内では、図1(c)に示すように、表示手段を形成する表示パネル8とタッチパネル9とからなる表示手段が内蔵されており、この表示パネル8の表示面8aとタッチパネル9とで表示画面2を形成している。タッチパネル9は、この表示部8aに対向し、その周辺部が支持部材10によって表示パネル8で支持されている。   As shown in FIG. 1 (c), the housing 1 incorporates display means including a display panel 8 that forms display means and a touch panel 9, and the display surface 8 a of the display panel 8 and the touch panel 9. And the display screen 2 is formed. The touch panel 9 faces the display portion 8a, and the peripheral portion thereof is supported by the display panel 8 by the support member 10.

筐体1内には、また、表示画面2を筐体1の開口1aに対して前後に移動させるための移動機構を備え、タッチパネル9での指先などによる押圧力に応じて表示画面2を開口1aから引っ込めることができるようにしている。   The housing 1 is also provided with a moving mechanism for moving the display screen 2 back and forth with respect to the opening 1a of the housing 1, and the display screen 2 is opened according to the pressing force by a fingertip or the like on the touch panel 9. It can be withdrawn from 1a.

この移動機構は、図1(c)において、駆動モータ11やリンク機構14などを用いて構成され、筐体1内の表示パネル8よりも奥部に配置されている。   In FIG. 1 (c), this moving mechanism is configured using the drive motor 11, the link mechanism 14, and the like, and is disposed behind the display panel 8 in the housing 1.

この移動機構の一具体的な構成例としては、駆動モータ11の回転軸に回転歯車12が固定されており、この回転歯車に平歯車13が噛合している。この平歯車13の一方の端部にリンク機構14が取り付けられている。このリンク機構14は、互いにほぼ反対方向に配置されて夫々の一端が平歯車13に回動可能に取り付けられた2つのリンク14a,14bと、リンク14aのほぼ中央部を支持する支持部材14cと、リンク14bのほぼ中央部と回動可能にリンクしてこのリンク14bを支持する支持部材14aとからなり、リンク14aの他端で表示パネル8の一方側の支持部材10aを支持し、リンク14bの他端が表示パネル8の他方側の支持部材10bと回動可能にリンクしている。   As a specific configuration example of the moving mechanism, a rotating gear 12 is fixed to a rotating shaft of the drive motor 11, and a spur gear 13 is engaged with the rotating gear. A link mechanism 14 is attached to one end of the spur gear 13. The link mechanism 14 includes two links 14a and 14b that are arranged in substantially opposite directions and whose one ends are rotatably attached to the spur gear 13, and a support member 14c that supports a substantially central portion of the link 14a. The link 14b includes a support member 14a that rotatably supports the link 14b, and supports the link 14b. The other end of the link 14a supports the support member 10a on one side of the display panel 8, and the link 14b. The other end of the display panel is rotatably linked to the support member 10b on the other side of the display panel 8.

また、平歯車13の他端は、引張りバネ15により、図面上回転歯車12を中心として反時計廻り方向に引っ張られており、これにより、平歯車13は回転歯車12に押し付けられている。さらに、リンク機構14を常に良好なバランス状態に維持するための引張りバネ16も設けられている。   Further, the other end of the spur gear 13 is pulled in the counterclockwise direction around the rotating gear 12 in the drawing by a tension spring 15, whereby the spur gear 13 is pressed against the rotating gear 12. Furthermore, a tension spring 16 is also provided to keep the link mechanism 14 in a good balance state at all times.

表示パネル8とタッチパネル9とからなる表示手段は、かかるリンク機構14により、タツチパネル9が筐体1の開口1aの近傍に位置するように、支持されている。   The display means including the display panel 8 and the touch panel 9 is supported by the link mechanism 14 so that the touch panel 9 is positioned in the vicinity of the opening 1 a of the housing 1.

図2は上記移動機構の動作を示す図であり、図1に対応する部分には同一符号をつけている。   FIG. 2 is a view showing the operation of the moving mechanism, and the same reference numerals are given to portions corresponding to FIG.

図2(a)は表示画面2の初期状態を示すものであって、平歯車13が最も奥側に移動した状態、即ち、平歯車13が、そのリンク14a,14b側の端部で回転歯車12と噛み合った状態にある。この状態では、リンク14a,14bの平歯車13側端部がこの平歯車13によって引っ張られ、リンク14aは支持部材14cを中心に時計廻り方向に、また、リンク14bは支持部材14dを中心に反時計廻り方向に夫々回動した状態にあり、これにより、これらリンク14a,14bによって支持部材10a,10bが持ち上げられて表示画面のタッチパネル9が開口1aに当接もしくは開口1aに近接して配置されている。   FIG. 2 (a) shows the initial state of the display screen 2, where the spur gear 13 is moved to the farthest side, that is, the spur gear 13 is a rotating gear at the end of its link 14a, 14b side. 12 is engaged. In this state, the spur gear 13 side ends of the links 14a and 14b are pulled by the spur gear 13, the link 14a is rotated in the clockwise direction around the support member 14c, and the link 14b is counteracted around the support member 14d. The support members 10a and 10b are lifted by the links 14a and 14b, and the touch panel 9 of the display screen is in contact with the opening 1a or arranged close to the opening 1a. ing.

駆動モータ11が時計廻り方向に所定回転量だけ回転すると、図2(b)に示すように、平歯車13が表示パネル8側に移動し、リンク14a,14bの端部がこの平歯車13によって表示パネル8側に押される。この結果、リンク14aは支持部材14cを中心に反時計廻り方向に、また、リンク14bは支持部材14dを中心に時計廻り方向に夫々回動し、表示パネル8は矢印A方向に移動し、表示画面2が開口1aから後退する(引き込む)ことになる。   When the drive motor 11 rotates in the clockwise direction by a predetermined rotation amount, the spur gear 13 moves to the display panel 8 side as shown in FIG. 2B, and the ends of the links 14a and 14b are moved by the spur gear 13. It is pushed to the display panel 8 side. As a result, the link 14a rotates counterclockwise around the support member 14c, and the link 14b rotates clockwise around the support member 14d, and the display panel 8 moves in the direction of arrow A to display The screen 2 is retracted (drawn) from the opening 1a.

駆動モータ11が時計廻り方向に最大限回転したときには、図2(c)に示すように、平歯車13がその引張りバネ15側の端部で回転歯車12と噛み合う状態となる。この状態では、リンク14a,14bが上記の方向に最大限回動し、この結果、表示パネル8は矢印A方向に最大限移動したことになり、表示画面2が開口1aから最大限引っ込んだ状態となる。   When the drive motor 11 rotates to the maximum in the clockwise direction, the spur gear 13 is engaged with the rotating gear 12 at the end on the tension spring 15 side, as shown in FIG. In this state, the links 14a and 14b rotate to the maximum in the above direction, and as a result, the display panel 8 has moved to the maximum in the direction of the arrow A, and the display screen 2 is retracted to the maximum from the opening 1a. It becomes.

図2(b),(c)に示す状態から駆動モータ11が反時計廻り方向に回転すると、最終的には、図2(a)に示す初期状態に戻る。ここで、駆動モータ11は角度センサを備えており、常に自身の回転角を検知してその回転角を制御することができるようにしている。   When the drive motor 11 rotates counterclockwise from the state shown in FIGS. 2B and 2C, it finally returns to the initial state shown in FIG. Here, the drive motor 11 is provided with an angle sensor, and can always detect its own rotation angle and control the rotation angle.

なお、ここでは、リンク機構14の駆動手段として、歯車機構を用いたが、カムなどの他の機構を用いるようにしてもよい。   Here, although a gear mechanism is used as the driving means of the link mechanism 14, other mechanisms such as a cam may be used.

図3は図1における筐体1内の移動機構を有する表示手段の他の具体例を概略的に示す断面図である。そして、図3(a)は表示装置を移動させず、タッチパネル部のみを移動可能としたものであり、表示装置8はブラウン管,液晶パネルあるいはプラズマ表示パネルである。また、図3(b)は液晶プロジェクタなどのプロジェクタの場合であり、表示パネル8として液晶パネルやブラウン管などの場合である。ここで、17は映出装置、18はミラーであり、前出図面に対応する部分には同一符号をつけている。   FIG. 3 is a sectional view schematically showing another specific example of the display means having the moving mechanism in the housing 1 in FIG. FIG. 3A shows that only the touch panel unit can be moved without moving the display device, and the display device 8 is a cathode ray tube, a liquid crystal panel, or a plasma display panel. FIG. 3B shows a projector such as a liquid crystal projector, and the display panel 8 is a liquid crystal panel or a cathode ray tube. Here, 17 is a projection device, 18 is a mirror, and parts corresponding to those in the previous drawings are given the same reference numerals.

図3(a)において、筐体1内では、表示パネル8が支持部材10によって支持されており、タッチパネル9がリンク機構14によって支持され、図2で説明したように、移動可能となっている。   3A, in the housing 1, the display panel 8 is supported by the support member 10, and the touch panel 9 is supported by the link mechanism 14, and is movable as described in FIG. .

タッチパネル9は、表示面8a全体を覆う透明な膜を設けた構成をなしており、ユーザが指先などでタッチしたことを検知して(タッチ検知:これは、タッチパネル9に指先がタッチしたことを検知する従来のタッチパネルと同様の機能である)、そのタッチ位置を検出する(位置検出:これは、タッチパネル9に指先がタッチした位置を検知する従来のタッチパネルと同様の機能である)ものであるが、さらに、この具体例では、このタッチしたときの圧力を検出する(圧力検出の)機能も備えている。この圧力検出の機能を持たせる方法としては、タッチパネル9自体に圧力センサを設けて圧力を検出するようにするが、かかる圧力センサは、タッチパネル9でのリンク機構14の取付け部など、押圧力を検知できる位置であれば、いずれの位置に取り付けてもよい。この実施形態では、移動させる部分が軽いために、移動機構が小規模で済むことになる。タッチパネル9と表示パネル8との位置関係が視差の影響の小さい範囲内で使用すると、効果的である。   The touch panel 9 has a configuration in which a transparent film that covers the entire display surface 8a is provided, and detects that the user has touched with a fingertip or the like (touch detection: this indicates that the fingertip has touched the touch panel 9). The touch position is detected (position detection: this is the same function as the conventional touch panel that detects the position where the fingertip touches the touch panel 9). However, this specific example also has a function of detecting the pressure when touched (for pressure detection). As a method for providing this pressure detection function, a pressure sensor is provided on the touch panel 9 itself so as to detect the pressure. Such a pressure sensor is used to apply a pressing force such as a mounting portion of the link mechanism 14 on the touch panel 9. It may be attached to any position as long as it can be detected. In this embodiment, since the part to be moved is light, the moving mechanism is small. It is effective if the positional relationship between the touch panel 9 and the display panel 8 is used within a range where the influence of parallax is small.

図3(b)に示す具体例では、筐体1内に、映像を発生する液晶パネルやブラウン管などからなる映出装置17とミラー18とスクリーン(図示せず)とからなるプロジェクタが設けられており、このスクリーンの外側にこれと一体にタッチパネル9が設けられている。これらスクリーンとタッチパネル9とは、リンク機構14でもって筐体1の開口1a近傍に支持されている。   In the specific example shown in FIG. 3B, a projector including a projection device 17 including a liquid crystal panel that generates an image, a cathode ray tube, a mirror 18 and a screen (not shown) is provided in the housing 1. In addition, a touch panel 9 is integrally provided on the outside of the screen. The screen and the touch panel 9 are supported in the vicinity of the opening 1 a of the housing 1 by the link mechanism 14.

映出装置17には、図示しない投写レンズが設けられており、映出装置17からの映像はミラー18を介してスクリーンに投写されるが、投写レンズにより、スクリーンに投写される映像は拡大されている。なお、映出装置17が直接スクリーンに対向して設けられる場合には、ミラー18を省くことができる。   The projection device 17 is provided with a projection lens (not shown), and the image from the projection device 17 is projected onto the screen via the mirror 18. The projection lens magnifies the image projected onto the screen. ing. When the projection device 17 is provided directly opposite the screen, the mirror 18 can be omitted.

この具体例も、タッチパネル9へのタッチ検出,タッチ位置検出のほかに、タッチパネル9にタッチしたときの圧力を検出する(圧力検出)の機能も備えている。この圧力検出の機能を持たせる方法としては、タッチパネル9にタッチ検知とこれによるタッチ位置の位置検出とタッチ位置での圧力検出との機能を持たせるものであり、あるいはリンク機構14とタツチパネル9との間に圧力センサを
設け、これにより、圧力検出を行なうようにしてもよい。
This specific example also has a function of detecting the pressure when the touch panel 9 is touched (pressure detection) in addition to the touch detection and touch position detection on the touch panel 9. As a method of providing this pressure detection function, the touch panel 9 is provided with functions of touch detection, detection of the position of the touch position and detection of pressure at the touch position, or the link mechanism 14 and the touch panel 9. A pressure sensor may be provided between the two so as to detect pressure.

但し、タッチパネル9で指先のタッチ位置が検出されたとき、指先がタッチパネル9にタッチされたと判定するようにしてもよい。この実施形態は、移動機構も小規模であり、視差のない。スクリーン自体が移動するため、投影後の位置,大きさの変化が少ない範囲内で使用すると、効果的である。   However, when the touch position of the fingertip is detected on the touch panel 9, it may be determined that the fingertip is touched on the touch panel 9. In this embodiment, the moving mechanism is also small and has no parallax. Since the screen itself moves, it is effective if it is used within a range where there is little change in the position and size after projection.

図4はこの第1の実施形態でのタッチパネル9に対する指先の状態を示す図であり、同図(a)は指先19がタッチパネル9に触れていない状態、同図(b),(c)はタッチパネル9に指先19が触れた状態を夫々示している。そして、同図(b)は指先19がタッチパネル9に軽く触った状態であり、同図(c)は指先19がタッチパネル9に強く押し込むようにして触った状態である。以下、指示手段として指先を例に説明するが、ペンやペン型の入力デバイスなどの他の入力手段であってもよい。   FIG. 4 is a diagram showing a state of a fingertip with respect to the touch panel 9 in the first embodiment. FIG. 4A shows a state in which the fingertip 19 is not touching the touch panel 9, and FIG. 4B and FIG. The state where the fingertip 19 touches the touch panel 9 is shown. FIG. 5B shows a state in which the fingertip 19 touches the touch panel 9 lightly, and FIG. 5C shows a state in which the fingertip 19 touches the touch panel 9 strongly. Hereinafter, the fingertip is described as an example of the instruction means, but other input means such as a pen or a pen-type input device may be used.

また、図5は上記の圧力センサが検出する圧力に対する図4に示す指先19の状態の判定(この判定は、後述する制御部によってなされる)を示す図であり、横軸にタッチパネル9にかかる圧力(タッチパネル9を押す力:以下、押圧力という)Pを示し、縦軸に押圧力Pに対する判定結果を示す。   FIG. 5 is a diagram showing determination of the state of the fingertip 19 shown in FIG. 4 with respect to the pressure detected by the pressure sensor (this determination is made by a control unit described later), and the horizontal axis is applied to the touch panel 9. The pressure (force for pressing the touch panel 9: hereinafter referred to as a pressing force) P is shown, and the determination result for the pressing force P is shown on the vertical axis.

図5において、予め弱い圧力P1の値と強い圧力P2の値とが設定されており、タッチパネル9への押圧力Pが0≦P<P1のとき、タッチパネル9への押圧力無し(反応無し:タッチされていない)とし、P1≦P<P2のとき、タッチパネル9にタッチされたと判定し(上記の「タッチ検知」)、そのタッチ位置の検出が行なわれる。また、押圧力PがP2≦Pのときには、タッチパネル9には、これが押し込まれるような強い押圧力が掛かったことになり、タッチパネル9が押し込まれたと判定する(上記の「圧力検知」)。   In FIG. 5, when the value of the weak pressure P1 and the value of the strong pressure P2 are set in advance, and the pressure P to the touch panel 9 is 0 ≦ P <P1, no pressure is applied to the touch panel 9 (no reaction: If P1 ≦ P <P2, it is determined that the touch panel 9 has been touched (the above “touch detection”), and the touch position is detected. Further, when the pressing force P is P2 ≦ P, it is determined that a strong pressing force is applied to the touch panel 9 so that the touch panel 9 is pressed (the “pressure detection” described above).

図4(a)に示す状態は、図5での0≦P<P1の状態を示すものであって、この状態では、タッチパネル9にタッチされていないと判定される。また、図4(b)は指先19がタッチパネル9にタッチした状態を示すものであるが、このとき、0≦P<P1であれば、図5から、タッチパネル9にタッチされていないと判定するし、P1≦P<P2であれば、タッチパネル9にタッチされただけで押し込まれてはいないと判定される。図4(c)は指先19でタッチパネル9を押し込むようにタッチした状態を示すものであり、図5において、P2≦Pの状態である。このときには、タッチパネル9が押し込まれると判定される。   The state shown in FIG. 4A indicates a state of 0 ≦ P <P1 in FIG. 5, and in this state, it is determined that the touch panel 9 is not touched. FIG. 4B shows a state in which the fingertip 19 has touched the touch panel 9. At this time, if 0 ≦ P <P1, it is determined from FIG. 5 that the touch panel 9 has not been touched. If P1 ≦ P <P2, it is determined that the touch panel 9 has only been touched and has not been pressed. FIG. 4C shows a state in which the touch panel 9 is touched with the fingertip 19 and is in a state of P2 ≦ P in FIG. At this time, it is determined that the touch panel 9 is pushed.

以上のようにして、この実施形態では、タツチパネル9の圧力による2段階検知を可能としている。   As described above, in this embodiment, two-stage detection based on the pressure of the touch panel 9 is possible.

なお、上記の圧力P1(>0)は、例えば、振動などによってタッチパネル9に不当な圧力が掛かった場合、タッチパネル9がタッチされたという誤判定を防止するために設定されたものである。   The pressure P1 (> 0) is set to prevent an erroneous determination that the touch panel 9 is touched when an inappropriate pressure is applied to the touch panel 9 due to vibration or the like.

図6は第1の実施形態での回路構成の一具体例の要部を示すブロック図であって、20は制御部、21はスピーカ、22は記憶部、23は振動部であり、図1,図3に対応する部分には同一符号を付けて重複する説明を省略する。   FIG. 6 is a block diagram showing a main part of a specific example of the circuit configuration in the first embodiment, in which 20 is a control unit, 21 is a speaker, 22 is a storage unit, and 23 is a vibration unit. , Parts corresponding to those in FIG.

図6において、タッチパネル9がタッチセンサと圧力センサとを備えており、このタッチセンサの検出出力と圧力センサの検出圧力Pとが制御部20に供給される。制御部20は、タッチセンサの検知出力により、タッチパネル9での指先のタッチ位置を検出し、この検出圧力Pを基に、図5で説明した判定を行ない、その判定結果に応じて、記憶部22に記憶されているデータを基に、後述するように、表示パネル8や映出装置17を制御し、また、スピーカ21で所定の音声再生を行なわせる。   In FIG. 6, the touch panel 9 includes a touch sensor and a pressure sensor, and a detection output of the touch sensor and a detection pressure P of the pressure sensor are supplied to the control unit 20. The control unit 20 detects the touch position of the fingertip on the touch panel 9 based on the detection output of the touch sensor, performs the determination described in FIG. 5 based on the detected pressure P, and stores the storage unit according to the determination result. Based on the data stored in 22, the display panel 8 and the projection device 17 are controlled as will be described later, and a predetermined sound reproduction is performed by the speaker 21.

また、制御部20は、圧力センサの検出圧力Pが、予め設定されている圧力値P1,P2に対し、P<P1(タッチされていない)であるか、P1≦P<P2(タッチされたか:「タッチ検知」)であるか、P2≦P(押し込みがなされたか:「圧力検知」)であるかが判定し、かかる判定に基づいて駆動モータ11を制御する。   The control unit 20 determines whether the detected pressure P of the pressure sensor is P <P1 (not touched) or P1 ≦ P <P2 (touched) with respect to the preset pressure values P1 and P2. : “Touch detection”) or P2 ≦ P (whether pushed in: “Pressure detection”) or not, and the drive motor 11 is controlled based on this determination.

図7をもとに、駆動モータ11による表示画面2の駆動量を説明するが、この図7は、図2(a)に示す状態のときの表示画面2の位置を基準にして、この基準位置からの駆動量を表わしている。   The drive amount of the display screen 2 by the drive motor 11 will be described with reference to FIG. 7. This FIG. 7 is based on the position of the display screen 2 in the state shown in FIG. The driving amount from the position is shown.

図7(a)において、制御部20は、P<P1と判定したときには、駆動モータ11による表示画面2の駆動量をゼロとして、表示画面2を図2(a)に示す状態に設定する。そこで、例えば、図2(b)または(c)に示す状態にあるとき、制御部20は、P<P1の判定をすると、駆動モータ11を、その角度センサの検出出力をもとに、反時計廻り方向に回転制御し、リンク機構14などの振動部23を駆動して図2(a)に示す状態にする。また、制御部20は、P1≦P<P2と判定したときには、駆動モータ11を回転制御して、図2(b)に示す状態とし(これを、駆動1という)、P2≦Pと判定したときには、同様にして駆動モータ11を回転制御して、図2(c)に示す状態とする(これを、駆動2という)。   In FIG. 7A, when it is determined that P <P1, the control unit 20 sets the display screen 2 to the state shown in FIG. 2A by setting the driving amount of the display screen 2 by the drive motor 11 to zero. Therefore, for example, in the state shown in FIG. 2B or FIG. 2C, when the control unit 20 determines that P <P1, the control unit 20 reacts with the drive motor 11 based on the detection output of the angle sensor. The rotation is controlled in the clockwise direction, and the vibration unit 23 such as the link mechanism 14 is driven to the state shown in FIG. In addition, when it is determined that P1 ≦ P <P2, the control unit 20 controls the rotation of the drive motor 11 to be in the state shown in FIG. 2B (this is referred to as drive 1), and determines that P2 ≦ P. In some cases, the drive motor 11 is rotationally controlled in the same manner as shown in FIG. 2C (this is referred to as drive 2).

なお、図7(a)において、駆動1の駆動量を0とし、P2≦Pのときのみ、駆動2を実行することもできる。指先による押圧力PがP1≦P<P2のときには、画面表示の変化や音声案内を行ない、P2≦Pのときにのみ駆動を行なうことによっても、決定操作が実行されたことを操作者に確実に認識させることができ、かつ駆動制御を単純化することができる。   In FIG. 7A, the driving amount of driving 1 is set to 0, and driving 2 can be executed only when P2 ≦ P. When the pressing force P by the fingertip is P1 ≦ P <P2, the screen display is changed and voice guidance is performed, and driving is performed only when P2 ≦ P, the operator can be sure that the determination operation has been executed. Can be recognized, and the drive control can be simplified.

図7(b)は、圧力の増加に対して駆動量を連続的に変化させる例である。指先による押圧力PがP2≦Pになると、圧力変化による駆動力の変化が急増する。これは、物理的なキーを押す際にある押し込み位置を境にボタンが急に押し込まれるのに近似しており、タツチパネルでありながら、物理的なキーを押したような触覚が得られる。   FIG. 7B is an example in which the drive amount is continuously changed with respect to the increase in pressure. When the pressing force P by the fingertip becomes P2 ≦ P, the change in the driving force due to the pressure change increases rapidly. This is similar to a sudden pressing of a button at the pressing position when a physical key is pressed, and a tactile sensation as if the physical key was pressed is obtained even though it is a touch panel.

図7(c)は、指先による押圧力PがP1≦P<P2のときには、押圧力の増加に応じて駆動量が押圧方向に連続的に増加し、押圧力PがP1≦P<P2のときには、押圧力とは逆の方向に駆動する例である。この例によれば、押し込み操作を行なったときに、タッチ状態とは全く逆の方向に駆動が行なわれるため、決定操作が実行されたことを明確に認識させることができる。   FIG. 7C shows that when the pressing force P by the fingertip is P1 ≦ P <P2, the driving amount continuously increases in the pressing direction according to the increase of the pressing force, and the pressing force P is P1 ≦ P <P2. This is an example of driving in the direction opposite to the pressing force. According to this example, when the pushing operation is performed, the driving is performed in the direction completely opposite to the touch state, so that the determination operation can be clearly recognized.

図8は制御部20のかかる機能制御の第1の具体例を示すフローチャートである。なお、以下では、図5に示すように、この圧力Pが0≦P<P1であるときの制御部20による処理をA、P1≦P<P2であるときの制御部20による処理をB、P2≦Pであるときの制御部20による処理をCとする。これらの処理については後述するが、処理Aは、当然のことながら、タッチパネル9へのタッチ操作もなされていないときの処理である。   FIG. 8 is a flowchart showing a first specific example of the function control of the control unit 20. In the following, as shown in FIG. 5, the process by the control unit 20 when the pressure P is 0 ≦ P <P1 is A, and the process by the control unit 20 when P1 ≦ P <P2 is B, Let C be the process performed by the control unit 20 when P2 ≦ P. Although these processes will be described later, as a matter of course, the process A is a process when the touch operation on the touch panel 9 is not performed.

同図において、図示しない電源がオンとされると、制御部20は処理Aを行なって装置を動作開始状態にする(ステップ100)。そして、まず、電源をオフするなどして動作の終了条件が設定されたか否か判定し(ステップ101)、設定されていない場合には、図6での圧力センサからその検出圧力Pを取り込み、P≧P1かどうか判定する(ステップ102)。P<P1のときには、タッチパネル9へのタッチ操作もなされていないとして、ステップ100に戻り、タッチ操作がなされるまで、ステップ100〜102の一連の動作が繰り返され、その間処理Aが実行される。このときの表示画面2(図1)に表示される処理Aによる画面を(i)とする。   In the figure, when a power supply (not shown) is turned on, the control unit 20 performs a process A to put the apparatus into an operation start state (step 100). First, it is determined whether or not an operation end condition is set by turning off the power (step 101). If not set, the detected pressure P is taken from the pressure sensor in FIG. It is determined whether P ≧ P1 (step 102). When P <P1, it is determined that the touch operation on the touch panel 9 has not been performed, the process returns to step 100, and a series of operations of steps 100 to 102 is repeated until the touch operation is performed, and the process A is executed during that time. The screen by the process A displayed on the display screen 2 (FIG. 1) at this time is defined as (i).

次に、図4(b)または(c)に示すように、タッチパネル9へのタッチ操作がなされると、P≧P1(これは、P≧P2も含む)となるから(ステップ102)、まず、図4(b)または(c)に示すようにタッチパネル9での指先19でタッチされた位置(タッチ位置)が、操作ボタンなどのタッチ操作部材の処理B,Cを実行するべき位置であるか否かを判定する(ステップ103)。ここで、タッチセンサ(図6)により、指先19のタッチ位置を検出し、これを記憶部22(図6)のデータと比較して、このタッチ位置が処理B,Cの実行を必要とする位置、例えば、タッチ操作部材を操作ボタンとして、操作ボタンの表示エリア(以下、操作ボタンエリアという)内にあるかどうかを判定し、表示画面2で操作ボタンエリア内にタッチ位置があるときには、まず、処理Bを実行するとともに(ステップ104)、駆動モータ11(図6)を制御して振動部23、即ち、リンク機構14を動作させ、表示画面2の駆動1(図7)を実行するが(ステップ105)、タッチ位置が操作ボタンエリア内にないときには、P≧P1である限り、ステップ103にあって処理Aの実行を継続し、その後、P<P1となった場合には(タッチパネル9から指先19を離す)、図示しないが、ステップ
100に戻り、また、指先19が移動してタッチ位置が操作ボタンエリア内に入ると、これがタッチされたものと判定して処理Bと駆動1とを実行する(ステップ104,105)。このときの表示画面2(図1)に表示されるこの処理Bによる画面を(ii)とする。
Next, as shown in FIG. 4 (b) or (c), when a touch operation on the touch panel 9 is performed, P ≧ P1 (this includes P ≧ P2) (step 102). 4 (b) or 4 (c), the position touched with the fingertip 19 (touch position) on the touch panel 9 is the position where the processes B and C of the touch operation member such as the operation button should be executed. Whether or not (step 103). Here, the touch position of the fingertip 19 is detected by the touch sensor (FIG. 6), and this is compared with the data in the storage unit 22 (FIG. 6). This touch position requires execution of the processes B and C. When a position, for example, a touch operation member is used as an operation button, it is determined whether or not it is within the operation button display area (hereinafter referred to as an operation button area). The process B is executed (step 104), and the drive motor 11 (FIG. 6) is controlled to operate the vibration unit 23, that is, the link mechanism 14, and the display screen 2 is driven 1 (FIG. 7). (Step 105) When the touch position is not within the operation button area, as long as P ≧ P1, the execution of the process A is continued in Step 103, and then P <P1. The fingertip 19 is released from the touch panel 9). Although not shown, the process returns to step 100, and when the fingertip 19 moves and the touch position enters the operation button area, it is determined that this is touched and processing B and driving are performed. 1 is executed (steps 104 and 105). The screen by this process B displayed on the display screen 2 (FIG. 1) at this time is defined as (ii).

この駆動1の実行により、図1の構成を例にとると、図2(b)に示す状態となり、表示画面2が筐体1の開口1aから少し後退して引っ込んだ状態となる。このように、操作ボタンのいずれかのエリアに触ると、その瞬間表示画面2がカタッと小さく、あるいはゆっくりと小さく後退するが、これら操作ボタン以外のエリアに触っても、表示画面2では、何の変化もないから、操作ボタンのエリアに触ったことが触覚で認識することができる。例えば、表示画面2を斜めに見て視差が生じた場合でも、操作ボタンに触れたか否かが簡単にわかるし、また、目の不自由な人でも、正確に操作ボタンにタッチすることができる。   When the drive 1 is executed, taking the configuration of FIG. 1 as an example, the state shown in FIG. 2B is obtained, and the display screen 2 is slightly retracted from the opening 1a of the housing 1 and retracted. As described above, when any area of the operation buttons is touched, the instantaneous display screen 2 is suddenly small or slowly retracted. Since there is no change, it can be recognized by touch that the area of the operation button has been touched. For example, even when parallax occurs when the display screen 2 is viewed obliquely, it is easy to know whether or not the operation button has been touched, and even a visually impaired person can accurately touch the operation button. .

そして、圧力センサからその検出圧力Pを取り込んで判定し、P<P1であるときには(ステップ106)、処理Bを終了して(ステップ107)ステップ100に戻るが、P1≦Pであるときには(ステップ106)、さらに、P2≦Pであるか否かを判定し(ステップ108)、この判定の結果、P1≦P<P2であるときには、ステップ103に戻り、P1≦P<P2である限り、処理Bと駆動1をそのまま継続して実行する。また、P2≦Pのときには(ステップ108)、タッチ位置が操作ボタンのエリア内にあるとき、処理Cを実行するするとともに(ステップ108)、駆動2(図7)を実行する(ステップ110)。このときの表示画面2(図1)に表示される処理Cによる画面を(iii)とする。   Then, the detected pressure P is taken in from the pressure sensor for determination. When P <P1 (step 106), the process B is ended (step 107) and the process returns to step 100, but when P1 ≦ P (step 106). 106) Further, it is determined whether or not P2 ≦ P (step 108). If the result of this determination is that P1 ≦ P <P2, the process returns to step 103, and as long as P1 ≦ P <P2, the processing is continued. B and drive 1 are continuously executed. When P2 ≦ P (step 108), when the touch position is within the area of the operation button, the process C is executed (step 108) and the drive 2 (FIG. 7) is executed (step 110). The screen by the process C displayed on the display screen 2 (FIG. 1) at this time is defined as (iii).

この処理Cは、操作ボタンに対しては、先の第1の実施形態と同様、例えば、その決定処理に相当するものであり、このとき同時に実行される駆動2は、表示画面2をガタンと大きくさらに押し込むものである。従って、表示画面2で表示される操作ボタンで実行操作を行なうと、これと同時に表示画面2が押し込まれるように動作するものであるから、ハード構成のスイッチを押し込み操作したのと同様の感触を得ることができ、大きな視差でもってこの操作ボタンの決定操作を行なっても、かかる操作をしたか否かを正確に判断することができるし、また、目が不自由な人も、上記の駆動1の実行に続く駆動2の実行により、決定操作が実行されたことを確実に知ることができる。   This process C is equivalent to, for example, the determination process for the operation button as in the first embodiment, and the drive 2 that is executed at this time uses the display screen 2 as a rattling. It pushes much further. Therefore, if the operation button displayed on the display screen 2 is used to execute the operation, the display screen 2 is operated to be pushed in at the same time. Therefore, it feels the same as if the hardware configuration switch was pushed in. Even if this operation button determination operation is performed with a large parallax, it is possible to accurately determine whether or not such an operation has been performed. By executing the drive 2 following the execution of 1, it is possible to reliably know that the determination operation has been executed.

なお、駆動2は、図7(c)で示したように、表示画面を元に戻す方向(指先による押圧方向とは逆の方向)に移動させてもよい。駆動2の移動が駆動1と不連続な移動であれば、押し込んだことが指で認識でき、決定操作が実行されたことを知ることができる。   Note that, as shown in FIG. 7C, the drive 2 may be moved in a direction to return the display screen to the original direction (the direction opposite to the pressing direction by the fingertip). If the movement of drive 2 is discontinuous with drive 1, it can be recognized by the finger that it has been depressed, and it can be known that the decision operation has been executed.

処理Cと駆動2を実行してから、タッチパネル9から指先19を離すと、P<P2となるから(ステップ111)、処理Cを終了し(ステップ112)、処理103に戻るが、このとき、P<P1であれば、処理100に戻る。   When the fingertip 19 is released from the touch panel 9 after executing the process C and the drive 2, P <P2 is satisfied (step 111), the process C is ended (step 112), and the process returns to the process 103. If P <P1, the process returns to the process 100.

このようにして、図4(b)に示すように指先19がタッチパネル9での操作ボタンエリアに触れた状態にしてP1≦P<P2とすると、処理Bと駆動1が行なわれ、また、図4(c)に示すように指先19でタッチパネル9での操作ボタンを押し込むようにタッチすると、P2≦Pとなり、処理Bの実行を経て処理Cと駆動2を実行することになる。   In this way, if P1 ≦ P <P2 with the fingertip 19 touching the operation button area on the touch panel 9 as shown in FIG. 4B, the process B and the drive 1 are performed. When the fingertip 19 touches the operation button on the touch panel 9 as shown in 4 (c), P2 ≦ P is established, and the process C and the drive 2 are executed after the process B is executed.

次に、かかる動作による表示画面2での画面の具体例について説明する。   Next, a specific example of the screen on the display screen 2 by such an operation will be described.

図9は、タッチ操作部材を操作ボタンとして、かかる画面の具体例を示す図である。   FIG. 9 is a diagram showing a specific example of such a screen using the touch operation member as an operation button.

図9(a)は表示画面2に操作ボタン24が表示され、この操作ボタン24をタッチ操作すると、表示色が処理A,B,Cで変化する場合の具体例を示すものである。図8のステップ100〜102の動作では、処理Aが行なわれて画面(i)が表示され、この画面(i)で、いま、第1の色により、操作ボタン24が表示されているものとする。   FIG. 9A shows a specific example in which the operation button 24 is displayed on the display screen 2 and when the operation button 24 is touched, the display color changes in processes A, B, and C. In the operations of Steps 100 to 102 in FIG. 8, the process A is performed and the screen (i) is displayed. In this screen (i), the operation button 24 is now displayed in the first color. To do.

かかる表示状態で指先19でこの操作ボタン24のエリアをタッチすると、このときのタッチパネル9に対する圧力PがP1≦P<P2であるときには(図8のステップ102)、このとき、タッチセンサ(図6)により、このときの指先19のタッチ位置が検出され、このタッチ位置が、記憶部22(図6)でのデータを基に、操作ボタン24のエリア内にある(即ち、操作ボタン位置と一致している)と判定されると(ステップ103)、処理Bが実行され(図8のステップ104)、操作ボタン24が第2の色に変化した画面(ii)が表示される。これとともに、図7での駆動1が実行され(図8のステップ105)、図2(a)に示す状態から図2(b)に示す状態に移り、表示画面2がガタッと小さく、もしくはゆっくりと小さく奥の方に後退する。以上の処理Bと駆動1により、指先19が
操作ボタン24にタッチしたことが、視覚的にも、また、触覚的にも、認識できる。
When the area of the operation button 24 is touched with the fingertip 19 in such a display state, when the pressure P against the touch panel 9 at this time is P1 ≦ P <P2 (step 102 in FIG. 8), at this time, the touch sensor (FIG. 6). ), The touch position of the fingertip 19 at this time is detected, and this touch position is within the area of the operation button 24 based on the data in the storage unit 22 (FIG. 6) (that is, the touch position is identical to the operation button position) (Step 103), the process B is executed (Step 104 in FIG. 8), and the screen (ii) in which the operation button 24 is changed to the second color is displayed. At the same time, drive 1 in FIG. 7 is executed (step 105 in FIG. 8), and the state shown in FIG. 2 (a) shifts to the state shown in FIG. 2 (b), and the display screen 2 is steadily small or slowly. And go backwards small. By the above process B and drive 1, it can be recognized visually and tactilely that the fingertip 19 has touched the operation button 24.

さらに、指先19で操作ボタン24を押し込むようにし、これにより、P2≦Pとなると、この場合も、タツチ位置が操作ボタン24の位置と一致していると、操作ボタン24が第3の色に変化した画面(iii)が表示され、これとともに、図7に示す駆動2が実行されて、図2(b)に示す状態から図2(c)に示す状態に急速に移り、表示画面2がガタンと大きく奥の方に後退する(なお、図7(c)の場合には、逆に前進する)。これにより、この操作ボタン24で実行操作などの機能操作が行なわれたことが(即ち、間違いなくこの操作ボタン24を操作したことが)、視覚的にも、また、触覚的にも、認識できる。従って、誤った操作がなされたときには、これを容易に知ることができて、タッチ操作のやり直しを簡単に行なうことができ、誤操作防止も向上する。タッチパネル9から指先19を離すと、画面(i)に戻る。   Further, the operation button 24 is pushed by the fingertip 19 so that P2 ≦ P. In this case, too, if the touch position matches the position of the operation button 24, the operation button 24 changes to the third color. The changed screen (iii) is displayed, and at the same time, the drive 2 shown in FIG. 7 is executed, and the state shown in FIG. 2 (b) is rapidly changed to the state shown in FIG. 2 (c). It moves backward to the back and back (in the case of FIG. 7C, it moves forward in reverse). As a result, it is possible to recognize visually and tactilely that a function operation such as an execution operation has been performed with this operation button 24 (that is, the operation button 24 has been definitely operated). . Therefore, when an erroneous operation is performed, this can be easily known, the touch operation can be easily performed again, and the prevention of erroneous operations is improved. When the fingertip 19 is released from the touch panel 9, the screen returns to the screen (i).

図9(b)は表示画面2で操作ボタン24にタッチ操作すると、その形状が処理A,B,Cで変化する場合の具体例を示すものである。この具体例も、図8のステップ100〜102の動作では、処理Aが行なわれて画面(i)が表示され、この画面(i)で、例えば、操作ボタン24が矩形状で表示されているものとする。   FIG. 9B shows a specific example when the operation button 24 is touch-operated on the display screen 2 and its shape changes in processes A, B, and C. Also in this specific example, in the operations of Steps 100 to 102 in FIG. 8, the process A is performed and the screen (i) is displayed. On this screen (i), for example, the operation buttons 24 are displayed in a rectangular shape. Shall.

かかる表示状態で指先19でこの操作ボタン24の位置(エリア)をタッチすると、このときのタッチパネル9に対する圧力PがP1≦P<P2であるときには(図8のステップ102)、このとき、タッチセンサ(図6)により、このときの指先19のタッチ位置が検出され、このタッチ位置が、記憶部22(図6)でのデータを基に、操作ボタン24の位置と一致していると判定されると(図8
のステップ103)、処理Bが実行され(図8のステップ104)、操作ボタン24の形状が矩形状から他の形状に変化した画面(ii)が表示される。これとともに、図7の駆動1が実行され(図8のステップ105)、図2(a)に示す状態から図2(b)に示す状態に移り、表示画面2がガタッと小さく、もしくはゆっくりと小さく奥の方に後退する。以上の処理Bと駆動1により、指先19が操作ボタン24にタッチしたことが、視覚的にも、また、触覚的にも、認識できる。
When the position (area) of the operation button 24 is touched with the fingertip 19 in such a display state, when the pressure P against the touch panel 9 at this time is P1 ≦ P <P2 (step 102 in FIG. 8), at this time, the touch sensor (FIG. 6), the touch position of the fingertip 19 at this time is detected, and it is determined that this touch position matches the position of the operation button 24 based on the data in the storage unit 22 (FIG. 6). (Fig. 8
Step 103), the process B is executed (Step 104 in FIG. 8), and the screen (ii) in which the shape of the operation button 24 is changed from the rectangular shape to another shape is displayed. At the same time, the driving 1 in FIG. 7 is executed (step 105 in FIG. 8), and the state shown in FIG. 2 (a) is shifted to the state shown in FIG. 2 (b). Move backwards small. By the above process B and drive 1, it can be recognized visually and tactilely that the fingertip 19 has touched the operation button 24.

さらに、指先19で操作ボタン24を押し込むようにし、P2≦Pとなると、この場合も、タツチ位置と操作ボタン24の位置とが一致していると、操作ボタン24が第3の形状(画面(i)でのもとの形状でもよい)に変化した画面(iii)が表示される。この場合、操作ボタン24の色も変化させるようにしてもよい。これとともに、図7の駆動2が実行されて、図2(b)に示す状態から図2(c)に示
す状態に急速に移り、表示画面2がガタンと大きく奥の方に後退する(なお、図7(c)の場合には、逆に前進する)。これにより、この操作ボタン24で実行操作などの機能操作が行なわれたことが(即ち、間違いなくこの操作ボタン24を操作したことが)、視覚的にも、また、触覚的にも、認識でき、上記同様の効果が得られる。タッチパネル9から指先19を離すと、画面(i)に戻る。
Further, when the operation button 24 is pushed by the fingertip 19 and P2 ≦ P is satisfied, in this case as well, if the touch position coincides with the position of the operation button 24, the operation button 24 has a third shape (screen ( The screen (iii) changed to the original shape in i) is displayed. In this case, the color of the operation button 24 may also be changed. At the same time, the driving 2 in FIG. 7 is executed, and the state shown in FIG. 2B is rapidly changed to the state shown in FIG. 2C, and the display screen 2 is moved back to the far side. In the case of FIG. 7 (c), it moves forward in reverse). As a result, the fact that the operation operation such as the execution operation has been performed with the operation button 24 (that is, the operation button 24 is definitely operated) can be recognized both visually and tactilely. The same effect as described above can be obtained. When the fingertip 19 is released from the touch panel 9, the screen returns to the screen (i).

図9(c)は表示画面2で操作ボタン24にタッチ操作すると、そのサイズが処理A,B,Cで変化する場合の具体例を示すものである。この具体例も、図8のステップ100〜102の動作では、処理Aが行なわれて画面(i)が表示され、この画面(i)で、例えば、操作ボタン24が矩形状で表示されているものとする。   FIG. 9C shows a specific example in the case where the size of the operation button 24 is changed in the processes A, B, and C when the operation button 24 is touched on the display screen 2. Also in this specific example, in the operations of Steps 100 to 102 in FIG. 8, the process A is performed and the screen (i) is displayed. On this screen (i), for example, the operation buttons 24 are displayed in a rectangular shape. Shall.

かかる表示状態で指先19でこの操作ボタン24の位置(エリア)をタッチすると、このときのタッチパネル9に対する圧力PがP1≦P<P2であるときには(図8のステップ102)、このとき、タッチセンサ(図6)により、このときの指先19のタッチ位置が検出され、このタッチ位置が、記憶部22(図6)でのデータを基に、操作ボタン24の位置と一致していると判定されると(図8のステップ103)、処理Bが実行され(図8のステップ104)、操作ボタン24のサイズが、例えば、大きく変化した画面(ii)が表示される。これとともに、図7の駆動1が実行され(図8のステップ105)、図2(a)に示す状態から図2(b)に示す状態に移り、表示画面2がガタッと小さく、もしくはゆっくりと小さく奥の方に後退する。以上の処理Bと駆動1により、指先19が操作ボタン24にタッチしたことが、視覚的にも、また、触覚的にも、認識できる。   When the position (area) of the operation button 24 is touched with the fingertip 19 in such a display state, when the pressure P against the touch panel 9 at this time is P1 ≦ P <P2 (step 102 in FIG. 8), at this time, the touch sensor (FIG. 6), the touch position of the fingertip 19 at this time is detected, and it is determined that this touch position matches the position of the operation button 24 based on the data in the storage unit 22 (FIG. 6). Then (step 103 in FIG. 8), the process B is executed (step 104 in FIG. 8), and a screen (ii) in which the size of the operation button 24 is greatly changed is displayed, for example. At the same time, the driving 1 in FIG. 7 is executed (step 105 in FIG. 8), and the state shown in FIG. 2 (a) is shifted to the state shown in FIG. 2 (b). Move backwards small. By the above process B and drive 1, it can be recognized visually and tactilely that the fingertip 19 has touched the operation button 24.

さらに、指先19で操作ボタン24を押し込むようし、P2≦Pとなると、この場合も、タツチ位置と操作ボタン24の位置とが一致していると判定されると、操作ボタン24のサイズが前とは異なる(画面(i)でのもとのサイズでもよい)に変化した画面(iii)が表示される。この場合、操作ボタン24の色も変化させるようにしてもよい。これとともに、図7の駆動2が実行されて、図2(b)に示す状態から図2(c)に示す状態に急速に移り、これにより、表示画面2がガタンと大きく奥の方に後退する(但し、図7(c)の場合には、逆に前進する)。これにより、この操作ボタン24で実行操作などの機能操作が行なわれたことが(即ち、間違いなくこの操作ボタン24を操作したことが)、視覚的にも、また、触覚的にも、認識でき、上記同様の効果が得られる。次いで、タッチパネル9から指先19を離すと、画面(i)に戻る。   Further, when the operation button 24 is pushed in with the fingertip 19 and P2 ≦ P, in this case, if it is determined that the touch position and the position of the operation button 24 coincide with each other, the size of the operation button 24 is changed to the previous size. The screen (iii) changed to be different (may be the original size on the screen (i)) is displayed. In this case, the color of the operation button 24 may also be changed. At the same time, the driving 2 in FIG. 7 is executed, and the state shown in FIG. 2B is rapidly changed to the state shown in FIG. 2C. As a result, the display screen 2 moves backward greatly toward the back. (However, in the case of FIG. 7 (c), it moves forward in reverse). As a result, the fact that the operation operation such as the execution operation has been performed with the operation button 24 (that is, the operation button 24 is definitely operated) can be recognized both visually and tactilely. The same effect as described above can be obtained. Next, when the fingertip 19 is released from the touch panel 9, the screen returns to the screen (i).

なお、以上の操作ボタンの操作に関する処理では、処理Bは操作ボタンの選択処理、処理Cは操作ボタンによる機能を決定する決定処理とすることができる。   In the processing related to the operation button operation described above, the process B can be an operation button selection process, and the process C can be a determination process for determining a function by the operation button.

また、図9(a)〜(c)において、画面(iii)の隣合う2つの辺部に影25を表示し、画面(iii)が押されてへこんでいることを視覚的に表わすようにしてもよい。   9 (a) to 9 (c), shadows 25 are displayed on two adjacent sides of the screen (iii) so that the screen (iii) is depressed and depressed. May be.

図10は図8に示す動作に伴う表示画面2での画面の他の具体例を示す図である。   FIG. 10 is a diagram showing another specific example of the screen on the display screen 2 associated with the operation shown in FIG.

まず、図10(a)はタッチ操作部材を操作ボタンとし、パソコンでのマウスオーバーと同様の機能を持たせたものである。   First, in FIG. 10A, a touch operation member is used as an operation button, which has the same function as mouse over on a personal computer.

表示画面2に操作ボタン24が表示され、この操作ボタン24をタッチ操作すると、付加情報が表示されるようにした具体例を示すものである。図8のステップ100〜102の動作では、処理Aが行なわれて操作ボタン24が表われた画面(i)が表示されているものとする。   An operation button 24 is displayed on the display screen 2 and a specific example in which additional information is displayed when the operation button 24 is touched is shown. In the operations of Steps 100 to 102 in FIG. 8, it is assumed that the screen (i) on which the operation button 24 appears by performing the process A is displayed.

かかる表示状態で指先19でこの操作ボタン24のエリアをタッチすると、このときのタッチパネル9に対する圧力PがP1≦P<P2であるときには(図8のステップ102)、このとき、タッチセンサ(図6)により、このときの指先19のタッチ位置が検出され、このタッチ位置が、記憶部22(図6)でのデータを基に、操作ボタン24の位置と一致していると判定されると(図8のステップ103)、処理Bが実行され(図8のステップ104)、例えば、「このボタンを押すと次の画面に進みます」といったような案内メッセージ(即ち、この操作ボタン24の機能)を表わす吹き出し26が表示された画面(ii)が表示される。また、これとともに、図7の駆動1が実行されて(図8のステップ105)、図2(a)に示す状態から図2(b)に示す状態に移り、表示画面2がガタッと小さく、もしくはゆっくりと小さく奥の方に後退する。以上の処理Bと駆動1により、指先19が操作ボタン24にタッチしたことが、視覚的にも、また、触覚的にも、認識できる。   When the area of the operation button 24 is touched with the fingertip 19 in such a display state, when the pressure P against the touch panel 9 at this time is P1 ≦ P <P2 (step 102 in FIG. 8), at this time, the touch sensor (FIG. 6). ), The touch position of the fingertip 19 at this time is detected, and it is determined that the touch position matches the position of the operation button 24 based on the data in the storage unit 22 (FIG. 6) ( Step 103 in FIG. 8) and the process B is executed (Step 104 in FIG. 8). For example, a guidance message such as “Press this button to go to the next screen” (that is, the function of the operation button 24). A screen (ii) on which a balloon 26 representing is displayed is displayed. At the same time, the driving 1 of FIG. 7 is executed (step 105 of FIG. 8), the state shown in FIG. 2A is changed to the state shown in FIG. 2B, and the display screen 2 is steadily small. Or slowly retreat back to the back. By the above process B and drive 1, it can be recognized visually and tactilely that the fingertip 19 has touched the operation button 24.

次いで、指先19でさらに操作ボタン24を押し込むようして、P2≦Pとなると、この場合も、タツチ位置が操作ボタン位置と一致していることを判定して、例えば、操作ボタン24の色が変化した画面(iii)が表示される。これとともに、図7の駆動2が実行されて、図2(b)に示す状態から図2(c)に示す状態に急速に移り、表示画面2がガタンと大きく奥の方に後退する(但し、図7(c)の場合には、逆に前進する)。これにより、この操作ボタン24で実行操作などの機能操作が行なわれたことが(即ち、間違いなくこの操作ボタン24を操作したことが)、視覚的にも、また、触覚的にも、認識でき、上記と同様の効果が得られる。タッチパネル9から指先19を離すと、画面(i)に戻る。   Next, when the operation button 24 is further pushed by the fingertip 19 and P2 ≦ P, it is determined that the touch position matches the operation button position in this case, for example, the color of the operation button 24 is The changed screen (iii) is displayed. At the same time, the driving 2 in FIG. 7 is executed, and the state shown in FIG. 2 (b) is rapidly changed to the state shown in FIG. 2 (c), and the display screen 2 moves back to the far side (however, In the case of FIG. 7 (c), it moves forward in reverse). As a result, the fact that the operation operation such as the execution operation has been performed with the operation button 24 (that is, the operation button 24 is definitely operated) can be recognized both visually and tactilely. The same effects as described above can be obtained. When the fingertip 19 is released from the touch panel 9, the screen returns to the screen (i).

この具体例でも、処理Bは操作ボタンの選択処理、処理Cは操作ボタンによる機能を決定する決定処理とすることができる。   Also in this specific example, the process B can be an operation button selection process, and the process C can be a determination process for determining a function by the operation button.

また、画面(iii)の隣合う2つの辺部に影25を表示し、画面(iii)が押されてへこんでいることを視覚的に表わすようにしてもよい。   Alternatively, the shadow 25 may be displayed on two adjacent sides of the screen (iii) to visually indicate that the screen (iii) has been depressed.

以上の機能は、パソコンなどのマウスを移動させて所定の表示要素に一致させると、その表示要素に変化を与える、所謂「マウスオーバー」に相当するものであって、この実施形態では、タッチによるP1≦P<P2の状態と押し込みのP2≦Pの状態とに区分して、夫々毎に処理Bと処理Cとを行なわせるようにしたことにより、タッチパネルを備えた表示装置でかかるマウスオーバー機能を可能としている。   The above function corresponds to so-called “mouse over”, in which when a mouse such as a personal computer is moved and matched with a predetermined display element, the display element is changed. The mouse over function is applied to the display device equipped with the touch panel by dividing the state of P1 ≦ P <P2 and the state of push-in P2 ≦ P and performing the processing B and the processing C respectively. Is possible.

なお、ここでは、吹き出し26によって操作ボタン24の機能を説明するようにしたが、スピーカ21(図6)から音声メッセージを出力するようにしてもよいし、この音声メッセージと吹き出し26とを組み合わせるようにしてもよい。   Here, the function of the operation button 24 is described with the balloon 26, but a voice message may be output from the speaker 21 (FIG. 6), or the voice message and the balloon 26 may be combined. It may be.

図10(b)はタッチ操作部材をメッセージとしたものであり、表示画面2で表示されるメッセージの表示エリアの部分をタッチすると、その部分が拡大して表示させることができるようにした具体例を示すものである。   FIG. 10B shows a touch operation member as a message, and when the part of the display area of the message displayed on the display screen 2 is touched, the part can be enlarged and displayed. Is shown.

この具体例も、図8のステップ100〜102の動作では、処理Aが行なわれて画面(i)が表示され、この画面(i)では、例えば、「いらっしゃいませ」といったような案内メッセージ27が表示されているものとする。   Also in this specific example, in the operations of Steps 100 to 102 in FIG. 8, the process A is performed and the screen (i) is displayed. On this screen (i), for example, a guidance message 27 such as “I welcome you” is displayed. Assume that it is displayed.

かかる表示状態で指先19でこの案内メッセージ27の表示エリアをタッチすると、このときのタッチパネル9に対する圧力PがP1≦P<P2であるときには(図8のステップ102)、このとき、タッチセンサ(図6)により、このときの指先19のタッチ位置が検出され、このタッチ位置が、記憶部22(図6)でのデータを基に、案内メッセージ27の表示エリアと一致していると判定されると、処理Bが実行され(図8のステップ104)、指先19のタッチ位置を中心とした所定領域がこれを含む拡大表示領域28に拡大して表示されることになる。従って、案内メッセージ27の一部を拡大表示させることができ、同じタッチ状態として指先19を案内メッセージ27に沿って移動させることにより、この拡大表示領域28を移動(ドラッグ)させることができる。従って、このようにドラッグさせることにより、虫眼鏡で文章を拡大して読んでいくように、案内メッセージ27を拡大してみることができる。また、これとともに、図7の駆動1が実行されて(図8のステップ105)、図2(a)に示す状態から図2(b)に示す状態に移り、表示画面2がガタッと小さく、もしくはゆっくりと小さく奥の方に後退する。以上の処理Bと駆動1により、指先19が操作ボタン24にタッチしたことが、視覚的にも、また、触覚的にも、認識できる。   When the display area of the guidance message 27 is touched with the fingertip 19 in such a display state, when the pressure P against the touch panel 9 at this time is P1 ≦ P <P2 (step 102 in FIG. 8), at this time, the touch sensor (FIG. 6), the touch position of the fingertip 19 at this time is detected, and it is determined that this touch position matches the display area of the guidance message 27 based on the data in the storage unit 22 (FIG. 6). Then, process B is executed (step 104 in FIG. 8), and a predetermined area centered on the touch position of the fingertip 19 is enlarged and displayed in the enlarged display area 28 including the predetermined area. Accordingly, a part of the guidance message 27 can be enlarged and displayed, and the enlarged display area 28 can be moved (dragged) by moving the fingertip 19 along the guidance message 27 in the same touch state. Therefore, by dragging in this way, the guidance message 27 can be enlarged so that the text is enlarged and read with a magnifying glass. At the same time, the driving 1 of FIG. 7 is executed (step 105 of FIG. 8), the state shown in FIG. 2A is changed to the state shown in FIG. 2B, and the display screen 2 is steadily small. Or slowly retreat back to the back. By the above process B and drive 1, it can be recognized visually and tactilely that the fingertip 19 has touched the operation button 24.

次いで、指先19でこの案内メッセージ27の表示エリアを押し込むようして、P2≦Pにすると、この場合も、タツチ位置と案内メッセージ27の表示エリアとの一致を判定して、「決定」処理などの処理Cが行なわれて画面(iii)が表示され、この決定処理が終了すると、これに続く処理に移っていく。また、これとともに、図7の駆動2が実行して、図2(b)に示す状態から図2(c)に示す状態に急速に移り、表示画面2がガタンと大きく奥の方に後退する(但し、図7(c)の場合には、逆に前進する)。これにより、この案内メッセージ27に対する機能操作が行なわれたことが(即ち、間違いなくこの案内メッセージ27の表示エリアをタッチ操作したことが)、視覚的にも、また、触覚的にも、認識でき、上記と同様の効果が得られる。また、このとき、画面(iii)の隣合う2つの辺部に影25を表示し、画面(iii)が押されてへこんでいることを視覚的に表わすようにしてもよい。タッチパネル9から指先19を離すと、画面(i)に戻る。   Next, when the display area of the guidance message 27 is pushed in with the fingertip 19 and P2 ≦ P, the match between the touch position and the display area of the guidance message 27 is determined in this case, and the “decision” process or the like is performed. Process C is performed and the screen (iii) is displayed. When this determination process is completed, the process proceeds to the subsequent process. At the same time, the drive 2 of FIG. 7 is executed, and the state shown in FIG. 2B is rapidly changed to the state shown in FIG. 2C, and the display screen 2 is moved back to the far side. (However, in the case of FIG. 7 (c), it moves forward in reverse). As a result, it is possible to recognize visually and tactilely that a function operation has been performed on the guidance message 27 (that is, the display area of the guidance message 27 is definitely touched). The same effects as described above can be obtained. At this time, the shadow 25 may be displayed on two adjacent sides of the screen (iii) to visually indicate that the screen (iii) is depressed. When the fingertip 19 is released from the touch panel 9, the screen returns to the screen (i).

図10(c)はタッチ操作部材をメニュー画面とカーソルとするものであり、表示画面2でタッチパネル9にタッチ操作すると、メニュー欄が表示されて、所望とするメニューを選択決定できるようにした具体例を示すものである。   FIG. 10C shows the touch operation member as a menu screen and a cursor. When a touch operation is performed on the touch panel 9 on the display screen 2, a menu column is displayed so that a desired menu can be selected and determined. An example is given.

この具体例も、図8のステップ100〜102の動作では、処理Aが行なわれて画面(i)が表示されるが、この画面(i)では、背景模様(図示せず)以外、何も表示されていないものとする。   In this specific example as well, in the operations of steps 100 to 102 in FIG. 8, the process A is performed and the screen (i) is displayed. In this screen (i), nothing other than the background pattern (not shown) is displayed. It is assumed that it is not displayed.

かかる画面(i)の任意の位置を指先19でタッチすると、このときのタッチパネル9に対する検出圧力PがP1≦P<P2であるときには(図8のステップ102)、このとき、タッチセンサ(図6)により、このときの指先19のタッチ位置が検出され、このタッチ位置が、記憶部22(図6)でのデータを基に、画面(i)内の位置と判定されると、処理Bが実行され(図8のステップ104)、複数のメニューからなるメニュー欄29が表示された画面(ii)が表示される。また、これとともに、図7の駆動1が実行されて(図8のステップ105)、図2(a)に示す状態から図2(b)に示す状態に移り、表示画面2がガタッと小さく、もしくはゆっくりと奥の方に後退する。以上の処理Bと駆動1により、指先19が操作ボタン24にタッチしたことが、視覚的にも、また、触覚的にも、認識できる。   When an arbitrary position on the screen (i) is touched with the fingertip 19, the detected pressure P for the touch panel 9 at this time is P1 ≦ P <P2 (step 102 in FIG. 8), at this time, the touch sensor (FIG. 6). ), The touch position of the fingertip 19 at this time is detected, and when this touch position is determined to be a position in the screen (i) based on the data in the storage unit 22 (FIG. 6), the process B is performed. When executed (step 104 in FIG. 8), a screen (ii) on which a menu column 29 composed of a plurality of menus is displayed is displayed. At the same time, the driving 1 of FIG. 7 is executed (step 105 of FIG. 8), the state shown in FIG. 2A is changed to the state shown in FIG. 2B, and the display screen 2 is steadily small. Or slowly move backward. By the above process B and drive 1, it can be recognized visually and tactilely that the fingertip 19 has touched the operation button 24.

また、処理Bにより、この画面(ii)では、メニュー欄29での指先19のタッチ位置を含むメニューにカーソル30も表示され、同じタッチ状態を保ちながら指先19を移動させると、このカーソル30もこの指先19にくっついてドラッグし、所望のメニューを選択することができる。そして、カーソル30を所望のメニューに一致させた後(このとき、指先19のタッチ位置もこの所望のメニューに一致している)、さらに、指先19でこのメニューを押し込むようし、P2≦Pにすると(ステップ108)、この場合も、タツチ位置とメニューの位置との一致を判定して、処理Cを実行し(ステップ109)、この所望メニューの決定を行なう画面(iii)が表示される。この場合、カーソル30の色も変化させるようにしてもよい。また、これとともに、図7の駆動2が実行して、図2(b)に示す状態から図2(c)に示す状態に急速に移り、表示画面2がガタンと大きく奥の方に後退する(但し、図7(c)の場合には、逆に前進する)。これにより、この案内メッセージ27に対する機能操作が行なわれたことが(即ち、間違いなくこの案内メッセージ27の表示エリアをタッチ操作したことが)、視覚的にも、また、触覚的にも、認識でき、上記と同様の効果が得られる。このとき、画面(iii)の隣合う2つの辺部に影25を表示し、画面(iii)が押されてへこんでいることを視覚的に表わすようにしてもよい。タッチパネル9から指先19を離すと、画面(i)に戻る。   Further, by processing B, the cursor 30 is also displayed on the menu including the touch position of the fingertip 19 in the menu column 29 on the screen (ii). If the fingertip 19 is moved while maintaining the same touch state, the cursor 30 is also displayed. A desired menu can be selected by sticking to the fingertip 19 and dragging. After the cursor 30 matches the desired menu (at this time, the touch position of the fingertip 19 also matches the desired menu), the menu is pushed by the fingertip 19 and P2 ≦ P. Then (step 108), also in this case, the match between the touch position and the menu position is determined, the process C is executed (step 109), and the screen (iii) for determining this desired menu is displayed. In this case, the color of the cursor 30 may be changed. At the same time, the drive 2 of FIG. 7 is executed, and the state shown in FIG. 2B is rapidly changed to the state shown in FIG. 2C, and the display screen 2 is moved back to the far side. (However, in the case of FIG. 7 (c), it moves forward in reverse). As a result, it is possible to recognize visually and tactilely that a function operation has been performed on the guidance message 27 (that is, the display area of the guidance message 27 is definitely touched). The same effects as described above can be obtained. At this time, the shadow 25 may be displayed on two adjacent sides of the screen (iii) to visually indicate that the screen (iii) is depressed. When the fingertip 19 is released from the touch panel 9, the screen returns to the screen (i).

このように、図10(b),(c)で示す具体例は、拡大表示領域28やカーソル30といったポイントを移動させ、選択した位置で決定を行なうマウスでのドラッグと決定との機能を持たせたものである。   As described above, the specific examples shown in FIGS. 10B and 10C have the functions of dragging and deciding with the mouse that moves the points such as the enlarged display area 28 and the cursor 30 and decides at the selected position. It is

なお、以上説明した第1の具体例では、タッチ操作部材の種類(即ち、操作ボタン24や案内メッセージ27,カーソル29といったもの)に応じて、処理Cを実行させるための押し込み圧力(=P2)を異ならせるようにしてもよい。例えば、「削除」ボタンのような操作に注意を要する操作ボタン24に対しては、他のタッチ操作部材に比べてより強く押さない限り、機能(即ち、処理Cを実行)しないようにすることができる。これにより、間違えて押し込み操作しても、機能しにくいようにする。   In the first specific example described above, the pressing pressure (= P2) for executing the process C according to the type of the touch operation member (that is, the operation button 24, the guidance message 27, the cursor 29, etc.). May be different. For example, an operation button 24 that requires attention to an operation such as a “delete” button is prevented from functioning (ie, executing process C) unless pressed more strongly than other touch operation members. Can do. This makes it difficult to function even if the wrong operation is performed.

図11は本発明によるタッチパネルを備えた表示装置をATM(Automatic Tellers Machine:自動預入支払機)の表示装置とし、これに上記の第1の具体例を用いたときの画面を示す図であり、前出図面に対応する部分には同一符号を付けている。ここでは、図9(a),(c)及び図10(a),(b)に示す画面変化を用いたものとしている。   FIG. 11 is a diagram showing a screen when the display device provided with the touch panel according to the present invention is an ATM (Automatic Tellers Machine) display device, and the above first specific example is used for this. Parts corresponding to those in the previous drawings are given the same reference numerals. Here, the screen changes shown in FIGS. 9A and 9C and FIGS. 10A and 10B are used.

いま、図6に示すような回路構成をもつATMの図3(b)に示すような構成の表示画面2に、図11(a)に示す初期画面(i)が表示されているものとする(図8のステップ100)。この初期画面(i)では、「お引き出し」ボタン,「お預け入れ」ボタン,……などといった顧客が銀行に対して行なう行為を選択できるようにした選択ボタン24や顧客に対する案内メッセージ27が表示されており、いま、顧客が預金の引き出しのために、「お引き出し」ボタン24を指先19で軽くタッチすると、制御部20(図6)は、このときの検出圧力PがP1≦Pと判定したときには(図8のステップ102,103)、ATMの表示画面に図11(b)に示すような案内画面(ii)を表示させる(図8のステップ104)。この案内画面(ii)では、図9(c)に示す画面(ii)のように、指先19でタッチされたこの「お引き出し」ボタン24が拡大され、かつ図9(a)に示す画面(ii)のように、色を変えて表示され、さらに、図10(a)に示す画面(ii)のように、例えば、「お客様の預金口座から現金を引き出すことができます。通帳またはカードが必要です」といったような預金を引き出す場合の案内がこの「お引き出し」ボタン24からの吹き出し26によって表示される。この場合、図示しないスピーカからこの案内を音声出力するようにしてもよい。この場合、上記図7の駆動1が実行される(図8のステップ105)。   Now, it is assumed that the initial screen (i) shown in FIG. 11 (a) is displayed on the display screen 2 having the configuration shown in FIG. 3 (b) of the ATM having the circuit configuration shown in FIG. (Step 100 in FIG. 8). In this initial screen (i), a selection button 24 that allows the customer to select an action to be performed on the bank, such as a “withdrawal” button, a “deposit” button,... Now, when the customer lightly touches the “withdrawal” button 24 with the fingertip 19 to withdraw the deposit, the control unit 20 (FIG. 6) determines that the detected pressure P at this time is P1 ≦ P. Sometimes (steps 102 and 103 in FIG. 8), a guidance screen (ii) as shown in FIG. 11B is displayed on the ATM display screen (step 104 in FIG. 8). In this guidance screen (ii), as in the screen (ii) shown in FIG. 9C, the “drawer” button 24 touched with the fingertip 19 is enlarged, and the screen shown in FIG. As shown in Fig. 10 (a), as shown in Fig. 10 (a), for example, "You can withdraw cash from your deposit account. A guidance for withdrawing a deposit such as “necessary” is displayed by a balloon 26 from the “withdrawal” button 24. In this case, this guidance may be output by voice from a speaker (not shown). In this case, the driving 1 in FIG. 7 is executed (step 105 in FIG. 8).

なお、かかる案内画面(ii)において、指先19で「お引き出し」ボタン24で押し込むようにし、検出圧力PがP2≦Pとなるようにすると(図8のステップ108)、この「お引き出し」ボタン24の選択が決定し、図示しない次の画面に移って預金引き出しのための操作ができるようになる(図8のステップ109)。この場合、上記図7の駆動2が実行される(図8のステップ110)。   In this guidance screen (ii), when the “drawer” button 24 is pushed with the fingertip 19 and the detected pressure P is P2 ≦ P (step 108 in FIG. 8), this “drawer” button The selection of 24 is decided, and it moves to the next screen (not shown) so that an operation for deposit withdrawal can be performed (step 109 in FIG. 8). In this case, the driving 2 in FIG. 7 is executed (step 110 in FIG. 8).

また、図11(a)に示す初期画面(i)で、検出圧力PがP1≦Pとなるように、案内メッセージ27の表示部分を指先19でタッチすると、図10(b)の画面(ii)のように、拡大表示領域28を表示させ、そのタッチ位置を含む所定の範囲の部分をこの拡大表示領域28で拡大表示させる図11(c)に示す案内画面(ii)を表示させることもできる。この場合、かかるタッチ状態で指先19をこの案内メッセージ27に沿って移動させると、この案内メッセージ27の一連の文字列を順に拡大され、これにより、案内メッセージ27を拡大してみることができる。   Further, on the initial screen (i) shown in FIG. 11A, when the display portion of the guidance message 27 is touched with the fingertip 19 so that the detected pressure P satisfies P1 ≦ P, the screen (ii) in FIG. As shown in FIG. 11C, the enlarged display area 28 is displayed, and the guide screen (ii) shown in FIG. 11C is displayed to enlarge and display a portion of a predetermined range including the touch position in the enlarged display area 28. it can. In this case, when the fingertip 19 is moved along the guide message 27 in such a touch state, a series of character strings of the guide message 27 is sequentially enlarged, and thus the guide message 27 can be enlarged.

図12は本発明によるタッチパネルを備えた表示装置を券売機の表示装置とし、これに上記の第1の具体例を用いたときの画面を示す図であり、前出図面に対応する部分には同一符号を付けている。ここでは、図10(b)に示す画面変化を用いたものとしている。   FIG. 12 is a diagram showing a screen when the display device provided with the touch panel according to the present invention is used as a ticket vending machine display device, and the first specific example is used for the display device. The same reference numerals are given. Here, the screen change shown in FIG. 10B is used.

いま、図6に示すような回路を有し、図1または図2に示すような構成の券売機の表示画面2に、図10(a)に示す初期画面(i)が表示されているものとする。この初期画面(i)では、路線と主要駅が表示されており、これ以外の駅は表示されていない(図8のステップ100)。   6 having the circuit shown in FIG. 6 and displaying the initial screen (i) shown in FIG. 10 (a) on the display screen 2 of the ticket vending machine configured as shown in FIG. 1 or FIG. And In this initial screen (i), routes and main stations are displayed, and no other stations are displayed (step 100 in FIG. 8).

顧客が希望する駅までの乗車券(勿論、特急券や指定券などを購入できるようにしてもよい)を購入する場合、この希望駅が初期画面(i)に表示されているときには、その表示位置を指先19で強く押すことにより、図8のステップ102〜106,108が行なわれ、図12(c)に示すような購入用画面(iii)が表示され、これにより、直ちに運賃が判り、乗車券を購入することができる(図8のステップ109)。この場合、勿論、特急券や指定券などの他のチケットも購入できるようにしてもよい。   When purchasing a ticket to the station desired by the customer (of course, you may be able to purchase a limited express ticket or designated ticket), if this desired station is displayed on the initial screen (i), the display When the position is strongly pressed with the fingertip 19, steps 102 to 106 and 108 in FIG. 8 are performed, and a purchase screen (iii) as shown in FIG. 12C is displayed. A ticket can be purchased (step 109 in FIG. 8). In this case, of course, other tickets such as limited express tickets and designated tickets may be purchased.

初期画面(i)に顧客が希望する駅が表示されていないときには、表示される路線に指先でタッチする。このタッチによって制御部20(図6)がP1≦Pと判定すると(図8のステップ102)、そのタッチ位置が表示されないで隠れた駅の表示位置に一致したときには(図8のステップ103)、制御部20は、これを検知して、図12(b)に示すような案内画面(ii)を表示させる(図8のステップ104)。この案内画面(ii)では、図10(b)の画面(ii),(iii)のように、指先19のタッチ位置に拡大表示領域28を設け、この中に、駅名などにより、この駅があることを拡大して表示させる。この拡大表示される駅が顧客の希望しない駅の場合には、指先を路線に沿って移動させる。これにより、この指先19のタッチ位置が駅の位置と一致する毎に、その駅名などを拡大表示した拡大表示領域28が表示され、顧客は、希望する駅を探すことができる。希望した駅が見つかり、その駅名の部分を押し込むように指先19で押圧すると(この場合、上記の駆動2が実行される)、その駅が選択決定されたことになり、図12(c)に示すような購入用画面(iii)が表示され(図8のステップ109)、希望する駅までの乗車券などを購入することができる。   When the station desired by the customer is not displayed on the initial screen (i), the displayed route is touched with a fingertip. When the control unit 20 (FIG. 6) determines that P1 ≦ P by this touch (step 102 in FIG. 8), when the touch position matches the display position of a hidden station without being displayed (step 103 in FIG. 8), The control unit 20 detects this and displays a guidance screen (ii) as shown in FIG. 12B (step 104 in FIG. 8). In this guidance screen (ii), as shown in screens (ii) and (iii) of FIG. 10B, an enlarged display area 28 is provided at the touch position of the fingertip 19, and this station is indicated by the station name or the like. Enlarge and display something. When the station displayed in an enlarged manner is a station not desired by the customer, the fingertip is moved along the route. Thus, every time the touch position of the fingertip 19 matches the position of the station, the enlarged display area 28 in which the station name and the like are enlarged is displayed, and the customer can search for the desired station. When the desired station is found and pressed with the fingertip 19 so as to push in the portion of the station name (in this case, the above drive 2 is executed), the station has been selected and determined as shown in FIG. A purchase screen (iii) as shown is displayed (step 109 in FIG. 8), and a ticket to the desired station can be purchased.

このようにして、券売機では、その表示画面に広い範囲の区間での路線を同時に表示することができ、そこで表示されていない駅までのチケットも簡単な操作で持って購入することができる。   In this way, the ticket vending machine can simultaneously display routes in a wide range on the display screen, and tickets to stations not displayed there can be purchased with a simple operation.

なお、この券売機としては、鉄道の場合を例としたが、バス路線,船舶,航空路などであってもよいことはいうまでもない。   In addition, as this ticket vending machine, although the case of the railroad was taken as an example, it cannot be overemphasized that a bus route, a ship, an air route, etc. may be sufficient.

また、図12(b)に示す案内画面(ii)では、券売する範囲全体の路線を同時に表示するようにしてもよいが、この範囲の一部を表示し、指先19が画面(ii)の端部に達すると、これに続く部分の表示に切り替わるようにしてもよい。勿論、この場合には、新しく表示された路線では、前に表示された路線でのタッチ位置が明らかになるようにする。これにより、券売する路線範囲を拡張することができ
る。
In addition, in the guidance screen (ii) shown in FIG. 12 (b), the route of the entire range for selling tickets may be displayed at the same time. However, a part of this range is displayed, and the fingertip 19 is displayed on the screen (ii) When the end portion is reached, the display of the subsequent portion may be switched. Of course, in this case, the touch position on the previously displayed route is made clear in the newly displayed route. Thereby, the route range which sells tickets can be expanded.

次に、本発明によるタッチパネルを備えた表示装置の第2の実施形態について説明する。但し、この第2の実施形態も、図1〜図6で示す第1の実施形態と同様の構成をなし、また、図7,図8で示した動作をなすものである。   Next, a second embodiment of a display device provided with a touch panel according to the present invention will be described. However, the second embodiment also has the same configuration as that of the first embodiment shown in FIGS. 1 to 6 and performs the operations shown in FIGS.

図13はこの第2の実施形態の図8に示す制御動作によって表示画面2に表示される画面の一具体例を示す図である。   FIG. 13 is a diagram showing a specific example of a screen displayed on the display screen 2 by the control operation shown in FIG. 8 of the second embodiment.

同図において、いま、表示画面2に、操作ボタン24a〜24cが表示されており、この表示画面2に指先19でタッチしたものとする。この指先19のタッチによって圧力センサ(図6)で検出される圧力PがP1≦Pとなったとすると(ステップ102)、制御部20は、タッチセンサ(図6)の検出結果から、この指先19のタッチ位置を検出し、これを記憶部22(図6)のデータと比較して、このタッチ位置が所定の機能(即ち、処理B,C)を実行すべきエリア内(ここでは、操作ボタン24a〜24cのエリア内のいずれか)にあるかどうか判定する(ステップ103)。ここで、タッチ位置が、例えば、操作ボタン24bのエリア内にあるとすると、制御部20は、まず、処理Bを実行し(ステップ104)、駆動モータ11(図6)を制御して振動部23、即ち、リンク機構14を動作させ、図7の駆動1を実行するが(ステップ105)、操作ボタン24a〜24cのエリア内のいずれにもタッチ位置が存在しない場合、即ち、これら操作ボタン24a〜24cのいずれにもタッチしていないときには、P≧P1である限り、ステップ103にあって処理Aの実行を継続し、その後、P<P1となった場合には(タッチパネル9から指先19を離すと)、図示しないが、ステップ100に戻り、また、指先19が移動してそのタッチ位置が操作ボタン24a〜24cのいずれかのエリア内に入ると、これがタッチされたものとして、処理Bを実行し(ステップ104)、駆動モータ11(図6)を制御して振動部23、即ち、リンク機構14を動作させ、図7の駆動1を実行する(ステップ105)。   In this figure, it is assumed that the operation buttons 24 a to 24 c are displayed on the display screen 2 and the display screen 2 is touched with the fingertip 19. If the pressure P detected by the pressure sensor (FIG. 6) by the touch of the fingertip 19 becomes P1 ≦ P (step 102), the control unit 20 determines the fingertip 19 from the detection result of the touch sensor (FIG. 6). The touch position is detected and compared with the data in the storage unit 22 (FIG. 6), and the touch position is within the area where the predetermined function (ie, processing B and C) is to be executed (in this case, the operation button). It is determined whether it is in any of the areas 24a to 24c) (step 103). Here, if the touch position is within the area of the operation button 24b, for example, the control unit 20 first executes the process B (step 104), and controls the drive motor 11 (FIG. 6) to control the vibration unit. 23, that is, the link mechanism 14 is operated and the driving 1 of FIG. 7 is executed (step 105). However, if there is no touch position in any of the areas of the operation buttons 24a to 24c, that is, these operation buttons 24a. When no touch is made on any of 24 to 24c, as long as P ≧ P1, execution of processing A is continued in step 103, and then P <P1 (if the fingertip 19 is moved from the touch panel 9). When the fingertip 19 moves and the touch position enters any one of the operation buttons 24a to 24c, this is not shown, but this is not shown. As a result, the process B is executed (step 104), the drive motor 11 (FIG. 6) is controlled to operate the vibration unit 23, that is, the link mechanism 14, and the drive 1 of FIG. Step 105).

この駆動1の実行により、図1の構成を例にとると、図2(b)に示す状態となり、表示画面2が筐体1の開口1aから少し後退して引っ込んだ状態となる。このように、操作ボタン24a〜24cの1つに触ると、その瞬間表示画面2がカタッと小さく、またはゆっくりと小さく後退し、これら操作ボタン24a〜24c以外の部分を触っても、表示画面2では、何の変化もないから、操作ボタン24a〜24cに触ったことが触覚で認識することができ、例えば、表示画面2を斜めに見て視差が生じた場合でも、操作ボタンに触れたか否かが簡単にわかるし、また、目の不自由な人でも、正確に操作ボタンにタッチすることができる。   When the drive 1 is executed, taking the configuration of FIG. 1 as an example, the state shown in FIG. 2B is obtained, and the display screen 2 is slightly retracted from the opening 1a of the housing 1 and retracted. As described above, when one of the operation buttons 24a to 24c is touched, the instantaneous display screen 2 is suddenly small or slowly retracted small, and even if a portion other than these operation buttons 24a to 24c is touched, the display screen 2 Then, since there is no change, it can be recognized by tactile sense that the operation buttons 24a to 24c have been touched. For example, whether or not the operation buttons are touched even when parallax occurs when the display screen 2 is viewed obliquely. It's easy to see, and even people who are blind can touch the operation buttons accurately.

なお、この具体例では、処理Bは必ずしも必要なものではなく、少なくとも駆動1が実行されればよい。   In this specific example, the process B is not necessarily required, and at least the drive 1 may be executed.

そして、圧力センサからその検出圧力Pを取り込んで判定し、P<P1であるときには(ステップ106)、処理Bと駆動1の実行を終了して(ステップ107)ステップ100に戻る。また、P1≦Pであるときには(ステップ106)、さらに、P2≦Pであるか否かを判定し(ステップ108)、この判定の結果、P1≦P<P2であるときには、ステップ103に戻り、P1≦P<P2である限り、処理Bと駆動1とをそのまま継続して実行する。また、P2≦Pのときには(ステップ108)、指先19のタッチ位置が操作ボタン24a〜24cのいずれかのエリアと一致しているとき、処理Cを実行し(ステップ109)、図7に示す駆動2を実行する(ステップ110)。   Then, the detected pressure P is taken from the pressure sensor and determined. When P <P1 (step 106), the execution of the process B and the drive 1 is finished (step 107), and the process returns to step 100. If P1 ≦ P (step 106), it is further determined whether or not P2 ≦ P (step 108). If P1 ≦ P <P2 as a result of this determination, the process returns to step 103. As long as P1 ≦ P <P2, the process B and the drive 1 are continuously executed as they are. When P2 ≦ P (step 108), when the touch position of the fingertip 19 coincides with any area of the operation buttons 24a to 24c, the process C is executed (step 109), and the driving shown in FIG. 2 is executed (step 110).

この処理Cは、操作ボタン24a〜24cに対しては、先の具体例と同様、その決定処理に相当するものであり、このとき同時に実行される駆動2は、表示画面2をさらに押し込むものである。従って、表示画面2で表示される操作ボタン24a〜24cで実行操作を行なうと、これと同時に表示画面2が押し込まれるように動作するものであるから、ハード構成のスイッチを押し込み操作したのと同様の感触を得ることができ、大きな視差でもってこの操作ボタンの決定操作を行なっても、かかる操作をしたか否かを正確に判断することができるし、また、目が不自由な人も、上記の駆動1の実行に続く駆動2の実行(表示画面2の後退または前進)により、決定操作が実行されたことを確実に知ることができる。   This process C corresponds to the determination process for the operation buttons 24a to 24c, as in the previous specific example, and the drive 2 executed at this time further pushes the display screen 2. is there. Therefore, if the operation operation is performed with the operation buttons 24a to 24c displayed on the display screen 2, the display screen 2 is operated at the same time, so that it is the same as when the hardware switch is pressed. You can get the feel of this, even if you decide the operation button with a large parallax, you can accurately determine whether you have done such an operation, The execution of the drive 2 following the execution of the drive 1 described above (retreat or advance of the display screen 2) makes it possible to reliably know that the determination operation has been executed.

処理Cと駆動2との実行中にタッチパネル9から指先19を離すと、P<P2となるから(ステップ111)、処理Cを終了させ(ステップ112)、ステップ103に戻るが、このとき、P<P1であれば、ステップ100に戻る。ここで、処理Cは先の具体例での処理Cと同様の処理であるが、この具体例では、必ずしも必要なものではなく、少なくとも駆動2が実行されればよい。   If the fingertip 19 is released from the touch panel 9 during the execution of the process C and the drive 2, P <P2 is satisfied (step 111), the process C is terminated (step 112), and the process returns to the step 103. If <P1, return to Step 100. Here, the process C is the same process as the process C in the previous specific example, but in this specific example, it is not always necessary, and at least the drive 2 may be executed.

この具体例の一応用例として、図14により、ATMに応用した場合について説明する。   As an application example of this specific example, the case of application to ATM will be described with reference to FIG.

同図(a)はATM31の表示画面2での複数の操作ボタン24からなるボタン群のうちの所望とする1つの操作ボタン24に指先19でタッチし、検出圧力PがP1≦P<P2であるときを示すものである。ボタン群の輪郭に影32を表示することにより、かかるボタン群が浮き上がって見えるように表示している。この場合には、図8のステップ104により、表示画面2で指先19でタッチされた操作ボタン24が、例えば、色が変わるなどの処理Bが実行されるとともに、図8のステップ105により、表示画面8がATM31の筐体1の開口で奥に沈み込む図7の駆動1が実行される。   FIG. 5A shows that a desired operation button 24 of a group of buttons 24 on the display screen 2 of the ATM 31 is touched with the fingertip 19 and the detected pressure P is P1 ≦ P <P2. It shows a certain time. By displaying the shadow 32 on the outline of the button group, the button group is displayed so as to be lifted up. In this case, the operation button 24 touched with the fingertip 19 on the display screen 2 at Step 104 in FIG. 8 performs processing B such as a color change, and at Step 105 in FIG. The drive 1 shown in FIG. 7 is executed in which the screen 8 sinks in the back at the opening of the casing 1 of the ATM 31.

そして、さらに、決定操作のために、この操作ボタン24を押し込むようにする操作を行ない、P2≦Pとなると、図14(b)に示すように、図8のステップ109により、この操作された操作ボタン24の2つの辺部に、この操作ボタン24が押し込められて見えるように、影部33を現わす処理Cが実行されるとともに、図8のステップ110により、表示画面8がATM31の筐体1の開口でさらに奥に沈み込む、もしくは浮き上がる図7の駆動2が実行される。   Further, for the determination operation, an operation to push in the operation button 24 is performed. When P2 ≦ P is satisfied, the operation is performed by step 109 in FIG. 8 as shown in FIG. 14B. Processing C is performed so that the shadow portion 33 appears so that the operation button 24 is pushed into the two sides of the operation button 24, and the display screen 8 is displayed on the housing of the ATM 31 in step 110 of FIG. The drive 2 shown in FIG. 7 is further submerged or floated at the opening of the body 1.

このように、平面な表示画面2で表示される操作ボタン24が、これがタッチ操作されたときには、駆動1,2の実行により、感覚的にもハードのボタンを操作したときと同様であるし、また、視覚的にも、操作ボタンが押し込まれたように認識されることになり、良好な操作感が得られることになる。また、影部33の幅や濃さを表示画面の移動量に対応するように表示することにより、さらに良好な操作考えられる。   As described above, when the operation button 24 displayed on the flat display screen 2 is touch-operated, it is the same as when the hardware button is operated sensuously by executing the driving 1 and 2. In addition, visually, the operation button is recognized as being pushed in, and a good operation feeling is obtained. Further, by displaying the width and darkness of the shadow portion 33 so as to correspond to the amount of movement of the display screen, a better operation can be considered.

他の応用例として、図15により、これもATMに応用した場合について説明する。   As another application example, a case where this is also applied to ATM will be described with reference to FIG.

同図(a)はATM31の表示画面2での複数の操作ボタン24が個々に分離されてなるボタン群のうちの所望とする1つの操作ボタン24に指先19でタッチし、検出圧力PがP1≦P<P2であるときを示すものである。これら操作ボタン24には夫々、その輪郭に影32を表示することにより、これら操作ボタン24が浮き上がって見えるように表示している。この場合には、図8のステップ104により、表示画面2で指先19でタッチされた操作ボタン24が、例えば、色が変わるなどの処理Bが実行されるとともに、図8のステップ105により、表示画面8がATM31の筐体1の開口で奥に沈み込む図7の駆動1が実行される。   In FIG. 5A, a desired operation button 24 in a group of buttons in which a plurality of operation buttons 24 on the display screen 2 of the ATM 31 are individually separated is touched with the fingertip 19, and the detected pressure P is P1. It indicates when ≦ P <P2. Each of these operation buttons 24 is displayed so that these operation buttons 24 are lifted up by displaying a shadow 32 on the outline thereof. In this case, the operation button 24 touched with the fingertip 19 on the display screen 2 at Step 104 in FIG. 8 performs processing B such as a color change, and at Step 105 in FIG. The drive 1 shown in FIG. 7 is executed in which the screen 8 sinks in the back at the opening of the casing 1 of the ATM 31.

そして、さらに、決定操作のために、この操作ボタン24を押し込むようにする操作を行ない、P2≦Pとなると、図15(b)に示すように、図8のステップ109により、このように操作された操作ボタン24では、これが押し込められて見えるように、影部が除かれる処理Cが実行されるとともに、図8のステップ110により、表示画面2がATM31の筐体1の開口でさらに奥に沈み込む、もしくは浮き上がる図7の駆動2が実行される。   Further, for the determination operation, an operation to push in the operation button 24 is performed. When P2 ≦ P, as shown in FIG. 15B, the operation is performed in this way by step 109 in FIG. In the operation button 24, the process C for removing the shadow portion is executed so that the operation button 24 can be pushed in, and the display screen 2 is further opened at the opening of the casing 1 of the ATM 31 by step 110 in FIG. The drive 2 shown in FIG. 7 is performed, which sinks or rises.

このように、この応用例においても、先の応用例と同様、平面な表示画面2で表示される操作ボタン24が、これがタッチ操作されたときには、駆動1,2の実行により、感覚的にもハードのボタンを操作したときと同様であるし、また、視覚的にも、操作ボタンが押し込まれたように認識されることになり、良好な操作感が得られることになる。   As described above, in this application example, as in the previous application example, when the operation button 24 displayed on the flat display screen 2 is touch-operated, the drive 1 and 2 are executed, so This is the same as when a hard button is operated, and also visually, the operation button is recognized as being pushed in, and a good operational feeling is obtained.

この応用例においても、押し込まれると消えていく影の部分の幅や濃さを表示画面の移動量に対応するように表示することにより、さらに良好な操作考えられる。   Also in this application example, a better operation can be considered by displaying the width and darkness of the shadow portion that disappears when pressed in such a way as to correspond to the amount of movement of the display screen.

次に、本発明によるタッチパネルを備えた表示装置の第3の実施形態について説明する。
この第3の実施形態も、上記第1,第2の実施形態と同様の図1〜図6に示す構成をなすものであり、表示画面2が任意の駆動量をとることができるようにしたものである。
Next, a third embodiment of a display device including a touch panel according to the present invention will be described.
The third embodiment also has the same configuration as shown in FIGS. 1 to 6 as the first and second embodiments, and the display screen 2 can take an arbitrary driving amount. Is.

図16はかかる第3の実施形態の制御部20(図6)の制御動作を示すフローチャートであり、以下、画面の表示例をもってこの動作を説明する。   FIG. 16 is a flowchart showing the control operation of the control unit 20 (FIG. 6) of the third embodiment. Hereinafter, this operation will be described with a display example of a screen.

また、図17はこの制御動作での表示画面2に表示される画面の例を示すものであり、ここでは、表示画面2の初期位置を図2(a)に示す状態での位置と図2(c)に示す状態での位置との中間の位置とする。   FIG. 17 shows an example of a screen displayed on the display screen 2 in this control operation. Here, the initial position of the display screen 2 is the position in the state shown in FIG. The position is intermediate between the positions shown in (c).

同図において、図示しない電源がオンとされると、先の第1の実施形態に対する図8と同様に、制御部20は表示装置を動作開始状態にする(ステップ200)。表示画面2では、例えば、図17(a)に示すように、突起を示す画像(以下、突起部という)34a〜34cが表示されているものとする。そして、まず、電源をオフするなどして動作の終了条件が設定されたか否か判定し(ステップ201)、設定されていない場合には、図6での圧力センサからその検出圧力Pを取り込み、P≧P1かどうか判定する(ステツプ202)。P<P1のときには、タッチパネル9(図1〜図3)へのタッチ操作もなされていないとして、ステップ200に戻り、タッチ操作がなされるまで、ステップ200〜202の一連の動作が繰り返されて表示画面2が初期位置に設定されたままとする。   In the figure, when a power supply (not shown) is turned on, the control unit 20 puts the display device into an operation start state as in FIG. 8 for the first embodiment (step 200). On the display screen 2, for example, as shown in FIG. 17A, it is assumed that images showing protrusions (hereinafter referred to as protrusions) 34a to 34c are displayed. First, it is determined whether or not an operation end condition has been set by turning off the power (step 201). If not set, the detected pressure P is taken from the pressure sensor in FIG. It is determined whether P ≧ P1 (step 202). When P <P1, it is determined that no touch operation has been performed on the touch panel 9 (FIGS. 1 to 3), and the process returns to step 200 and the series of operations in steps 200 to 202 are repeated until the touch operation is performed. It is assumed that screen 2 remains set at the initial position.

いま、表示画面2において、図17(a)に示すように、突起部34a〜34c以外のエリア(以下、背景エリアという)35内の点Sに指先19でタッチし、タッチしたまま指先19を、突起部34a〜34cを横切るように、矢印Y方向に移動させるものとすると、指先19が点Sにタッチしたときには、制御部20は圧力センサの検出圧力PがP1≦Pとなったことからこのタッチを検出し(ステツプ202)、また、制御部20は、タッチセンサによって検出したこのタッチ位置と記憶部22(図6)のデータとにより、このタッチ位置が背景エリア35内にあることを検知し、上記の初期状態のままで待機する(ステップ203)。指先19をタッチパネル9から離すと、P<P1となるから、ステップ200に戻り、ステップ200〜202の一連の動作が繰り返される。   Now, on the display screen 2, as shown in FIG. 17A, a point S in an area 35 (hereinafter referred to as a background area) 35 other than the protrusions 34a to 34c is touched with the fingertip 19, and the fingertip 19 is left touched. When the fingertip 19 touches the point S, the control unit 20 detects that the detected pressure P of the pressure sensor satisfies P1 ≦ P. This touch is detected (step 202), and the control unit 20 determines that the touch position is in the background area 35 based on the touch position detected by the touch sensor and the data in the storage unit 22 (FIG. 6). Detect and wait in the above initial state (step 203). When the fingertip 19 is moved away from the touch panel 9, P <P1, so that the process returns to step 200 and a series of operations of steps 200 to 202 are repeated.

次に、指先19を、タッチパネル9にタッチしたまま、矢印Y方向に移動させると、指先19は突起部34aに達するが、制御部20は、圧力センサ(図6)の検出圧力Pから指先19がタッチパネル9にタッチしていることを検知しつつ、タッチセンサで検出されるタッチ位置と記憶部22のデータとからタッチ位置が突起部34aのエリア内にあることを検知し、駆動モータ11(図1,図2,図3)を回転制御してリンク機構14を駆動し、表示画面2を図2(a)に示す状態にする(ステップ204)。これにより、表示画面2が上記の初期位置から持ち上がった状態となる。   Next, when the fingertip 19 is moved in the arrow Y direction while touching the touch panel 9, the fingertip 19 reaches the protrusion 34a, but the control unit 20 detects the fingertip 19 from the detected pressure P of the pressure sensor (FIG. 6). Detects that the touch position is touching the touch panel 9, and detects that the touch position is within the area of the protrusion 34a from the touch position detected by the touch sensor and the data in the storage unit 22, and the drive motor 11 ( The link mechanism 14 is driven by controlling the rotation of FIGS. 1, 2 and 3 to bring the display screen 2 into the state shown in FIG. 2A (step 204). As a result, the display screen 2 is lifted from the initial position.

指先19が矢印Y方向に移動してタッチが継続しているときには(ステップ205)、ステップ203に戻り、以下、指先19がタッチパネル9にタッチしている限り、ステップ203〜205の一連の動作が繰り返されることになり、指先19の矢印Y方向への移動につれて、指先19のタッチ位置が突起部34a,34b間の背景エリア35内に入ると、制御部20はこれを検出して駆動モータ11を逆方向に回転制御し、リンク機構14を駆動して表示画面2を初期位置に戻す。そして、指先19のタッチ位置が次の突起部34bのエリア内に入ると、制御部20はこれを検知し、同様にして、表示画面2を図2(a)に示す状態の位置に移し、表示画面2が持ち上がった状態にする。   When the fingertip 19 moves in the arrow Y direction and the touch is continued (step 205), the process returns to step 203. Hereinafter, as long as the fingertip 19 is touching the touch panel 9, a series of operations of steps 203 to 205 are performed. As the fingertip 19 moves in the arrow Y direction, when the touch position of the fingertip 19 enters the background area 35 between the protrusions 34a and 34b, the control unit 20 detects this and detects the drive motor 11. Is rotated in the reverse direction, and the link mechanism 14 is driven to return the display screen 2 to the initial position. Then, when the touch position of the fingertip 19 enters the area of the next protrusion 34b, the control unit 20 detects this, and similarly moves the display screen 2 to the position shown in FIG. The display screen 2 is lifted.

このようにして、指先19のタッチ位置が背景エリア34から突起部34a〜34cのエリアに移る毎に、表示画面2は初期位置の状態から図2(a)の状態に移って持ち上がった状態となり、逆に、指先19のタッチ位置が突起部34a〜34cのエリアから背景エリア35に移る毎に、表示画面2は図2(a)の状態から初期位置の状態に移って下げられた状態となる。従って、図17(a)に示す表示画面2で指先19をタッチしたまま矢印Y方向へ移動させると、突起部34a,34b,34c毎に表示画面2が持ち上がり、これら突起部34a,34b,34cが画面から突起しているように感じられるようになる。   In this way, each time the touch position of the fingertip 19 moves from the background area 34 to the areas of the protrusions 34a to 34c, the display screen 2 changes from the initial position to the state shown in FIG. Conversely, every time the touch position of the fingertip 19 moves from the area of the protrusions 34a to 34c to the background area 35, the display screen 2 is moved from the state of FIG. Become. Accordingly, when the fingertip 19 is touched and moved in the arrow Y direction on the display screen 2 shown in FIG. 17A, the display screen 2 is lifted for each of the protrusions 34a, 34b, 34c, and these protrusions 34a, 34b, 34c. Feels like protruding from the screen.

なお、突起部34a〜34cが凹んだくぼみ部を表わすものであるときには、図16のステップ204では、表示画面2を初期位置から図2(c)で示す状態の位置に移される。   Note that when the projections 34a to 34c represent recessed portions, the display screen 2 is moved from the initial position to the position shown in FIG. 2C in step 204 of FIG.

図17(b)は表示画面2での他の表示例を示すものであって、ここで表示される突起部36はお碗型の突起を表わすものとする。この表示例のときの図16に示す動作を説明する。   FIG. 17B shows another display example on the display screen 2, and the protrusion 36 displayed here represents a bowl-shaped protrusion. The operation shown in FIG. 16 in this display example will be described.

図17(b)に示す表示画面2において、背景エリア35内の位置Sから指先19をタッチパネル9にタッチしたまま矢印Y方向に、突起部36を横切るように、移動させると、指先19がタッチする前はステップ200〜202の一連の動作が繰り返され、指先19がタッチパネル9にタッチして圧力P1≦Pが検出されると(ステツプ202)、ステップ203に移って表示画面2を図2(c)
に示す初期状態に維持したままとする。
In the display screen 2 shown in FIG. 17B, when the fingertip 19 is moved from the position S in the background area 35 in the arrow Y direction while touching the touch panel 9 so as to cross the protrusion 36, the fingertip 19 is touched. Before the operation, a series of operations in steps 200 to 202 are repeated. When the fingertip 19 touches the touch panel 9 and pressure P1 ≦ P is detected (step 202), the process proceeds to step 203 and the display screen 2 is displayed as shown in FIG. c)
The initial state shown in FIG.

そして、指先19のタッチ位置が突起部36内に入ると、制御部20は、上記と同様にして、これを検出し、駆動モータ11を回転制御してリンク機構14を駆動する(ステップ204)。ここで、このような位置に応じて高さが変化する突起部36に対しては、その位置と高さとの関係を示すデータが記憶部22(図6)に格納されており、制御部20は、検出したタッチ位置に対応した高さデータを記憶部22から読み取り、この高さデータに応じて駆動モータ11(図6)を回転制御することにより、この高さデータに応じた駆動量でリンク機構14を駆動する。この結果、表示画面2は、図17(b)で図示するように、例えば、円弧状に変化する駆動量で駆動されて、指先19のタッチ位置が突起部36の周辺部から中央部に向かうにつれて、初期位置にある表示画面2が矢印A方向とは逆方向に連続的に移動することにより、次第に持ち上げられて図2(a)に示すような状態となり、次いで、指先19のタッチ位置が中央部から突起部36の周辺部に向かうにつれて、図2(a)に示すような状態から矢印A方向に連続的に移動し、次第に下げられていって元の初期位置に戻る。   When the touch position of the fingertip 19 enters the protrusion 36, the control unit 20 detects this in the same manner as described above, and controls the rotation of the drive motor 11 to drive the link mechanism 14 (step 204). . Here, for the protrusion 36 whose height changes according to such a position, data indicating the relationship between the position and the height is stored in the storage unit 22 (FIG. 6), and the control unit 20 Reads the height data corresponding to the detected touch position from the storage unit 22, and controls the rotation of the drive motor 11 (FIG. 6) according to the height data, so that the drive amount according to the height data is The link mechanism 14 is driven. As a result, as shown in FIG. 17B, the display screen 2 is driven with, for example, a driving amount that changes in an arc shape, and the touch position of the fingertip 19 moves from the peripheral portion of the protrusion 36 toward the central portion. As the display screen 2 at the initial position continuously moves in the direction opposite to the arrow A direction, the display screen 2 is gradually lifted to a state as shown in FIG. 2A, and then the touch position of the fingertip 19 is changed. As it goes from the center to the periphery of the protrusion 36, it continuously moves from the state shown in FIG. 2A in the direction of arrow A, and is gradually lowered to return to the original initial position.

このようにして、連続的に高さが変化するように表わされる突起部に対しては、表示画面2がタッチ位置の変化に応じて連続的に駆動されるものであるから、平面的な表示画面2に表示される突起部も、感覚的に突出しているように認識できることになる。このようにして、突起部にタッチしていることを確実に認識でき、かかる突起部にタッチしたつもりが、実際にこれにタッチしていないことも確実に知ることができ、所望とする突起部へタッチしているか否かの確認が容易となる。   Since the display screen 2 is continuously driven in accordance with the change in the touch position, the planar display is performed on the protrusions whose height is continuously changed in this way. The protrusions displayed on the screen 2 can also be recognized as protruding sensuously. In this way, it is possible to reliably recognize that the protrusion is touched, and it is possible to reliably know that the user has touched the protrusion but has not actually touched it. It is easy to confirm whether or not the touch is on.

なお、突起部36の代わりに、お碗型に凹んだくぼみ部を表わすものであるときには、図16のステップ204では、表示画面2を初期状態から図2(c)で示す状態の方に移すようにする。この場合も、突起部36と同様の効果が得られる。   If it represents a hollow portion recessed in the bowl shape instead of the projection 36, the display screen 2 is moved from the initial state to the state shown in FIG. 2C in step 204 of FIG. Like that. In this case, the same effect as that of the protrusion 36 can be obtained.

また、ここでは、突起部36をお碗型のものを表わしているものとしたが、高さまたは深さが任意に変化するようなものでもよく、例えば、地図のようなものであっても、表示画面2で2次元的に表示されていても、表示画面2を地表の高さに応じて上記のように移動することにより、感覚的にその高さも認識することができるようになり、3次元的に表示された地図として認識することが可能となる。   Here, the projection 36 represents a bowl shape, but the height or depth may be arbitrarily changed. For example, the projection 36 may be a map. Even if it is displayed two-dimensionally on the display screen 2, by moving the display screen 2 as described above according to the height of the ground surface, the height can be recognized sensuously. It can be recognized as a three-dimensionally displayed map.

図17(c)は表示画面2でのさらに他の表示例を示すものであって、ここで表示される突起部37は面積が広い平らな突起を表わすものとする。この表示例のときの図16に示す動作を説明する。   FIG. 17C shows still another display example on the display screen 2, and the projected portion 37 displayed here represents a flat projection having a large area. The operation shown in FIG. 16 in this display example will be described.

図17(c)に示す表示画面2において、背景エリア35内の位置Sから指先19をタッチパネル9にタッチしたまま矢印Y方向に、突起部37を横切るように、移動させると、指先19がタッチする前は図16のステップ200〜202の一連の動作が繰り返され、指先19がタッチパネル9にタッチして圧力P1≦Pが検出されると(ステツプ202)、ステップ203に移って表示画面2を初期位置に維持したままとする。   In the display screen 2 shown in FIG. 17C, when the fingertip 19 is moved from the position S in the background area 35 in the direction of arrow Y while touching the touch panel 9 so as to cross the protrusion 37, the fingertip 19 is touched. 16 is repeated, and when the fingertip 19 touches the touch panel 9 and pressure P1 ≦ P is detected (step 202), the process proceeds to step 203 and the display screen 2 is displayed. Keep the initial position.

そして、指先19のタッチ位置が突起部37内に入ると、制御部20は、上記と同様にして、これを検出し、駆動モータ11を回転制御してリンク機構14を駆動する(ステップ204)。ここでは、このような面積が広くて平坦な突起部37に対しては、記憶部22(図6)には、表示画面2を初期位置から図2(a)に示す位置の方向に移動させて振動させるためのデータが格納されており、制御部20は、指先19のタッチ位置がかかる突起部37のエリア内にあることを検出すると、記憶部22からかかるデータを読み出して駆動モータ11を往復回転制御する。これにより、駆動モータ11は、初期位置から図2(a)に示す位置の方向に移動した後、小きざみに回転方向を交互に反転し、これにより、図17(c)に示すように駆動量が変化して、表示画面2は振動することになる。   When the touch position of the fingertip 19 enters the protrusion 37, the control unit 20 detects this in the same manner as described above, and controls the rotation of the drive motor 11 to drive the link mechanism 14 (step 204). . Here, for such a large and flat protrusion 37, the storage unit 22 (FIG. 6) moves the display screen 2 from the initial position to the position shown in FIG. When the control unit 20 detects that the touch position of the fingertip 19 is within the area of the projection 37, the control unit 20 reads the data from the storage unit 22 and causes the drive motor 11 to move. Control reciprocating rotation. As a result, the drive motor 11 moves from the initial position in the direction of the position shown in FIG. 2A and then reverses the rotation direction in small increments, thereby driving as shown in FIG. 17C. As the amount changes, the display screen 2 vibrates.

勿論、指先19のタッチ位置が背景エリア35から突起37のエリアに移ったときには、表示画面2を初期位置から図2(a)に示す位置の方向に移動させるものであるが、図17(c)に示すような広くて平らな突起部37の場合、タッチ位置がかかる突起部37内に長く存在する可能性もあり、このような場合には、時間経過とともに、かかる突起部37にタッチしていることの意識がなくなることになるが、上記のように、表示画面2を振動させることにより、このような突起部37にタッチしていることを常に認識させることができる。   Of course, when the touch position of the fingertip 19 moves from the background area 35 to the area of the protrusion 37, the display screen 2 is moved from the initial position in the direction of the position shown in FIG. In the case of a wide and flat protrusion 37 as shown in FIG. 2), there is a possibility that the touch position is long in the protrusion 37. In such a case, the protrusion 37 is touched with time. However, it is possible to always recognize that the projection 37 is touched by vibrating the display screen 2 as described above.

なお、ここでは、平らな突起部37を例としたが、平らなくぼみ部であるときには、表示画面2を初期位置から図2(c)に示す位置の方向に移動させ、そこで振動させるようにする。   Here, the flat protrusion 37 is taken as an example. However, when the flat protrusion 37 is formed, the display screen 2 is moved from the initial position to the position shown in FIG. To do.

次に、本発明によるタッチパネルを備えた表示装置の第4の実施形態について説明する。
この第4の実施形態は、上記第3の実施形態において、突起部を操作ボタンとするものであり、上記第3の実施形態の動作にこれら操作ボタンの機能の実行のための動作を付加したものである。
Next, a fourth embodiment of a display device including a touch panel according to the present invention will be described.
In the fourth embodiment, the projection is an operation button in the third embodiment, and an operation for executing the function of these operation buttons is added to the operation of the third embodiment. Is.

図18はかかる第4の実施形態の制御動作を示すフローチャートであって、ステップ200〜206は第3の実施形態の図16で示す動作と同様である。また、ここでは、図17に示す突起部34a〜34c,36,37を夫々操作ボタンとする。   FIG. 18 is a flowchart showing the control operation of the fourth embodiment, and steps 200 to 206 are the same as the operation shown in FIG. 16 of the third embodiment. Here, the protrusions 34a to 34c, 36, and 37 shown in FIG.

図19はこの第4の実施形態での圧力Pに対する表示画面への作用(反応)を示す図である。   FIG. 19 is a diagram showing the action (reaction) on the display screen with respect to the pressure P in the fourth embodiment.

同図において、ステップ200〜206の一連の動作は図16で説明した動作と同様であり、説明を省略する。但し、ここでは、同じ表示画面2に図17(a)〜(c)に示すような操作ボタンが表示されるが、形状,サイズが異なる操作ボタンは機能,用途なども異なるものとする。   In the same figure, a series of operations in steps 200 to 206 are the same as the operations described in FIG. However, although the operation buttons as shown in FIGS. 17A to 17C are displayed on the same display screen 2 here, the operation buttons having different shapes and sizes have different functions and uses.

図16で説明したように、指先19が操作ボタンにタッチして圧力PがP1≦P<P2であるときには、図19に示すように、表示画面2の駆動が行なわれるが、図17(a),(b),(c)の操作ボタン34a〜34c,36,37毎に、表示画面2の駆動の仕方が異なり(ステップ204)、これにより、操作ボタンの機能や用途が異なっており、これにより、所望とする操作ボタンにタッチしたことを感覚的に認識することができる。   As shown in FIG. 16, when the fingertip 19 touches the operation button and the pressure P is P1 ≦ P <P2, the display screen 2 is driven as shown in FIG. ), (B), and (c) operation buttons 34a to 34c, 36, and 37 have different driving methods for the display screen 2 (step 204), and thus the functions and applications of the operation buttons are different. This makes it possible to sensuously recognize that the desired operation button has been touched.

以上の状態で指先19でタッチしている操作ボタンを押し込むようにする操作をし、そのときの圧力センサの検出圧力PがP2≦Pになると(ステップ301)、制御部20は、そのときの指先19のタッチ位置が操作ボタンのエリア内であるときには(ステップ302)、図19に示すように、この操作ボタンの機能(例えば、決定など)が実行される(ステップ303)。そして、この操作ボタンの押し込みが終わると(ステップ304)、ステップ203に戻って次の操作を待つ。   When the operation button touched with the fingertip 19 is pushed in the above state and the detected pressure P of the pressure sensor at that time becomes P2 ≦ P (step 301), the control unit 20 When the touch position of the fingertip 19 is within the operation button area (step 302), as shown in FIG. 19, the function of this operation button (for example, determination) is executed (step 303). When the pressing of the operation button is finished (step 304), the process returns to step 203 to wait for the next operation.

このようにして、この第4の実施形態では、操作ボタンに応じて表示画面2の駆動の仕方が異なるので、これでもってどの操作ボタンにタッチしたかを触ったことによって知ることができる。   In this way, in the fourth embodiment, since the display screen 2 is driven differently depending on the operation button, it can be known by touching which operation button has been touched.

次に、本発明によるタッチパネルを備えた表示装置の第5の実施形態について説明する。
図20は本発明によるタッチパネルを備えた表示装置の第5の実施形態を示す構成図であって、同図(a)は断面図、同図(b)は平面図であり、401は赤外光走査式タッチパネル、401aは赤外線受発光部、402は圧力センサー、403は駆動装置、404は液晶表示面、405は液晶ディスプレイ筐体、406は外側筐体である。
Next, a fifth embodiment of a display device provided with the touch panel according to the present invention will be described.
FIG. 20 is a block diagram showing a fifth embodiment of a display device provided with a touch panel according to the present invention. FIG. 20 (a) is a sectional view, FIG. 20 (b) is a plan view, and 401 is an infrared ray. An optical scanning touch panel, 401a is an infrared light receiving / emitting unit, 402 is a pressure sensor, 403 is a driving device, 404 is a liquid crystal display surface, 405 is a liquid crystal display housing, and 406 is an outer housing.

同図において、外側筐体406の上面の矩形状の開口に赤外光走査式タッチパネル401が設けられている。このタッチパネル402の下方の四隅には圧力センサー402が配置され、圧力センサー402のさらに下方に駆動装置が配置されている。また、タッチパネル402の下方には、液晶ディスプレイ405がその液晶表示画面404を上面にする向きに配置される。利用者は、この液晶表示画面404に表示される内容をタッチパネル402を介して確認して操作する。   In the figure, an infrared light scanning touch panel 401 is provided in a rectangular opening on the upper surface of the outer casing 406. Pressure sensors 402 are disposed at the lower four corners of the touch panel 402, and a driving device is disposed further below the pressure sensor 402. Further, below the touch panel 402, a liquid crystal display 405 is arranged in a direction with the liquid crystal display screen 404 as an upper surface. The user confirms and operates the content displayed on the liquid crystal display screen 404 via the touch panel 402.

赤外光走査式タッチパネル401は同図(b)に示されるように矩形のタッチパネルの周囲に赤外線受発光部401aが配置される構造となっている。この実施例形態においては指示位置の検出を赤外線走査式タッチパネルで行い、圧力の検出を圧力センサ402で行う。
圧力センサ402は、タッチパネルの下方の四隅に配置され、指等の指示部材がパネル面を押す力をリアルタイムで検出する。指等を触れない時にそれぞれのセンサーが検知した押圧をa0、b0、c0、d0とし、指等で操作中に検知するそれぞれの押圧がa、b、c、dとすると、指等の指示部材がパネル面を押す力Pは、指示位置に関わらず次の式から求められる。
P=(a+b+c+d)−(a0+b0+c0+d0)
駆動装置403は、圧力センサ402のさらに下方に設けられる。この実施形態においては、ボタンを押した感覚を得ることを主な目的とし、ソレノイドコイルまたはボイスコイルなどのレスポンス性のよい駆動手段を採用する。駆動範囲は2mm程度あれば、ボタンを押した感覚を得ることができる。また、図20に示すような構成とすれば、液晶ディスプレイ405を固定し、タッチパネル401部分だけを駆動することとなるので、駆動部の質量を軽減することができ、駆動のレスポンス性を高めることができる。駆動範囲を2mm程度とすれば、液晶表示画面に表示される内容の視差も問題にならない程度である。
指示位置の検出手段として赤外光走査式のタッチパネルを採用することで、利用者は力を入れることなくタッチパネル402の表面に指等の指示部材を滑らせることによりタッチパネルに位置を検出させることができ、指示位置の検出をより容易に、正確に行うことができる。なお、赤外光走査式以外に、静電容量式のタッチパネルを採用することによっても同様の効果を得ることができる。
The infrared light scanning touch panel 401 has a structure in which an infrared light receiving and emitting unit 401a is disposed around a rectangular touch panel as shown in FIG. In this embodiment, the indication position is detected by an infrared scanning touch panel, and the pressure is detected by a pressure sensor 402.
The pressure sensors 402 are arranged at the four corners below the touch panel and detect in real time the force with which a pointing member such as a finger presses the panel surface. When the pressure detected by each sensor when the finger is not touched is a0, b0, c0, d0, and the pressure detected during operation with the finger is a, b, c, d, the pointing member such as a finger The force P that presses the panel surface can be obtained from the following equation regardless of the indicated position.
P = (a + b + c + d) − (a0 + b0 + c0 + d0)
The driving device 403 is provided further below the pressure sensor 402. In this embodiment, the main purpose is to obtain a feeling of pressing a button, and a driving means with good responsiveness such as a solenoid coil or a voice coil is employed. If the driving range is about 2 mm, the feeling of pressing a button can be obtained. In addition, if the configuration as shown in FIG. 20 is used, the liquid crystal display 405 is fixed and only the touch panel 401 is driven, so that the mass of the driving unit can be reduced and the response of driving is improved. Can do. If the driving range is about 2 mm, the parallax of the content displayed on the liquid crystal display screen is not a problem.
By adopting an infrared light scanning touch panel as the pointing position detection means, the user can cause the touch panel to detect the position by sliding a pointing member such as a finger on the surface of the touch panel 402 without applying force. It is possible to detect the indicated position more easily and accurately. In addition to the infrared light scanning method, the same effect can be obtained by adopting a capacitive touch panel.

図21から図25により、この実施形態によるタッチパネルを備えた表示装置の動作につき説明する。図21はこの装置をATMに適用した時の表示画面例を示し、図22は、タッチパネル401のパネル面の高さを示す。また、図23から図25はこの装置の動作を示すフローチャートである。   The operation of the display device including the touch panel according to this embodiment will be described with reference to FIGS. FIG. 21 shows an example of a display screen when this apparatus is applied to ATM, and FIG. 22 shows the height of the panel surface of the touch panel 401. 23 to 25 are flowcharts showing the operation of this apparatus.

図23において、この装置の電源をONとし、指などが触れられていない場合、即ち、タッチパネル401により指示位置が検出されない場合、待機状態となり(ステップ501)、パネル面の高さを図22に示す高さBに制御する(ステップ503)。図22は、駆動装置403により制御されるタッチパネル401のパネル面の高さを示し、この例では、高さLを最上限の高さ、0を最下限の高さとし、さらに、この2つの高さの間のA〜Cの3段階の高さに制御可能である。ここで、赤外光走査式タッチパネル401により、パネルに指等の指示部材が触れたか否かを判定し(ステップ505)、触れていなければステップ502に戻り、触れていれば指示部材が触れた場所が表示された操作ボタンの上であるか否かを判定する(ステップ507)。ここで、触れた場所が操作ボタンの上でない場合は図4に示す(2)へ進み、操作ボタンの上である場合にはボタンの機能を音声で読み上げる(ステップ509)。この状態で、指等の指示部材がタッチパネル401上を移動して操作ボタンの領域を外れたか否かを判定し(ステップ511)、外れた場合にはパネル面の高さをこれまでより一段階低い高さCに制御して(ステップ513)図25に示す(3)へ進み、外れない場合には指示部材による押圧力Pが所定の値以上であるか否かを判定する(ステップ515)。ステップ513で、指示位置が操作ボタン上を外れた場合にパネル面の高さを一段階低く制御することにより、操作者は自分が指示している位置が操作ボタンでないことを触覚的に感じ取ることができる。このため、視覚障害を持つ人や操作に不慣れな利用者にも指示位置が操作ボタンから外れていることを容易に、かつ、確実に把握させることができる。ステップ515で押圧力Pが所定値以上でない場合には、タッチパネル401から指が離れたか否かを判定し(ステップ517)、離れない場合にはステップ511に戻り、離れた場合にはステップ501の待機状態に戻る。ステップ515で押圧力Pが所定値以上である場合にはタッチパネル401のパネル面を高さCに制御して(ステップ519)その操作ボタンの機能を実行する(ステップ521)。ここで、操作ボタンの機能実行時にパネル面の高さを一段階低い高さCとすることにより、利用者は操作ボタンを押し込んだような感触を得ることができ、その操作が実行されたことを触覚として把握することができる。その後、押圧力Pが所定値以下になったかを判定し(ステップ523)、所定値以下になった場合にはパネル面を元の高さ、即ち高さBに制御して(ステップ525)ステップ505に戻る。   In FIG. 23, when the power of this apparatus is turned on and no finger is touched, that is, when the pointing position is not detected by the touch panel 401, a standby state is entered (step 501), and the height of the panel surface is shown in FIG. The height B is controlled (step 503). FIG. 22 shows the height of the panel surface of the touch panel 401 controlled by the driving device 403. In this example, the height L is the upper limit height, 0 is the lower limit height, and these two heights are further increased. It is possible to control the height between three levels A to C. Here, it is determined by the infrared light scanning touch panel 401 whether or not an indicator member such as a finger has touched the panel (step 505). If not touched, the process returns to step 502, and if touched, the indicator member touched. It is determined whether or not the place is on the displayed operation button (step 507). If the touched location is not on the operation button, the process proceeds to (2) shown in FIG. 4. If the touched location is on the operation button, the function of the button is read out by voice (step 509). In this state, it is determined whether or not the pointing member such as a finger has moved on the touch panel 401 and moved out of the operation button area (step 511). Control is made to a low height C (step 513), and the process proceeds to (3) shown in FIG. 25, and if it does not come off, it is determined whether or not the pressing force P by the indicating member is a predetermined value or more (step 515). . In step 513, when the indicated position deviates from the operation button, the operator feels that the position indicated by the operator is not the operation button by controlling the height of the panel surface one step lower. Can do. For this reason, it is possible to easily and surely grasp that the pointing position is out of the operation button even for a visually impaired person or a user who is unfamiliar with the operation. If the pressing force P is not equal to or greater than the predetermined value in step 515, it is determined whether or not the finger is released from the touch panel 401 (step 517). If not, the process returns to step 511. Return to standby. If the pressing force P is greater than or equal to the predetermined value in step 515, the panel surface of the touch panel 401 is controlled to the height C (step 519) and the function of the operation button is executed (step 521). Here, when the function of the operation button is executed, the height of the panel surface is set to a height C that is one step lower, so that the user can feel as if the operation button has been pressed, and the operation has been executed. Can be grasped as a tactile sense. Thereafter, it is determined whether or not the pressing force P has become a predetermined value or less (step 523). If the pressing force P has become a predetermined value or less, the panel surface is controlled to the original height, that is, the height B (step 525). Return to 505.

次に、図24に示す動作フロー(2)を説明する。上述のステップ507で、指等の指示部材による指示位置が操作ボタンの上でない場合、指等がパネル上を移動して操作ボタン上に入ったか否かを判定する(ステップ527)。操作ボタン上に入らない場合にはパネルから指等が離れたか否かを判定し(ステップ529)、離れた場合にはステップ501の待機状態に戻り、離れない場合にはステップ527に戻る。ここで、指示位置が操作ボタン上でない場合は、利用者が視覚障害者であったり、操作に著しく不慣れであることが考えられる。例えば、図21に示すように、操作ボタン群が表示画面の一部にある場合には、操作ボタンから離れた601〜603の領域が指示されているときに「操作ボタンは右(左・下)です」などの音声ガイダンスを読み上げることにより、指示位置を操作ボタン群上へ誘導することも有効である。これにより、視覚障害者や操作に不慣れな利用者はより早く、かつ、容易に操作ボタンを探すことができる。601から603の領域は、操作ボタンとしての機能はもたないが、その領域を指示すると、操作に関するガイダンスやアドバイスが音声で読み上げられる。また、音声ガイダンスに替えて、この領域を指示するとパネルを小刻みに振動させることにより、操作ボタンから離れていることを知らせることもできる。ステップ527に戻り、指等がパネル上を移動して操作ボタン上に入った場合、タッチパネル401のパネル面の高さをこれまでより一段階高い高さAに制御して(ステップ531)その操作ボタンの機能を音声で読み上げる(ステップ533)。その後、指等がパネル上を移動して操作ボタン上を外れたか否かを判定し(ステップ535)、外れた場合にはタッチパネル401のパネル面の高さを元の高さBに制御して(ステップ537)ステップ527に戻る。指等が操作ボタン上を外れない場合には押圧力Pが所定値以上であるか否かを判定し(ステップ539)、所定値以上でない場合にはパネルから指が離れたか否かを判定して(ステップ541)離れない場合にはステップ535に戻り、離れた場合にはステップ501の待機状態に戻る。ステップ539で押圧力Pが所定値以上である場合、タッチパネル401のパネル面の高さをこれまでより一段階低いBに制御する(ステップ543)と共に操作ボタンの機能を実行する(ステップ545)。ここで、操作ボタンの機能実行時にパネル面の高さを一段階低い高さBとすることにより、利用者は操作ボタンを押し込んだような感触を得ることができ、その操作が実行されたことを触覚として把握することができる。このことにより、動作フロー(2)の経過をたどる確率の高い、視覚障害者やタッチパネルの操作に不慣れな利用者に、その操作が実行されたことを容易に知らせることができる。その後、押圧力Pが所定値以下になったかを判定し(ステップ547)、所定値以下になった場合にはパネル面を元の高さ、即ち高さAに制御して(ステップ549)ステップ533に戻る。   Next, the operation flow (2) shown in FIG. 24 will be described. In the above-described step 507, if the pointing position by the pointing member such as a finger is not on the operation button, it is determined whether or not the finger has moved on the panel and entered the operation button (step 527). If it does not enter the operation button, it is determined whether or not a finger or the like has been removed from the panel (step 529). If it has left, the process returns to the standby state of step 501, and if not, the process returns to step 527. Here, when the designated position is not on the operation button, it is possible that the user is visually impaired or is extremely unfamiliar with the operation. For example, as shown in FIG. 21, when the operation button group is part of the display screen, when the area 601 to 603 away from the operation button is indicated, It is also effective to guide the indicated position onto the operation button group by reading out a voice guidance such as “ As a result, a visually handicapped person or a user unfamiliar with the operation can search for an operation button more quickly and easily. The areas 601 to 603 do not have a function as an operation button, but when the area is designated, guidance and advice regarding the operation are read out by voice. Also, instead of voice guidance, when this area is designated, the panel can be vibrated in small increments to notify that the user is away from the operation button. Returning to step 527, when a finger or the like moves on the panel and enters the operation button, the height of the panel surface of the touch panel 401 is controlled to a height A higher than before (step 531). The button function is read aloud (step 533). Thereafter, it is determined whether or not a finger or the like has moved on the panel and removed from the operation button (step 535). If the finger or the like has been removed, the height of the panel surface of the touch panel 401 is controlled to the original height B. (Step 537) Return to step 527. If the finger or the like cannot be removed from the operation button, it is determined whether or not the pressing force P is greater than or equal to a predetermined value (step 539), and if it is not greater than or equal to the predetermined value, it is determined whether or not the finger is released from the panel. (Step 541), if not leaving, return to Step 535, otherwise return to the standby state of Step 501. If the pressing force P is greater than or equal to the predetermined value in step 539, the height of the panel surface of the touch panel 401 is controlled to B lower by one level (step 543) and the function of the operation button is executed (step 545). Here, when the function of the operation button is executed, the height of the panel surface is set to a height B that is one step lower, so that the user can feel as if the operation button has been pressed, and the operation has been executed. Can be grasped as a tactile sense. As a result, it is possible to easily notify the visually impaired person or the user unfamiliar with the operation of the touch panel who has a high probability of following the progress of the operation flow (2) that the operation has been executed. Thereafter, it is determined whether or not the pressing force P has become a predetermined value or less (step 547). If the pressing force P has become a predetermined value or less, the panel surface is controlled to the original height, that is, the height A (step 549). Return to 533.

次に、図25に示す動作フロー(3)を説明する。上述のステップ511で、指等の指示部材による指示位置がパネル上を移動して操作ボタンから外れた場合、パネル面を元の高さCに制御する(ステップ513)と共に指等がパネル上を移動して操作ボタン上に入ったか否かを判定する(ステップ551)。操作ボタン上に入らない場合にはパネルから指等が離れたか否かを判定し(ステップ553)、離れた場合にはステップ501の待機状態に戻り、離れない場合にはステップ551に戻る。ステップ551で、指等がパネル上を移動して操作ボタン上に入った場合、タッチパネル401のパネル面の高さをこれまでより一段階高い高さAに制御して(ステップ555)その操作ボタンの機能を音声で読み上げる(ステップ557)。その後、指等がパネル上を移動して操作ボタン上を外れたか否かを判定し(ステップ559)、外れた場合にはタッチパネル401のパネル面の高さを元の高さBに制御して(ステップ561)ステップ527に戻る。指等が操作ボタン上を外れない場合には押圧力Pが所定値以上であるか否かを判定し(ステップ563)、所定値以上でない場合にはパネルから指が離れたか否かを判定して(ステップ565)離れない場合にはステップ559に戻り、離れた場合にはステップ501の待機状態に戻る。ステップ563で押圧力Pが所定値以上である場合、タッチパネル401のパネル面の高さをこれまでより一段階低いBに制御する(ステップ567)と共に操作ボタンの機能を実行する(ステップ569)。ここで、操作ボタンの機能実行時にパネル面の高さを一段階低い高さBとすることにより、利用者は操作ボタンを押し込んだような感触を得ることができ、その操作が実行されたことを触覚として把握することができる。このことにより、動作フロー(3)の経過をたどる確率の高い、視覚障害者やタッチパネルの操作に不慣れな利用者に、その操作が実行されたことを容易に知らせることができる。その後、押圧力Pが所定値以下になったかを判定し(ステップ570)、所定値以下になった場合にはパネル面を元の高さ、即ち高さAに制御して(ステップ581)ステップ557に戻る。   Next, the operation flow (3) shown in FIG. 25 will be described. In the above-described step 511, when the pointing position by the pointing member such as a finger moves on the panel and comes off the operation button, the panel surface is controlled to the original height C (step 513) and the finger or the like moves on the panel. It is determined whether it has moved and entered the operation button (step 551). If it does not enter the operation button, it is determined whether or not a finger or the like has been removed from the panel (step 553). If it has left, the process returns to the standby state of step 501, and if not, the process returns to step 551. In step 551, when a finger or the like moves on the operation button and enters the operation button, the height of the panel surface of the touch panel 401 is controlled to a height A higher than before (step 555). Is read out by voice (step 557). Thereafter, it is determined whether or not a finger or the like has moved on the panel and removed from the operation button (step 559). If the finger or the like has been removed, the height of the panel surface of the touch panel 401 is controlled to the original height B. (Step 561) Return to step 527. If the finger or the like cannot be removed from the operation button, it is determined whether or not the pressing force P is greater than or equal to a predetermined value (step 563), and if it is not greater than or equal to the predetermined value, it is determined whether or not the finger is released from the panel. (Step 565), if not leaving, return to Step 559, otherwise return to the standby state of Step 501. If the pressing force P is greater than or equal to the predetermined value in step 563, the height of the panel surface of the touch panel 401 is controlled to B that is one step lower than before (step 567) and the function of the operation button is executed (step 569). Here, when the function of the operation button is executed, the height of the panel surface is set to a height B that is one step lower, so that the user can feel as if the operation button has been pressed, and the operation has been executed. Can be grasped as a tactile sense. As a result, it is possible to easily notify a visually impaired person or a user unfamiliar with the operation of the touch panel who has a high probability of following the progress of the operation flow (3) that the operation has been executed. Thereafter, it is determined whether or not the pressing force P has become a predetermined value or less (step 570). If the pressing force P has become a predetermined value or less, the panel surface is controlled to the original height, that is, the height A (step 581). Return to 557.

上述の動作フローの説明においては、タッチパネル401のパネル面の高さをA、BおよびCの3段階に制御することにつき説明したが、これは操作ボタンを全て同じ高さと想定してパネル面の駆動を行う場合の例である。この場合には少なくとも3段階の高さ設定が必要である。この他、操作ボタンの種類により、高さの想定を変えることも可能である。例えば、数字ボタンよりも決定ボタンを高くする等である。複数の高さを想定する場合にはパネル面の制御は4段階以上必要となる。
また、パネル面の高さの制御は相対的であれば、操作ボタンの位置や機能の実行を表現することは可能である。したがって、例えば、ステップ531でパネル面を操作ボタンに触ったことを示す高さAに制御した後、その機能を実行させると共にパネル面を低い位置に制御する(ステップ543)場合に、必ずしももとの高さBに制御する必要はなく、高さAよりも低く、高さ制御の最下限の高さ0までの間の任意の高さとすることができる。
In the description of the operation flow described above, it has been explained that the height of the panel surface of the touch panel 401 is controlled in three stages of A, B, and C. This is based on the assumption that the operation buttons are all at the same height. This is an example of driving. In this case, at least three steps of height setting are required. In addition, it is possible to change the assumption of the height depending on the type of the operation button. For example, the decision button is made higher than the number buttons. When a plurality of heights are assumed, control of the panel surface requires four or more steps.
If the control of the height of the panel surface is relative, it is possible to express the position of the operation button and the execution of the function. Therefore, for example, when the panel surface is controlled to the height A indicating that the operation button has been touched in step 531, the function is executed and the panel surface is controlled to a low position (step 543). It is not necessary to control the height B, and the height can be set to an arbitrary height lower than the height A and up to the height 0 of the lowest limit of the height control.

なお、この実施形態においては、初めにタッチパネルに触れた時、指示位置が操作ボタンの上であってもそれ以外の場所であってもパネル面は同じ高さ(高さB)に制御されている(ステップ503)。即ち、初めから操作ボタン上を指示してそのまま実行すれば初めの高さよりも低い位置にパネルが制御されて押し込んだ感触を得ることができ、初めは操作ボタン以外の領域を指示してその後操作ボタンの上を指示すれば、パネル面がはじめの高さよりも高い位置に制御されて操作ボタンがあたかも突出しているように感じることができる。このようにして最初に触った位置を基準としてパネル面の高さを制御するので、最初に操作ボタン上に触れた途端にパネル面が高い位置に制御されるというようなことがなく、利用者にとって違和感の少ないパネル面の高さ制御を実現することができる。   In this embodiment, when the touch panel is first touched, the panel surface is controlled to the same height (height B) regardless of whether the indicated position is on the operation button or other place. (Step 503). That is, if the operation button is instructed from the beginning and executed as it is, the touch of the panel can be controlled to a position lower than the initial height, and the touch can be obtained. If you point on the button, the panel surface is controlled to a position higher than the initial height, and you can feel as if the operation button is protruding. In this way, the height of the panel surface is controlled based on the position touched first, so that the panel surface is not controlled to a high position as soon as the operation button is first touched. The panel surface height can be controlled with little discomfort for the user.

さらに、操作ボタン上に指などの指示部材がある場合に所定値以上の押圧力を加えることによりその機能が実行されるとしたが、この押圧力の所定値も操作ボタンの種類により変化させることが可能である。例えば、決定ボタンを押す時は数字ボタンのときよりも所定値を大きくし、より強く押した場合にだけ実行させるなどである。   Furthermore, when there is a pointing member such as a finger on the operation button, the function is executed by applying a pressing force of a predetermined value or more. However, the predetermined value of the pressing force can be changed depending on the type of the operation button. Is possible. For example, when the enter button is pressed, the predetermined value is made larger than when the number button is pressed, and only when the button is pressed more strongly, it is executed.

以上に示した実施形態によれば、例えば、視覚障害者等による視覚に頼らないタッチパネルの操作を実現することができる。   According to the embodiment described above, for example, it is possible to realize an operation of a touch panel that does not depend on vision by a visually impaired person or the like.

視覚障害者がタッチパネルを操作する場合、例えば、一つの指でタッチパネルの面に触れ、タッチパネル面を指でスキャンするように画面全体に渡り指を滑らせる。本実施形態によれば、指が操作ボタンのない領域から操作ボタンの上に乗る瞬間に駆動装置が働き、画面全体の高さが所定の高さになる(ステップ531)と共にその操作ボタンの機能を音声で読み上げる(ステップ533)。また、操作ボタンから外れると瞬時に元の高さに戻る(ステップ537)。このようにして所望の操作ボタンを探している間、即ち、画面に触れているだけでは、操作ボタンの機能は実行されない。指が操作ボタンの上に載っているときに所定値以上の押圧力でパネル面を押すと、駆動装置が働き、画面全体の高さが所定の高さに下がり(ステップ543)、操作ボタンの機能を実行する(ステップ545)。このとき、機能を実行したことを音声により知らせるようにしてもよい。実行後、指の力を抜くと、駆動装置がパネル面を元の高さに戻す(ステップ549)。   When the visually impaired person operates the touch panel, for example, the surface of the touch panel is touched with one finger, and the finger is slid over the entire screen so as to scan the touch panel surface with the finger. According to the present embodiment, the driving device works at the moment when the finger gets on the operation button from the area without the operation button, the height of the entire screen becomes a predetermined height (step 531), and the function of the operation button Is read out by voice (step 533). When the operation button is released, the original height is instantaneously restored (step 537). In this way, while searching for a desired operation button, that is, only touching the screen, the function of the operation button is not executed. When the panel surface is pressed with a pressing force equal to or greater than a predetermined value while the finger is placed on the operation button, the drive device operates, the height of the entire screen is lowered to a predetermined height (step 543), and the operation button The function is executed (step 545). At this time, it may be notified by voice that the function has been executed. After the execution, when the finger is removed, the driving device returns the panel surface to the original height (step 549).

このように、操作ボタンの位置およびその機能を画面の駆動と音声により案内することにより、視覚に頼らないタッチパネル操作を実現することができる。   As described above, the position of the operation button and the function thereof are guided by the driving of the screen and the voice, so that the touch panel operation that does not depend on the sight can be realized.

なお、視覚障害者やタッチパネル操作に不慣れな利用者が操作する場合、同時に複数箇所を指示してしまうことが考えられる。赤外光走査式、超音波式等の複数の指示があることを認識できる方式のタッチパネルを採用すれば、複数の指示がある場合に、例えば、「一本の指で操作してください。」等の音声ガイダンスをすることができる。さらに複数箇所の指示が続く場合には、音声による説明をよりゆっくりとしたわかりやすいものにするなどの対応をすることも可能である。   When a visually handicapped person or a user unfamiliar with touch panel operation operates, it is conceivable that a plurality of locations are instructed at the same time. If a touch panel that can recognize that there are multiple instructions, such as infrared scanning and ultrasonic, is used, for example, “Please operate with one finger.” Can provide voice guidance. Further, when instructions at a plurality of locations continue, it is possible to take a countermeasure such as making the explanation by voice more easy to understand.

また、暗証番号や金額入力の際に数字を表す操作ボタンに触れる場合等、読み上げる音声を他人に聞かれたくない内容の場合には、音声による読み上げのかわりに、その数字の回数だけ画面を小さく振動させるなどの方法をとることが可能である。   Also, if you do not want others to hear the voice you read out, such as touching an operation button that represents a number when entering a PIN or amount, the screen will be reduced by the number of times instead of reading it out. It is possible to take a method such as vibrating.

本発明によるタッチパネルを備えた表示装置の第1の実施形態を示す構成図である。It is a block diagram which shows 1st Embodiment of the display apparatus provided with the touchscreen by this invention. 図1における移動機構の動作を示す図である。It is a figure which shows operation | movement of the moving mechanism in FIG. 本発明によるタッチパネルを備えた表示装置の第1の実施形態での移動機構を有する表示手段の他の具体例を概略的に示す図である。It is a figure which shows roughly the other specific example of the display means which has a moving mechanism in 1st Embodiment of the display apparatus provided with the touchscreen by this invention. 図1におけるタッチパネルに対する指先の状態を示す図である。It is a figure which shows the state of the fingertip with respect to the touch panel in FIG. 圧力センサが検出する圧力に対する図4に示す指先の状態の判定を示す図である。It is a figure which shows determination of the state of the fingertip shown in FIG. 4 with respect to the pressure which a pressure sensor detects. 図1に示す実施形態での回路構成の具体例の要部を示すブロック図である。It is a block diagram which shows the principal part of the specific example of the circuit structure in embodiment shown in FIG. 図1に示す第1の実施形態での圧力センサの検出圧力に対する表示画面の駆動量を示す図である。It is a figure which shows the drive amount of the display screen with respect to the detection pressure of the pressure sensor in 1st Embodiment shown in FIG. 図6における制御部の機能制御の第1の具体例を示すフローチャートである。It is a flowchart which shows the 1st specific example of the function control of the control part in FIG. 図8に示す動作で図1での表示面に表示される画面の具体例を示す図である。It is a figure which shows the specific example of the screen displayed on the display surface in FIG. 1 by the operation | movement shown in FIG. 図8に示す動作で図1での表示面に表示される画面の他の具体例を示す図である。It is a figure which shows the other specific example of the screen displayed on the display surface in FIG. 1 by the operation | movement shown in FIG. 本発明の第1の実施形態をATMの表示装置として、これに図9及び図10に示す画面例を用いたときの画面を示す図である。It is a figure which shows a screen when the 1st Embodiment of this invention is used as the display apparatus of ATM, and the example of a screen shown in FIG.9 and FIG.10 is used for this. 本発明の第1の実施形態をATMの表示装置として、これに図9及び図10に示す画面例を用いたときの他の画面を示す図である。It is a figure which shows another screen when the 1st Embodiment of this invention is used as the display apparatus of ATM, and the example of a screen shown in FIG.9 and FIG.10 is used for this. 本発明によるタッチパネルを備えた表示装置の第2の実施形態の表示画面を示す図である。It is a figure which shows the display screen of 2nd Embodiment of the display apparatus provided with the touchscreen by this invention. 本発明の第2の実施形態を用いたATMの動作と画面の一具体例を示す図である。It is a figure which shows one specific example of the operation | movement and screen of ATM using the 2nd Embodiment of this invention. 本発明の第2の実施形態を用いたATMの動作と画面の他の具体例を示す図である。It is a figure which shows the other example of the operation | movement of ATM using the 2nd Embodiment of this invention, and a screen. 本発明によるタッチパネルを備えた表示装置の第3の実施形態の制御動作を示すフローチャートである。It is a flowchart which shows the control operation of 3rd Embodiment of the display apparatus provided with the touchscreen by this invention. 図16に示す動作での表示画面における画面例を示す図である。It is a figure which shows the example of a screen in the display screen in the operation | movement shown in FIG. 本発明によるタッチパネルを備えた表示装置の第4の実施形態の制御動作を示すフローチャートである。It is a flowchart which shows the control operation of 4th Embodiment of the display apparatus provided with the touchscreen by this invention. 図18に示す動作での検出圧力に対する表示画面への作用(動作)を示す図である。It is a figure which shows the effect | action (operation | movement) with respect to the display screen with respect to the detected pressure in the operation | movement shown in FIG. 本発明によるタッチパネルを備えた表示装置の第5の実施形態を示す構成図である。It is a block diagram which shows 5th Embodiment of the display apparatus provided with the touchscreen by this invention. 第5の実施形態に示す装置をATMに適用した時の表示画面例を示す図である。It is a figure which shows the example of a display screen when the apparatus shown in 5th Embodiment is applied to ATM. 第5の実施形態に示すタッチパネルのパネル面の高さを示す図である。It is a figure which shows the height of the panel surface of the touchscreen shown in 5th Embodiment. 第5の実施形態に示す装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the apparatus shown in 5th Embodiment. 第5の実施形態に示す装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the apparatus shown in 5th Embodiment. 第5の実施形態に示す装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the apparatus shown in 5th Embodiment.

符号の説明Explanation of symbols

1 筐体
1a 開口
2 表示画面
8 表示パネル
8a 表示面
9 タッチパネル
10,10a,10b 支持部材
11 駆動モータ
12 回転歯車
13 平歯車
14 リンク機構
14a,14b リンク
14c,14d 支持部材
15,16 引張バネ
17 映出装置
18 ミラー
19 指先
20 制御部
21 スピーカ
22 記憶部
23 振動部
24,24a〜24c 操作ボタン
25 影部
26 吹き出し
27 案内メッセージ
28 拡大表示領域
29 メニュー欄
30 カーソル
31 ATM
32,33 影部
34a〜34c 突起部
35 背景エリア
36,37 突起部。
DESCRIPTION OF SYMBOLS 1 Case 1a Opening 2 Display screen 8 Display panel 8a Display surface 9 Touch panel 10, 10a, 10b Support member 11 Drive motor 12 Rotating gear 13 Spur gear 14 Link mechanism 14a, 14b Link 14c, 14d Support member 15, 16 Tension spring 17 Projection device 18 Mirror 19 Fingertip 20 Control unit 21 Speaker 22 Storage unit 23 Vibrating unit 24, 24a-24c Operation button 25 Shadow unit 26 Balloon 27 Guidance message 28 Enlarged display area 29 Menu column 30 Cursor 31 ATM
32,33 Shadow part 34a-34c Protrusion part 35 Background area 36,37 Protrusion part.

Claims (5)

表示パネルの表示画面に指示手段のタッチ位置を検出するタッチパネルが設けられ、該表示画面に表示されるタッチ操作部材をタッチして操作できるようにしたタッチパネルを備えた表示装置において、該タッチ操作部材をタッチ操作する際の該指示手段による押圧力Pを検知する検知手段と、前記指示手段が該タッチ操作部材が表示されていない領域をタッチした状態から該タッチ操作部材が表示されている領域をタッチした状態となった時に、該表示画面を所定の第一の高さに移動させる処理を行い、前記指示手段が該タッチ操作部材が表示されている領域をタッチした状態で押圧力Pが所定値以上の値である場合に、該表示画面を所定の第二の高さに移動させる処理を行うとともに該タッチ操作部材の機能を実行させる制御部とを有することを特徴とするタッチパネルを備えた表示装置。   In a display device provided with a touch panel provided with a touch panel for detecting a touch position of an instruction unit on a display screen of a display panel, and capable of touching and operating a touch operation member displayed on the display screen, the touch operation member Detecting means for detecting a pressing force P by the instruction means when touching the touch panel, and an area where the touch operation member is displayed from a state where the instruction means touches an area where the touch operation member is not displayed. When the touched state is reached, the display screen is moved to a predetermined first height, and the pressing force P is determined in a state where the instruction means touches the area where the touch operation member is displayed. A control unit that performs a process of moving the display screen to a predetermined second height and executes the function of the touch operation member when the value is equal to or greater than the value. Display device having a touch panel, characterized in that. 前記第一の高さは、前記表示画面の直前の状態の高さよりも相対的に高い高さであり、前記第二の高さは、前記表示画面の直前の状態の高さよりも相対的に低い高さであることを特徴とする請求項1に記載のタッチパネルを備えた表示装置。   The first height is a height relatively higher than a height immediately before the display screen, and the second height is relatively higher than a height immediately before the display screen. The display device having a touch panel according to claim 1, wherein the display device has a low height. 前記制御部は、前記指示手段が前記タッチ操作部材が表示されている領域をタッチした状態から前記タッチ操作部材が表示されていない領域をタッチした状態となった時に、前記表示画面を所定の第三の高さに移動させる処理を行い、前記第三の高さは前記表示画面の直前の状態の高さよりも相対的に低い高さであることを特徴とする請求項1または2に記載のタッチパネルを備えた表示装置。   The control unit displays the display screen in a predetermined state when the instruction unit has changed from a state where the touch operation member is displayed to a state where the touch operation member is not displayed. 3. The process according to claim 1, wherein the third height is relatively lower than a height immediately before the display screen. A display device with a touch panel. 前記制御部は、前記指示手段が前記タッチ操作部材が表示されている領域をタッチした状態であるとき、前記タッチ操作部材の機能を表す音声を発する処理を行うことを特徴とする請求項1乃至3のいずれかに記載のタッチパネルを備えた表示装置。   The said control part performs the process which emits the sound showing the function of the said touch operation member, when the said instruction | indication means is the state which touched the area | region where the said touch operation member is displayed. A display device comprising the touch panel according to claim 3. 前記制御部は、前記指示手段が前記タッチ操作部材が表示されている領域以外の所定の領域をタッチした状態であるとき、前記タッチ操作部材の場所を知らせるための音声または振動を発する処理を行うことを特徴とする請求項1乃至4のいずれかに記載のタッチパネルを備えた表示装置。
The control unit performs a process of generating sound or vibration for informing a location of the touch operation member when the instruction unit is in a state of touching a predetermined area other than the area where the touch operation member is displayed. A display device comprising the touch panel according to claim 1.
JP2003323903A 2003-09-17 2003-09-17 Display device with touch panel Expired - Fee Related JP4039344B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003323903A JP4039344B2 (en) 2003-09-17 2003-09-17 Display device with touch panel

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003323903A JP4039344B2 (en) 2003-09-17 2003-09-17 Display device with touch panel

Publications (2)

Publication Number Publication Date
JP2005092472A true JP2005092472A (en) 2005-04-07
JP4039344B2 JP4039344B2 (en) 2008-01-30

Family

ID=34454811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003323903A Expired - Fee Related JP4039344B2 (en) 2003-09-17 2003-09-17 Display device with touch panel

Country Status (1)

Country Link
JP (1) JP4039344B2 (en)

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006318393A (en) * 2005-05-16 2006-11-24 Nintendo Co Ltd Information processor and item selection processing program
JP2007034634A (en) * 2005-07-26 2007-02-08 Nintendo Co Ltd Object control program and information processor
JP2008003948A (en) * 2006-06-23 2008-01-10 Nippon Signal Co Ltd:The Guide system and automatic ticket vending machine provided therewith
JP2008040954A (en) * 2006-08-09 2008-02-21 Matsushita Electric Ind Co Ltd Input device
JP2009129446A (en) * 2007-11-23 2009-06-11 Research In Motion Ltd Tactile touch screen for electronic device
JP2009252236A (en) * 2008-04-01 2009-10-29 Korea Research Inst Of Standards & Science User interface providing device by acting force, providing method and recording medium
WO2010067577A1 (en) 2008-12-09 2010-06-17 京セラ株式会社 Input device
JP2011501298A (en) * 2007-10-18 2011-01-06 マイクロソフト コーポレーション 3D object simulation using audio, visual and tactile feedback
JP2011053832A (en) * 2009-08-31 2011-03-17 Sony Corp Information processing apparatus and information processing method, and program
JP2011060333A (en) * 2010-12-24 2011-03-24 Kyocera Corp Input device and method for controlling the same
CN102045480A (en) * 2009-10-23 2011-05-04 京瓷美达株式会社 Display device and display control method
JP2011090585A (en) * 2009-10-23 2011-05-06 Kyocera Mita Corp Display device, display control program, display control method, electronic device and image forming device
JP2011095925A (en) * 2009-10-28 2011-05-12 Kyocera Corp Input device
JP2011095926A (en) * 2009-10-28 2011-05-12 Kyocera Corp Input device
JP2011095928A (en) * 2009-10-28 2011-05-12 Kyocera Corp Input device
JP2012505444A (en) * 2008-10-07 2012-03-01 リサーチ イン モーション リミテッド Portable electronic device and method for controlling portable electronic device
JP2012085134A (en) * 2010-10-13 2012-04-26 Mitsubishi Electric Corp Voice guide device and voice guide method
US8253698B2 (en) 2007-11-23 2012-08-28 Research In Motion Limited Tactile touch screen for electronic device
JP2012216156A (en) * 2011-04-01 2012-11-08 Kyocera Corp Electronic device
JP2013054775A (en) * 2012-12-03 2013-03-21 Kyocera Corp Mobile phone device, and method of controlling mobile phone device
US8485902B2 (en) 2010-02-26 2013-07-16 Nintendo Co., Ltd. Storage medium storing object controlling program, object controlling apparatus and object controlling method
JP2014085754A (en) * 2012-10-22 2014-05-12 Sharp Corp Electronic apparatus
JP2014206991A (en) * 2014-06-10 2014-10-30 京セラ株式会社 Mobile phone device
US9442648B2 (en) 2008-10-07 2016-09-13 Blackberry Limited Portable electronic device and method of controlling same
WO2022138297A1 (en) * 2020-12-21 2022-06-30 マクセル株式会社 Mid-air image display device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4885938B2 (en) 2008-12-25 2012-02-29 京セラ株式会社 Input device
JP4746086B2 (en) 2008-12-25 2011-08-10 京セラ株式会社 Input device
WO2013084666A1 (en) 2011-12-05 2013-06-13 日本電気株式会社 Haptic sensation producing device, information terminal, haptic sensation producing method, and computer-readable recording medium
US9727140B2 (en) 2012-08-31 2017-08-08 Nec Corporation Tactile force sense presentation device, information terminal, tactile force sense presentation method, and computer-readable recording medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222129A (en) * 1999-02-03 2000-08-11 Harness Syst Tech Res Ltd Touch panel switch
JP2004086733A (en) * 2002-08-28 2004-03-18 Hitachi Ltd Display device with touch panel

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000222129A (en) * 1999-02-03 2000-08-11 Harness Syst Tech Res Ltd Touch panel switch
JP2004086733A (en) * 2002-08-28 2004-03-18 Hitachi Ltd Display device with touch panel

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7825904B2 (en) 2005-05-16 2010-11-02 Nintendo Co., Ltd. Information processing apparatus and storage medium storing item selecting program
JP4628178B2 (en) * 2005-05-16 2011-02-09 任天堂株式会社 Information processing apparatus and item selection processing program
JP2006318393A (en) * 2005-05-16 2006-11-24 Nintendo Co Ltd Information processor and item selection processing program
US9483174B2 (en) 2005-07-26 2016-11-01 Nintendo Co., Ltd. Storage medium storing object control program and information processing apparatus
JP2007034634A (en) * 2005-07-26 2007-02-08 Nintendo Co Ltd Object control program and information processor
US8207970B2 (en) 2005-07-26 2012-06-26 Nintendo Co., Ltd. Storage medium storing object control program and information processing apparatus
JP2008003948A (en) * 2006-06-23 2008-01-10 Nippon Signal Co Ltd:The Guide system and automatic ticket vending machine provided therewith
JP2008040954A (en) * 2006-08-09 2008-02-21 Matsushita Electric Ind Co Ltd Input device
JP2011501298A (en) * 2007-10-18 2011-01-06 マイクロソフト コーポレーション 3D object simulation using audio, visual and tactile feedback
JP2009129446A (en) * 2007-11-23 2009-06-11 Research In Motion Ltd Tactile touch screen for electronic device
US8253698B2 (en) 2007-11-23 2012-08-28 Research In Motion Limited Tactile touch screen for electronic device
JP2009252236A (en) * 2008-04-01 2009-10-29 Korea Research Inst Of Standards & Science User interface providing device by acting force, providing method and recording medium
JP2012505444A (en) * 2008-10-07 2012-03-01 リサーチ イン モーション リミテッド Portable electronic device and method for controlling portable electronic device
US9442648B2 (en) 2008-10-07 2016-09-13 Blackberry Limited Portable electronic device and method of controlling same
EP3316090A1 (en) 2008-12-09 2018-05-02 Kyocera Corporation Input device
US11003249B2 (en) 2008-12-09 2021-05-11 Kyocera Corporation Input apparatus accepting a pressure input
WO2010067577A1 (en) 2008-12-09 2010-06-17 京セラ株式会社 Input device
JP2011053832A (en) * 2009-08-31 2011-03-17 Sony Corp Information processing apparatus and information processing method, and program
CN102045480A (en) * 2009-10-23 2011-05-04 京瓷美达株式会社 Display device and display control method
JP2011090585A (en) * 2009-10-23 2011-05-06 Kyocera Mita Corp Display device, display control program, display control method, electronic device and image forming device
US8797364B2 (en) 2009-10-23 2014-08-05 Kyocera Document Solutions Inc. Display device and display control method
JP2011095928A (en) * 2009-10-28 2011-05-12 Kyocera Corp Input device
JP2011095926A (en) * 2009-10-28 2011-05-12 Kyocera Corp Input device
JP2011095925A (en) * 2009-10-28 2011-05-12 Kyocera Corp Input device
US8485902B2 (en) 2010-02-26 2013-07-16 Nintendo Co., Ltd. Storage medium storing object controlling program, object controlling apparatus and object controlling method
JP2012085134A (en) * 2010-10-13 2012-04-26 Mitsubishi Electric Corp Voice guide device and voice guide method
JP2011060333A (en) * 2010-12-24 2011-03-24 Kyocera Corp Input device and method for controlling the same
JP2012216156A (en) * 2011-04-01 2012-11-08 Kyocera Corp Electronic device
JP2014085754A (en) * 2012-10-22 2014-05-12 Sharp Corp Electronic apparatus
JP2013054775A (en) * 2012-12-03 2013-03-21 Kyocera Corp Mobile phone device, and method of controlling mobile phone device
JP2014206991A (en) * 2014-06-10 2014-10-30 京セラ株式会社 Mobile phone device
WO2022138297A1 (en) * 2020-12-21 2022-06-30 マクセル株式会社 Mid-air image display device

Also Published As

Publication number Publication date
JP4039344B2 (en) 2008-01-30

Similar Documents

Publication Publication Date Title
JP4039344B2 (en) Display device with touch panel
JP4568310B2 (en) Display device with touch panel
JP4500485B2 (en) Display device with touch panel
JP4166229B2 (en) Display device with touch panel
JP4294668B2 (en) Point diagram display device
JP4115198B2 (en) Display device with touch panel
US9274635B2 (en) Systems and methods for compensating for visual distortion caused by surface features on a display
US6049328A (en) Flexible access system for touch screen devices
JP6654743B2 (en) Electronic equipment, operation control method and operation control program for electronic equipment
US20070268261A1 (en) Handheld electronic device with data entry and/or navigation controls on the reverse side of the display
JP3939709B2 (en) Information input method and information input / output device
JPWO2007007682A1 (en) Touch panel display device and portable device
EP3559792A1 (en) Content bumping in multi-layer display systems
US20140002367A1 (en) System and device with three-dimensional image display
JP2011257951A (en) Information processor, information processing method and program
JP2008204275A (en) Input operation device and input operation method
JP4432472B2 (en) User interface device
JP2009211447A (en) Input system and display system using it
WO2022019280A1 (en) Input device and control method for input device
WO2004010318A1 (en) Adjusting target size of display images based on input device detection
KR100675089B1 (en) Character input method by movement of mobile terminal
JP2002015140A (en) Counseling terminal, counseling system using the same and device using the same
JP2017157026A (en) Display operation device and program
KR101413277B1 (en) Symbol input method in mobile terminal include of touch screen and mobile termina using the same
JP2000235352A (en) Display device and game device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050304

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060421

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071003

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071016

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071029

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111116

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121116

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131116

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees