JP2013080364A - Tactile sense presentation and input device - Google Patents

Tactile sense presentation and input device Download PDF

Info

Publication number
JP2013080364A
JP2013080364A JP2011219848A JP2011219848A JP2013080364A JP 2013080364 A JP2013080364 A JP 2013080364A JP 2011219848 A JP2011219848 A JP 2011219848A JP 2011219848 A JP2011219848 A JP 2011219848A JP 2013080364 A JP2013080364 A JP 2013080364A
Authority
JP
Japan
Prior art keywords
touch panel
panel
touch
actuator
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011219848A
Other languages
Japanese (ja)
Inventor
Ichiro Furuki
一朗 古木
Takaaki Kase
隆明 加瀬
Jun Taneko
純 種子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2011219848A priority Critical patent/JP2013080364A/en
Publication of JP2013080364A publication Critical patent/JP2013080364A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve a problem in which: a conventional touch panel is vibrated by a user touching the touch panel; however, an operational feel such as depressing of an operation button is difficult to present; the size and shape of the operation button is difficult to be sensed by a blind-touch operation; and surface displacement at a desired position in a touch panel area that can be operated by blind touch requires a plurality of actuators and their drive means, which results in an increase in costs.SOLUTION: A display panel for displaying an image for a touch operation and a touch panel provided on the surface of the display panel are supported by a panel support member, and the touch panel is supported to a housing by an elastic support member movably in a vertical direction. By using positional information from a touch panel drive part, a contact position of a finger of a user to the touch panel is controlled such that an actuator drive unit has a different supporting power of the touch panel against a housing of an actuator between the display area of the image for a touch operation and an area other than the display area of the image for a touch operation.

Description

この発明は、表示画面に表示された入力部分を押下する等により操作が可能な端末機器等において、ユーザが表示画面を見なくても、画面に表示された入力部にユーザの指等の接触子が触れることにより、その入力部を知覚可能にする触覚提示入力装置に関する。   The present invention provides a terminal device that can be operated by pressing an input portion displayed on a display screen, etc., and a user's finger or the like touches an input unit displayed on the screen without looking at the display screen. The present invention relates to a tactile sensation presentation input device that enables a child to perceive an input unit when touched.

従来の触覚提示装置は、タッチパネルにユーザが接触したことを検知した場合に、モーターや圧電素子等を用いてタッチパネルを振動させることによって、クリック感を提示する方法があった(例えば、特許文献1)。また、複数のアクチュエータをパネル内に配置して、ユーザが触れた領域の表面をタッチパネルの法線方向に変位させることで、画像として表示された操作ボタンが実際に存在するかのような操作感をユーザに与えることが可能となる方法も提案されている(例えば、特許文献2)。   In the conventional tactile sense presentation device, when it is detected that the user touches the touch panel, there is a method of presenting a click feeling by vibrating the touch panel using a motor, a piezoelectric element, or the like (for example, Patent Document 1). ). In addition, by arranging multiple actuators in the panel and displacing the surface of the area touched by the user in the normal direction of the touch panel, the operation feeling as if the operation buttons displayed as images actually exist Has also been proposed (for example, Patent Document 2).

特許第4473078号公報Japanese Patent No. 4473078 特開2011−2926号公報JP2011-2926A

特許文献1に記載の触覚提示装置は、タッチパネルにユーザが接触したことを検知した場合に、タッチパネル自体を振動させてユーザに触覚提示するものであった。例えば、タッチパネル内に操作ボタンが表示される場合等は、操作ボタンが表示されたタッチパネル上の位置にユーザが触れた場合にタッチパネルを振動させることで、ユーザに操作ボタンの位置を知覚させることができる。しかし、振動だけでは操作ボタンを押し下げる等の操作感を提示することは難しく、また、視覚に頼らずにタッチパネルを操作するブラインドタッチ動作の場合、操作ボタンの大きさや形状をユーザに知覚させることが困難であるという問題があった。   The tactile sense presentation device described in Patent Document 1 presents a tactile sensation to the user by vibrating the touch panel itself when detecting that the user has touched the touch panel. For example, when an operation button is displayed on the touch panel, when the user touches a position on the touch panel on which the operation button is displayed, the user can perceive the position of the operation button by vibrating the touch panel. it can. However, it is difficult to present an operational feeling such as depressing an operation button by vibration alone, and in the case of a blind touch operation in which the touch panel is operated without relying on vision, the size and shape of the operation button may be perceived by the user. There was a problem that it was difficult.

また、特許文献2記載の触覚提示装置では、タッチパネル領域内の所望の位置の表面を変位させることで、ブラインドタッチ動作も可能となるが、複数のアクチュエータとその駆動手段が必要であり、装置が高価になるという問題があった。   In addition, in the tactile sense presentation device described in Patent Document 2, a blind touch operation can be performed by displacing the surface of a desired position in the touch panel region. However, a plurality of actuators and their driving means are required, and the device There was a problem of becoming expensive.

この発明は上記のような問題点を解決するためになされたもので、タッチパネルに表示される操作ボタン等の操作部を、ユーザが表示画面を見なくても容易に認識することが可能で、かつ、安価に構成可能な触覚提示入力装置を提供することを目的とする。   The present invention was made to solve the above problems, and it is possible to easily recognize the operation unit such as operation buttons displayed on the touch panel without the user looking at the display screen. And it aims at providing the tactile sense presentation input device which can be constituted cheaply.

この発明に係る触覚提示入力装置は、
タッチ操作用画像を表示画面に表示する表示パネルと、
この表示パネルの表面に間隙設けて配設されるタッチパネルと、
このタッチパネルを筐体に支持するパネル指示部材と、
前記タッチパネルをその表面と垂直方向に移動可能に前記筐体に支持する弾性支持部材と
前記筐体に対するタッチパネルの支持力を制御するアクチュエータと
前記タッチパネルからの作用力をユーザが知覚可能な接触子で接触している前記タッチパネルの位置情報を出力するタッチパネル駆動部と、
前記アクチュエータを駆動するアクチュエータ駆動部とを備え、
前記タッチパネル駆動部からの位置情報により、前記接触子のタッチパネルへの接触位置が前記表示パネルのタッチ操作用画像の表示領域に対応する前記タッチパネルの領域と、タッチ操作用画像領域以外の領域に対応する前記タッチパネルの領域とでは、前記アクチュエータ駆動部が前記アクチュエータの前記筐体に対する前記タッチパネルの支持力を異なるように制御する。
A tactile sensation presentation input device according to the present invention includes:
A display panel for displaying images for touch operation on the display screen;
A touch panel disposed with a gap on the surface of the display panel;
A panel indicating member for supporting the touch panel on the housing;
An elastic support member for supporting the touch panel on the casing so as to be movable in a direction perpendicular to the surface of the touch panel, an actuator for controlling the support force of the touch panel with respect to the casing, and a contactor that allows the user to perceive the action force from the touch panel. A touch panel drive unit that outputs position information of the touch panel in contact;
An actuator driving unit for driving the actuator,
Based on the position information from the touch panel drive unit, the contact position of the contact on the touch panel corresponds to the area of the touch panel corresponding to the display area of the touch operation image on the display panel and the area other than the touch operation image area. In the area of the touch panel, the actuator driving unit controls the support force of the touch panel with respect to the housing of the actuator to be different.

この発明に係る触覚提示入力装置によれば、
タッチパネルからの作用力をユーザが知覚可能な接触子の前記タッチパネル上の位置を検出して、アクチュエータによる筐体に対する前記タッチパネルの支持力をタッチ操作用画像に対応する位置の場合と、タッチ操作用画像以外の領域の位置かにより異なるように制御することで、複雑な構成にすることなく、ユーザは前記タッチパネルからの作用力の相異を知覚することによりユーザは表示パネルのタッチ操作用の表示画面を見なくても、触覚により表示画像位置を知覚することができる。
According to the tactile presentation input device according to the present invention,
The position on the touch panel of the contact that allows the user to perceive the acting force from the touch panel is detected, and the support force of the touch panel with respect to the housing by the actuator is a position corresponding to the image for touch operation, and for touch operation By controlling differently depending on the position of the area other than the image, the user perceives the difference in the acting force from the touch panel without making a complicated configuration, so that the user can display the display panel for touch operation. Even without looking at the screen, the display image position can be perceived by touch.

この発明の実施の形態1における触覚提示入力装置の断面構成図である。It is a section lineblock diagram of a tactile sense presentation input device in Embodiment 1 of this invention. 実施の形態1による触覚提示入力装置のシステム構成ブロック図である。1 is a system configuration block diagram of a tactile sense input device according to Embodiment 1. FIG. 実施の形態1による表示パネルの表示ボタン画像位置を、触覚提示によりユーザに知覚させる場合の触覚提示入力装置の動作状態を説明する図である。It is a figure explaining the operation state of the tactile sense input device in the case of making a user perceive the display button image position of the display panel by Embodiment 1 by tactile presentation. ボタン画像位置検知後のボタン操作実行動作を説明する図である。It is a figure explaining button operation execution operation after button image position detection. ボタン画像位置検知動作と検知後のボタン操作実行動作工程を示すフローチャートである。It is a flowchart which shows a button image position detection operation and the button operation execution operation process after detection. 実施の形態2による表示パネルの表示ボタン画像位置を、触覚提示によりユーザに知覚させる場合の触覚提示入力装置の動作状態を説明する図である。It is a figure explaining the operation state of the tactile sense input device in the case of making a user perceive the display button image position of the display panel by Embodiment 2 by tactile presentation. 実施の形態2における表示ボタン画像押下動作時の触覚提示入力装置の動作を示す図である。FIG. 11 is a diagram illustrating an operation of the tactile sense input device when a display button image is pressed in the second embodiment. 実施の形態2の動作工程を示すフローチャートである。6 is a flowchart showing an operation process of the second embodiment. 本実施の形態3における触覚提示入力装置の断面構成図である。It is a cross-sectional block diagram of the tactile sense input device in this Embodiment 3. 本実施の形態3における触覚提示入力装置のタッチパネルの支持構成を示す平面図である。It is a top view which shows the support structure of the touch panel of the tactile presentation input device in this Embodiment 3. FIG. スプリングボールプランジャーの構成断面図である。It is a structure sectional view of a spring ball plunger. 実施の形態3における触覚提示入力装置の動作説明図である。FIG. 10 is an operation explanatory diagram of the tactile presentation input device in the third embodiment. 実施の形態3におけるx,y,z3方向のアクチュエータの駆動制御による同時表示の複数表示画像領域の識別法の説明図である。FIG. 10 is an explanatory diagram of a method of identifying a plurality of display image areas for simultaneous display by driving control of actuators in x, y, and z3 directions in the third embodiment.

実施の形態1.
本実施の形態では、タッチパネルをタッチパネル面垂直方向に可動支持した場合における触覚提示入力装置の動作について説明する。
Embodiment 1 FIG.
In this embodiment, the operation of the tactile presentation input device when the touch panel is movably supported in the direction perpendicular to the touch panel surface will be described.

図1はこの発明の実施の形態1における触覚提示入力装置の断面構成図である。
図1において、1はユーザの指やペン等の物体が接触する位置を検知するタッチパネル、2はユーザにタッチ操作用画像の情報を提示する表示パネルであり、タッチパネル1と表示パネル2は、パネル支持部材4とともに一体に構成されている。3はタッチパネル1の筐体7との接触部を保護するためのクッション材である。
1 is a cross-sectional configuration diagram of a tactile sensation input device according to Embodiment 1 of the present invention.
In FIG. 1, 1 is a touch panel for detecting a position where an object such as a user's finger or pen contacts, 2 is a display panel for presenting information of an image for touch operation to the user, and the touch panel 1 and the display panel 2 are panels. The support member 4 is integrally formed. Reference numeral 3 denotes a cushion material for protecting the contact portion of the touch panel 1 with the housing 7.

5は筐体7に対してタッチパネル1をz軸方向(タッチパネル面垂直方向)に移動可能に支持する圧縮ばね等の弾性支持部材、6は筐体7に対するタッチパネル1の支持力を制御するためのプッシュ/プル型の電磁ソレノイド等のアクチュエータである。弾性支持部材5は一方の端部がパネル支持部材4と接触するように、筐体7に他方の端部が接触して設置されており、z軸方向においては、弾性支持部材5の反力により、パネル支持部材4と一体に構成されたタッチパネル1を、クッション材3を介してz軸方向に筐体7に接触する程度の力が加わるように構成されている。8はアクチュエータ6とパネル支持部材4との接触圧力を検出するための高分子厚膜フィルム等からなる圧力センサ、9は表示パネル2のz軸方向の高さ位置を検出するためのz軸位置センサであり、本実施の形態では接触式のセンサを用いている。   5 is an elastic support member such as a compression spring that supports the touch panel 1 to be movable in the z-axis direction (perpendicular to the touch panel surface) with respect to the housing 7, and 6 is for controlling the support force of the touch panel 1 with respect to the housing 7. It is an actuator such as a push / pull type electromagnetic solenoid. The elastic support member 5 is installed such that one end thereof is in contact with the panel support member 4 and the other end thereof is in contact with the casing 7, and the reaction force of the elastic support member 5 in the z-axis direction. Thus, the touch panel 1 configured integrally with the panel support member 4 is configured to be applied with a force enough to contact the housing 7 in the z-axis direction via the cushion material 3. 8 is a pressure sensor made of a polymer thick film for detecting the contact pressure between the actuator 6 and the panel support member 4, and 9 is a z-axis position for detecting the height position of the display panel 2 in the z-axis direction. In this embodiment, a contact type sensor is used.

図2は実施の形態1の触覚提示入力装置のシステム構成を示すブロック図である。図示のシステムでは、表示パネル駆動部101、タッチパネル駆動部102、アクチュエータ駆動部103、圧力センサ駆動部104、z軸位置センサ駆動部105、音声発生機構駆動部106、及び制御部107を備えている。
表示パネル駆動部101は、制御部107から送られる制御信号に従い、表示パネル2を駆動して情報を表示させる。タッチパネル駆動部102は、タッチパネル1から得られる信号を処理して、タッチパネル1からの作用力をユーザが知覚可能な接触子であるユーザの指やペン等がタッチパネル1と接触している位置情報を制御部107に送る。アクチュエータ駆動部103は、制御部107から送られる信号に従い、アクチュエータ6を駆動する。圧力センサ駆動部104は、タッチパネル1と一体に構成されたパネル支持部材4とアクチュエータ6との接触圧力を検出して、制御部107に検出信号を送る。z軸位置センサ駆動部105は、パネル支持部材4のz軸方向位置を検出した場合、制御部107に信号を送る。音声発生機構駆動部106は、制御部107から送られる制御信号に従い、図示しない音声発生機構を駆動して、触覚提示入力装置の現在の処理状態を音声情報にしてユーザに伝達する。
FIG. 2 is a block diagram illustrating a system configuration of the tactile presentation input device according to the first embodiment. The illustrated system includes a display panel drive unit 101, a touch panel drive unit 102, an actuator drive unit 103, a pressure sensor drive unit 104, a z-axis position sensor drive unit 105, a sound generation mechanism drive unit 106, and a control unit 107. .
The display panel drive unit 101 drives the display panel 2 to display information according to a control signal sent from the control unit 107. The touch panel drive unit 102 processes a signal obtained from the touch panel 1, and obtains position information where a user's finger, pen, etc., which are contacts capable of perceiving the action force from the touch panel 1, are in contact with the touch panel 1. The data is sent to the control unit 107. The actuator driving unit 103 drives the actuator 6 in accordance with a signal sent from the control unit 107. The pressure sensor driving unit 104 detects the contact pressure between the panel support member 4 and the actuator 6 that are integrated with the touch panel 1, and sends a detection signal to the control unit 107. The z-axis position sensor driving unit 105 sends a signal to the control unit 107 when detecting the position of the panel support member 4 in the z-axis direction. The sound generation mechanism driving unit 106 drives a sound generation mechanism (not shown) according to the control signal sent from the control unit 107, and transmits the current processing state of the tactile presentation input device to the user as sound information.

次に、実施の形態1における触覚提示入力装置の動作について説明する。
尚、本実施の形態では、表示パネル2に表示された操作ボタン等の画像領域を選択して、そのボタン画像をタッチすることでボタンに割り当てられた処理を行う際に、表示画面を見ない(視覚情報無し)で操作する場合について説明する。
Next, the operation of the tactile presentation input device according to Embodiment 1 will be described.
In this embodiment, when an image area such as an operation button displayed on the display panel 2 is selected and the button image is touched to perform processing assigned to the button, the display screen is not seen. The case of operating with (no visual information) will be described.

図3は表示パネル2に表示されたボタン画像2aの位置を、触覚提示によりユーザに知覚させる場合の触覚提示入力装置の動作状態を説明する図である。
図3(a)はタッチパネル1と表示パネル2をパネル面垂直方向から見た平面図であり、ボタン画像2aが表示パネル2に表示されている状態を示す。ユーザが表示画面を見ないでボタン画像2aの位置を探す場合、ユーザは接触子である指10でタッチパネル1の表面を走査する状態になる。このユーザの指10が図3に示すx軸方向にボタン画像2aを探す動作及びそのときの触覚提示入力装置の動作を図3(b)〜(d)に示す。
FIG. 3 is a diagram for explaining the operating state of the tactile sensation input device when the user perceives the position of the button image 2a displayed on the display panel 2 by tactile presentation.
FIG. 3A is a plan view of the touch panel 1 and the display panel 2 as viewed from the direction perpendicular to the panel surface, and shows a state where the button image 2 a is displayed on the display panel 2. When the user looks for the position of the button image 2a without looking at the display screen, the user scans the surface of the touch panel 1 with the finger 10 as a contact. The operation of the user's finger 10 searching for the button image 2a in the x-axis direction shown in FIG. 3 and the operation of the tactile presentation input device at that time are shown in FIGS.

図3(b)に示すように、ユーザの指10が表示パネル2のボタン画像2a以外の表示パネル2の左側の領域に対応するタッチパネル1に位置する場合は、タッチパネル駆動部102からの信号によりタッチパネル1とユーザの指やペン等の接触子が接触している位置がボタン画像2a以外の領域に対応するタッチパネル1の位置情報を制御部107に送る。制御部107はボタン画像2a以外の領域に対応するタッチパネル1の位置情報によりアクチュエータ6を駆動するようにアクチュエータ駆動部103に信号を送る。アクチュエータ駆動部103はアクチュエータ6がパネル支持部材4を筐体7に押し付ける(z軸方向に押し上げる)向きにアクチュエータ6を駆動する。ユーザの指10がタッチパネル1の表面に触れる場合、少なからずタッチパネル1の表面垂直方向に力が加わるので、ユーザの指10はタッチパネル1の表面から抗力N1を受ける。この場合、タッチパネル1はアクチュエータ6によりz軸方向のタッチパネル1と表示パネル2のパネル全体を支持する力(パネル支持力)が強くなるため、ユーザの指10が受ける抗力N1は大きくなり、ユーザは剛体に触れているような触覚を得る。なお、パネル支持力の強さは、アクチュエータ6の駆動量や圧力センサ8により検出されるアクチュエータ6とパネル支持部材4との接触圧力を制御することにより調整可能である。   As shown in FIG. 3B, when the user's finger 10 is located on the touch panel 1 corresponding to the left region of the display panel 2 other than the button image 2a of the display panel 2, a signal from the touch panel drive unit 102 is used. The position information of the touch panel 1 corresponding to the area other than the button image 2a is sent to the control unit 107 where the touch panel 1 is in contact with a contact such as a user's finger or pen. The control unit 107 sends a signal to the actuator driving unit 103 so as to drive the actuator 6 based on the position information of the touch panel 1 corresponding to the area other than the button image 2a. The actuator driving unit 103 drives the actuator 6 in a direction in which the actuator 6 presses the panel support member 4 against the housing 7 (pushes up in the z-axis direction). When the user's finger 10 touches the surface of the touch panel 1, a force is applied in the vertical direction of the surface of the touch panel 1, so that the user's finger 10 receives a drag N 1 from the surface of the touch panel 1. In this case, since the force (panel support force) for supporting the entire touch panel 1 and the display panel 2 in the z-axis direction by the actuator 6 is increased (the panel support force), the drag N1 received by the user's finger 10 is increased. Get the tactile sensation of touching a rigid body. The strength of the panel support force can be adjusted by controlling the driving amount of the actuator 6 and the contact pressure between the actuator 6 and the panel support member 4 detected by the pressure sensor 8.

次に、指10をx軸方向右側に走査させて、図3(c)に示すようにボタン画像2aが表示されている領域に対応するタッチパネル1の領域に指10が位置した場合について説明する。タッチパネル駆動部102のタッチ位置検出機能により、ユーザの指10が、ボタン画像2aが表示されている領域に対応するタッチパネル1の領域に位置したことを検出し、この位置情報が制御部107に送られる。すると、制御部107からの信号によりアクチュエータ6の駆動が解除され、パネル支持部材4と一体に構成されたタッチパネル1は弾性支持部材5だけで支持される状態となり、パネル支持力が弱くなるとともにタッチパネル1はz軸方向下側に移動可能な状態となる。
このとき、ユーザの指10が受ける抗力N2はN1よりも小さくなり、ユーザはボタン画像2a以外の領域(図3(a))に対応するタッチパネル1の領域に触れていたときよりも、軟らかい触覚を得る。
Next, a case will be described in which the finger 10 is scanned rightward in the x-axis direction and the finger 10 is positioned in the area of the touch panel 1 corresponding to the area where the button image 2a is displayed as shown in FIG. . The touch position detection function of the touch panel drive unit 102 detects that the user's finger 10 is positioned in the area of the touch panel 1 corresponding to the area where the button image 2 a is displayed, and sends this position information to the control unit 107. It is done. Then, the driving of the actuator 6 is released by a signal from the control unit 107, and the touch panel 1 configured integrally with the panel support member 4 is supported only by the elastic support member 5, so that the panel support force becomes weak and the touch panel. 1 is in a state of being movable downward in the z-axis direction.
At this time, the drag N2 received by the user's finger 10 is smaller than N1, and the tactile sensation is softer than when the user touches the area of the touch panel 1 corresponding to the area other than the button image 2a (FIG. 3A). Get.

次に、再び指10をx軸方向右側に走査させて、図3(d)に示すようにボタン画像2a以外の領域に対応するタッチパネル1の領域に指10が位置したときは、タッチパネル駆動部102のタッチ位置検出機能により、ユーザの指10が、ボタン画像2aが表示されている領域以外に位置したことを検出し、この位置情報が制御部107に送られ、制御部107からの信号により、アクチュエータ6を駆動させて、タッチパネル1を筐体7に押し付けるように、z軸方向のパネル支持力を増加させることで、ユーザの指10はパネル面から抗力N1を受け、再び剛体に触れているような硬い触覚を得る。   Next, when the finger 10 is again scanned to the right in the x-axis direction and the finger 10 is positioned in the area of the touch panel 1 corresponding to the area other than the button image 2a as shown in FIG. The touch position detection function 102 detects that the user's finger 10 is positioned outside the area where the button image 2 a is displayed, and this position information is sent to the control unit 107, and a signal from the control unit 107 is detected. By driving the actuator 6 and increasing the panel supporting force in the z-axis direction so as to press the touch panel 1 against the housing 7, the user's finger 10 receives the drag N1 from the panel surface and touches the rigid body again. Get a hard tactile feel.

図3(e)はx軸方向に対するユーザの指10が受ける抗力を表したグラフであり、ボタン画像2aが位置するx1からx2の間では、抗力Nが小さくなることを示す。このように抗力の違いを検知することで、表示パネル2に表示されたボタン画像2aの位置を検知することが可能となる。また、ユーザの指10がボタン画像2aの表示されている領域に位置したことを検出した際に、制御部107からの制御信号により音声発生機構駆動部106が図示しない音声発生機構を動作させ、ユーザの指10がタッチしている位置を音声情報でユーザに伝達するようにすることで、ユーザは触覚と聴覚の両方から表示画像の位置を確認することができる。   FIG. 3E is a graph showing the drag received by the user's finger 10 in the x-axis direction, and shows that the drag N is small between x1 and x2 where the button image 2a is located. Thus, by detecting the difference in drag, the position of the button image 2a displayed on the display panel 2 can be detected. Further, when it is detected that the user's finger 10 is positioned in the area where the button image 2a is displayed, the sound generation mechanism driving unit 106 operates a sound generation mechanism (not shown) by a control signal from the control unit 107, By transmitting the position touched by the user's finger 10 to the user by voice information, the user can confirm the position of the display image from both the sense of touch and hearing.

ユーザがタッチパネル1から受ける抗力の違いによりボタン画像2aの位置を検知した状態(図3(c))から、次にボタン操作を実行する場合は、図4に示すように、タッチパネル1をz軸方向下側にz軸位置センサ9と接触するまで押し込む。z軸位置センサ9が表示パネル2を検出したら、制御部107によりボタン画像2aに割り当てられた処理が実行される。以上の動作により、あたかもボタンを押したかのような操作感を得ることができる。   When the button operation is executed next from the state in which the position of the button image 2a is detected by the difference in the drag force that the user receives from the touch panel 1 (FIG. 3C), the touch panel 1 is moved to the z axis as shown in FIG. Push down in the direction down until it contacts the z-axis position sensor 9. When the z-axis position sensor 9 detects the display panel 2, the process assigned to the button image 2a is executed by the control unit 107. With the above operation, it is possible to obtain an operational feeling as if the button was pressed.

図5は、上記動作工程を示すフローチャートである。まず、制御部107の制御信号によりアクチュエータ駆動部103がアクチュエータ6の駆動をONにして、タッチパネル1のz軸方向支持力を増加させる(ステップST1)。次に、タッチパネル駆動部102によりユーザの指10のタッチ位置を検出し(ステップST2)、そのタッチ位置情報を制御部107に送り、タッチ位置が表示画像領域(本実施の形態ではボタン画像2a)内に位置するかどうかを制御部107が判定する(ステップST3)。タッチ位置が表示画像領域内に位置しない場合はアクチュエータ6をONにしたまま、ステップST2とステップST3の処理を繰り返す。   FIG. 5 is a flowchart showing the operation steps. First, the actuator driving unit 103 turns on the driving of the actuator 6 by the control signal of the control unit 107, and increases the support force in the z-axis direction of the touch panel 1 (step ST1). Next, the touch position of the user's finger 10 is detected by the touch panel drive unit 102 (step ST2), the touch position information is sent to the control unit 107, and the touch position is displayed in the display image area (in this embodiment, the button image 2a). The control part 107 determines whether it is located in (step ST3). When the touch position is not located within the display image area, the processes of step ST2 and step ST3 are repeated while the actuator 6 is kept on.

タッチ位置が表示画像領域内に位置する場合は、アクチュエータ駆動部103がアクチュエータ6の駆動をOFFにして、タッチパネル1のz軸方向支持力を解除する(ステップST4)。そして、z軸位置センサ9からの信号でz軸位置センサ駆動部105により表示パネル2のz軸位置が検出されたら(ステップST5)、制御部107は表示画像に割当てられた処理を実行する(ステップST6)。   When the touch position is located within the display image area, the actuator driving unit 103 turns off the driving of the actuator 6 and releases the support force in the z-axis direction of the touch panel 1 (step ST4). When the z-axis position of the display panel 2 is detected by the z-axis position sensor driving unit 105 based on the signal from the z-axis position sensor 9 (step ST5), the control unit 107 executes processing assigned to the display image (step ST5). Step ST6).

このように、タッチパネル1上のユーザの指の位置を検出して、タッチパネル1の支持力を制御することにより、ユーザは表示パネル2の表示画面を見なくても、触覚により表示画像位置を知覚することができる。本実施の形態では,表示画像領域の抗力が小さくなるようにアクチュエータ6を制御しているので、ユーザは表示画像領域が凹形状にあるかのうような触覚を得ることができる。
また、タッチパネル1をタッチパネル1面の垂直方向に移動可能に支持すると共に、タッチパネル1面の垂直方向高さ位置を検出することにより、ボタンを押すような操作感を得ることができる。
Thus, by detecting the position of the user's finger on the touch panel 1 and controlling the supporting force of the touch panel 1, the user perceives the display image position by tactile sense without looking at the display screen of the display panel 2. can do. In the present embodiment, since the actuator 6 is controlled so that the drag of the display image area is reduced, the user can obtain a tactile sensation as if the display image area has a concave shape.
In addition, while supporting the touch panel 1 so as to be movable in the vertical direction of the touch panel 1, it is possible to obtain an operational feeling such as pressing a button by detecting the vertical height position of the touch panel 1.

本実施の形態では、表示パネル2に表示されたボタン画像2aを探すために、ユーザの指10をx軸方向に走査させる場合について説明したが、y軸方向についてもx軸の場合と同様にアクチュエータ6を制御することによって、ボタン画像2aの位置を触覚により知覚することができる。   In the present embodiment, the case where the user's finger 10 is scanned in the x-axis direction in order to search for the button image 2a displayed on the display panel 2 has been described, but the y-axis direction is also the same as in the case of the x-axis. By controlling the actuator 6, the position of the button image 2a can be perceived by tactile sensation.

また、本実施の形態ではタッチパネル1と表示パネル2を一体に構成していたが、タッチパネル1と表示パネル2を分離して、表示パネル2は筐体7に固定するように構成してもよい。タッチパネル1と表示パネル2を分離することにより、パネル支持部材4と一体化したタッチパネル1の重量が軽量化され、パネル支持力を小さくすることが可能となる。本実施の形態ではz軸位置センサ9は表示パネル2と接触する位置に設置されているが、この場合、z軸位置センサ9はパネル支持部材4と接触するような位置に設置すればよい。   In the present embodiment, the touch panel 1 and the display panel 2 are integrally configured. However, the touch panel 1 and the display panel 2 may be separated and the display panel 2 may be fixed to the housing 7. . By separating the touch panel 1 and the display panel 2, the weight of the touch panel 1 integrated with the panel support member 4 is reduced, and the panel support force can be reduced. In the present embodiment, the z-axis position sensor 9 is installed at a position in contact with the display panel 2. In this case, the z-axis position sensor 9 may be installed at a position in contact with the panel support member 4.

さらに、本実施の形態では表示パネル2のz軸方向の高さ位置を検出するための手段として、接触式のセンサであるz軸位置センサ9を用いたが、表示パネル2またはパネル支持部材4のz軸方向位置を検出する目的を達成できる方式であれば、センシング方式は限定されない。例えば、z軸位置センサ9に非接触式の光学センサを用いることも可能である。   Further, in the present embodiment, the z-axis position sensor 9 which is a contact type sensor is used as means for detecting the height position of the display panel 2 in the z-axis direction, but the display panel 2 or the panel support member 4 is used. The sensing method is not limited as long as the purpose of detecting the position in the z-axis direction can be achieved. For example, a non-contact optical sensor can be used for the z-axis position sensor 9.

実施の形態2.
上記実施の形態1では、表示画像領域でパネル支持力を弱くしていたが、本実施の形態2では、表示画像領域でパネル支持力を強くする場合について説明する。図6は本実施の形態2の動作を説明する図である。なお、本実施の形態2における触覚提示入力装置の機構及びシステム構成は、実施の形態1と同一であり、アクチュエータ6の動作が表示画像領域と表示画像領域以外の領域で実施の形態1と逆になる。
図6(a)はタッチパネル1と表示パネル2をタッチパネル1の表面垂直方向から見た平面図であり、ボタン画像2aが表示パネル2に表示されている状態を示す。ユーザが表示画面を見ないでボタン画像2aの位置を探す場合、ユーザは指10でタッチパネル1の表面を走査する状態になる。このユーザの指10が図6に示すx軸方向にボタン画像2aを探す動作及びそのときの触覚提示入力装置の動作を図6(b)〜(d)に示す。
Embodiment 2. FIG.
In the first embodiment, the panel support force is weakened in the display image region. In the second embodiment, a case where the panel support force is increased in the display image region will be described. FIG. 6 is a diagram for explaining the operation of the second embodiment. The mechanism and system configuration of the tactile presentation input device in the second embodiment are the same as those in the first embodiment, and the operation of the actuator 6 is opposite to that in the first embodiment except for the display image area and the display image area. become.
FIG. 6A is a plan view of the touch panel 1 and the display panel 2 as viewed from the surface vertical direction of the touch panel 1, and shows a state in which the button image 2 a is displayed on the display panel 2. When the user looks for the position of the button image 2 a without looking at the display screen, the user is in a state of scanning the surface of the touch panel 1 with the finger 10. The operation of the user's finger 10 searching for the button image 2a in the x-axis direction shown in FIG. 6 and the operation of the tactile sense input device at that time are shown in FIGS.

図6(b)に示すように、ユーザの指10が表示パネル2のボタン画像2a以外の表示パネル2の左側の領域に対応するタッチパネル1に位置する場合は、タッチパネル駆動部102からの信号によりタッチパネル1とユーザの指やペン等の接触子が接触している位置がボタン画像2a以外の領域に対応するタッチパネル1の位置情報を制御部107に送る。制御部107はボタン画像2a以外の領域に対応するタッチパネル1の位置情報によりアクチュエータ6の駆動を解除するようにアクチュエータ駆動部103に信号を送る。アクチュエータ駆動部103はこの信号でアクチュエータ6の駆動を解除する。パネル支持部材4と一体に構成されたタッチパネル1は弾性支持部材5だけで支持される状態となる。このとき、ユーザの指10が受ける抗力N2は比較的小さく、ユーザは軟らかい物体に触れているかのような触覚を得る。   As shown in FIG. 6B, when the user's finger 10 is located on the touch panel 1 corresponding to the left region of the display panel 2 other than the button image 2 a of the display panel 2, the signal from the touch panel driving unit 102 is used. The position information of the touch panel 1 corresponding to the area other than the button image 2a is sent to the control unit 107 where the touch panel 1 is in contact with a contact such as a user's finger or pen. The control unit 107 sends a signal to the actuator driving unit 103 so as to release the driving of the actuator 6 based on the position information of the touch panel 1 corresponding to the area other than the button image 2a. The actuator driving unit 103 releases the driving of the actuator 6 by this signal. The touch panel 1 configured integrally with the panel support member 4 is supported only by the elastic support member 5. At this time, the drag N2 received by the user's finger 10 is relatively small, and the user obtains a tactile sensation as if touching a soft object.

次に、指10をx軸方向右側に走査させて、図6(c)に示すようにボタン画像2aが表示されている領域に対応するタッチパネル1の領域に指10が位置した場合について説明する。
タッチパネル駆動部102のタッチ位置検出機能により、ユーザの指10が、ボタン画像2aが表示されている領域に対応するタッチパネル1の領域に位置したことを検出し、この位置情報が制御部107に送られる。すると、制御部107からの信号によりアクチュエータ駆動部103の動作によりアクチュエータ6は、パネル支持部材4を筐体7に押し付ける(z軸方向に押し上げる)向きに駆動される。この場合、タッチパネル1の支持力(パネル支持力)が強くなるため、ユーザの指10が受ける抗力N1はN2よりも大きくなり、ユーザはボタン画像2a以外の領域に触れていたときよりも、硬い触覚を得る。なお、パネル支持力の強さは、アクチュエータ6の駆動量や圧力センサ8により検出されるアクチュエータ6とパネル支持部材4との接触圧力を制御することにより調整可能である。
Next, a case will be described in which the finger 10 is scanned rightward in the x-axis direction and the finger 10 is positioned in the area of the touch panel 1 corresponding to the area where the button image 2a is displayed as shown in FIG. 6C. .
The touch position detection function of the touch panel drive unit 102 detects that the user's finger 10 is positioned in the area of the touch panel 1 corresponding to the area where the button image 2 a is displayed, and sends this position information to the control unit 107. It is done. Then, the actuator 6 is driven in the direction of pressing the panel support member 4 against the casing 7 (pushing up in the z-axis direction) by the operation of the actuator driving unit 103 based on the signal from the control unit 107. In this case, since the supporting force (panel supporting force) of the touch panel 1 is increased, the drag N1 received by the user's finger 10 is greater than N2, and is harder than when the user is touching an area other than the button image 2a. Get a sense of touch. The strength of the panel support force can be adjusted by controlling the driving amount of the actuator 6 and the contact pressure between the actuator 6 and the panel support member 4 detected by the pressure sensor 8.

次に、再び指10をx軸方向右側に走査させて、図6(d)に示すようにボタン画像2a以外の領域に対応するタッチパネル1の領域に指10が位置したときは、タッチパネル駆動部102のタッチ位置検出機能により、ユーザの指10が、ボタン画像2aが表示されている領域以外に対応するタッチパネル1の領域に位置したことを検出し、この位置情報が制御部107に送られ、制御部107からの信号により、アクチュエータ駆動部103によるアクチュエータ6の駆動が解除され、パネル支持部材4と一体に構成されたタッチパネル1は弾性支持部材5だけで支持される状態となり、パネル支持力が弱くなることで、ユーザの指10はパネル面から抗力N2を受け、再び軟らかい触覚を得る。   Next, when the finger 10 is again scanned to the right in the x-axis direction and the finger 10 is positioned in the area of the touch panel 1 corresponding to the area other than the button image 2a as shown in FIG. The touch position detection function 102 detects that the user's finger 10 is located in the area of the touch panel 1 other than the area where the button image 2a is displayed, and this position information is sent to the control unit 107. The drive of the actuator 6 by the actuator drive unit 103 is released by a signal from the control unit 107, and the touch panel 1 configured integrally with the panel support member 4 is supported only by the elastic support member 5, and the panel support force is increased. By weakening, the user's finger 10 receives a drag N2 from the panel surface and obtains a soft touch again.

図6(e)はx軸方向に対するユーザの指10がタッチパネル1の面から受ける抗力を表したグラフであり、ボタン画像2aが位置するx1からx2の間では、抗力Nが大きくなることを示す。本実施の形態では,表示画像領域の抗力が大きくなるようにアクチュエータ6を制御しているので,ユーザは表示画像領域が凸形状にあるかのうような触覚を得ることができる.
このように抗力の違いを検知することで、表示パネル2に表示されたボタン画像2aの位置を検知することが可能となる。また、ユーザの指10がボタン画像2aの表示されている領域に対応するタッチパネル1の領域に位置したことを検出した際に、制御部107からの制御信号により音声発生機構駆動部106が図示しない音声発生機構を動作させ、ユーザの指10がタッチしている位置を音声情報でユーザに伝達するようにすることで、ユーザは触覚と聴覚の両方から表示画像の位置を確認することができる。
FIG. 6E is a graph showing the drag that the user's finger 10 receives from the surface of the touch panel 1 in the x-axis direction, and shows that the drag N increases between x1 and x2 where the button image 2a is located. . In this embodiment, since the actuator 6 is controlled so that the drag of the display image area is increased, the user can obtain a tactile sensation as if the display image area has a convex shape.
Thus, by detecting the difference in drag, the position of the button image 2a displayed on the display panel 2 can be detected. Further, when it is detected that the user's finger 10 is positioned in the area of the touch panel 1 corresponding to the area where the button image 2a is displayed, the sound generation mechanism driving unit 106 is not illustrated by a control signal from the control unit 107. By operating the sound generation mechanism and transmitting the position touched by the user's finger 10 to the user using sound information, the user can confirm the position of the display image from both the sense of touch and hearing.

図6(c)に示すように、ユーザがタッチパネル1から受ける抗力の違いによりボタン画像2aの位置を検知した状態から、次にボタン操作を実行する場合について説明する。
図7は本実施の形態2において、ユーザが表示パネル2に表示された仮想ボタン(ボタン画像2a)を押す際の動作における、触覚提示入力装置の動作を示す図である。
Next, as shown in FIG. 6C, a case where the button operation is executed next from a state in which the position of the button image 2 a is detected based on a difference in drag that the user receives from the touch panel 1 will be described.
FIG. 7 is a diagram illustrating the operation of the tactile sensation input device in the operation when the user presses the virtual button (button image 2a) displayed on the display panel 2 in the second embodiment.

図7(a)は図6(c)に示す状態から、ユーザの指10がタッチパネル1をさらに強く押し込む状態を示した図である。図7(a)の状態では、アクチュエータ6とパネル支持部材4の接触圧力Pは図6(c)の状態よりも大きくなる。圧力センサ8により検出される圧力Pが、予め決められた閾値圧力P0を上回った場合、図7(b)に示すようにアクチュエータ6によるパネル支持力を解除する。そして、図7(c)に示すように、タッチパネル1は表示パネル2がz軸位置センサ9と接触するまでz軸方向下側に押し込まれる。z軸位置センサ9が表示パネル2を検出したら、ボタン画像2aに割り当てられた処理が実行される。以上の動作により、あたかもボタンを押したかのような操作感を得ることができる。   FIG. 7A is a diagram showing a state where the user's finger 10 pushes the touch panel 1 more strongly than the state shown in FIG. In the state of FIG. 7A, the contact pressure P between the actuator 6 and the panel support member 4 is larger than that in the state of FIG. When the pressure P detected by the pressure sensor 8 exceeds a predetermined threshold pressure P0, the panel supporting force by the actuator 6 is released as shown in FIG. Then, as illustrated in FIG. 7C, the touch panel 1 is pushed down in the z-axis direction until the display panel 2 comes into contact with the z-axis position sensor 9. When the z-axis position sensor 9 detects the display panel 2, the process assigned to the button image 2a is executed. With the above operation, it is possible to obtain an operational feeling as if the button was pressed.

図8は、実施の形態2の動作工程を示すフローチャートである。まず、制御部107の制御信号によりアクチュエータ駆動部103がアクチュエータ6の駆動を解除(OFF)して、タッチパネル1のz軸方向支持力を減少させる(ステップST1)。次に、タッチパネル駆動部103によりユーザの指10のタッチ位置を検出し(ステップST2)、タッチ位置が表示画像領域(本実施の形態ではボタン画像2a)内に位置するかどうかを制御部107が判定する(ステップST3)。タッチ位置が表示画像領域内に位置しない場合はアクチュエータ6の駆動をOFFにしたまま、ステップST2とステップST3の処理を繰り返す。   FIG. 8 is a flowchart showing the operation process of the second embodiment. First, the actuator driving unit 103 releases the driving of the actuator 6 by the control signal of the control unit 107 (OFF), and decreases the support force in the z-axis direction of the touch panel 1 (step ST1). Next, the touch position of the user's finger 10 is detected by the touch panel drive unit 103 (step ST2), and the control unit 107 determines whether or not the touch position is located in the display image area (the button image 2a in the present embodiment). Determine (step ST3). If the touch position is not located within the display image area, the processing of step ST2 and step ST3 is repeated with the drive of the actuator 6 turned off.

ユーザの指10のタッチ位置が表示画像領域内に位置する場合は、アクチュエータ駆動部103がアクチュエータ6の駆動をONにして、タッチパネル1のz軸方向支持力を増加させる(ステップST4)。そして、圧力センサ駆動部104によりアクチュエータ6とパネル支持部材4との接触圧力Pを検出して、制御部107において予め設定された圧力P0と検出した接触圧力Pを比較する(ステップST5)。接触圧力PがP<P0の場合はステップST3以降の処理を繰り返す。接触圧力PがP≧P0の場合は、制御部107によりアクチュエータ6の駆動をOFFにして(ステップST6)、表示パネル2のz軸位置がz軸位置センサ9に接触することを検出されたら(ステップST7)、制御部107は表示画像に割当てられた処理を実行する(ステップST8)。   When the touch position of the user's finger 10 is located within the display image area, the actuator driving unit 103 turns on the driving of the actuator 6 to increase the z-axis direction supporting force of the touch panel 1 (step ST4). Then, the contact pressure P between the actuator 6 and the panel support member 4 is detected by the pressure sensor driving unit 104, and the pressure P0 preset in the control unit 107 is compared with the detected contact pressure P (step ST5). When the contact pressure P is P <P0, the process after step ST3 is repeated. When the contact pressure P is P ≧ P0, the control unit 107 turns off the driving of the actuator 6 (step ST6) and detects that the z-axis position of the display panel 2 is in contact with the z-axis position sensor 9 ( In step ST7), the control unit 107 executes processing assigned to the display image (step ST8).

本実施の形態によれば、表示パネル2に表示されたボタン画像2aの領域に対応するタッチパネル1の領域にユーザの指10が位置した際に、パネル支持力を強く制御することにより、実在のボタンのような硬い物体に触れているような触覚を得ることができ、あたかも実在のボタンを操作するような感覚を得ることが可能となる。
尚、本実施の形態では、表示パネル2に表示されたボタン画像2aを探すために、ユーザの指10をx軸方向に走査させる場合について説明したが、y軸方向についてもx軸の場合と同様にアクチュエータ6を制御することによって、ボタン画像2aの位置を触覚により知覚することができる。また、本実施の形態ではタッチパネル1と表示パネル2を一体に構成していたが、タッチパネル1と表示パネル2を分離して、表示パネル2は筐体7に固定するように構成してもよい。この場合、z軸位置センサ9はパネル支持部材4と接触するような位置に設置すればよい。
According to the present embodiment, when the user's finger 10 is positioned in the area of the touch panel 1 corresponding to the area of the button image 2a displayed on the display panel 2, the panel supporting force is strongly controlled, so that the real A tactile sensation as if touching a hard object such as a button can be obtained, and a sensation of operating an actual button can be obtained.
In the present embodiment, the case where the user's finger 10 is scanned in the x-axis direction to search for the button image 2a displayed on the display panel 2 has been described. However, the y-axis direction is also the case of the x-axis. Similarly, by controlling the actuator 6, the position of the button image 2a can be perceived by touch. In the present embodiment, the touch panel 1 and the display panel 2 are integrally configured. However, the touch panel 1 and the display panel 2 may be separated and the display panel 2 may be fixed to the housing 7. . In this case, the z-axis position sensor 9 may be installed at a position in contact with the panel support member 4.

また、本実施の形態では表示パネル2のz軸方向の高さ位置を検出するための手段として、接触式のセンサであるz軸位置センサ9を用いたが、表示パネル2またはパネル支持部材4のz軸方向位置を検出する目的を達成できる方式であれば、センシング方式は限定されない。例えば、z軸位置センサ9に非接触式の光学センサを用いることも可能である。   In this embodiment, the z-axis position sensor 9 which is a contact type sensor is used as a means for detecting the height position of the display panel 2 in the z-axis direction, but the display panel 2 or the panel support member 4 is used. The sensing method is not limited as long as the purpose of detecting the position in the z-axis direction can be achieved. For example, a non-contact optical sensor can be used for the z-axis position sensor 9.

上記本実施の形態1、2では、表示パネル2に1つのボタン画像2aが表示された場合について説明したが、表示パネル2に複数のボタン画像が表示された場合でも、図5、図8に示すフローチャートのステップST1〜ステップST3の処理を繰り返すことにより、ユーザは表示画面を見なくても、複数のボタン画像の位置を認識することができる。この際、複数のボタン画像種類の識別は、音声発生機構部106からボタン種類に関する情報を音声でユーザに伝えることで可能となる。   In the first and second embodiments, the case where one button image 2a is displayed on the display panel 2 has been described. However, even when a plurality of button images are displayed on the display panel 2, FIGS. By repeating the processing of step ST1 to step ST3 of the flowchart shown, the user can recognize the positions of a plurality of button images without looking at the display screen. At this time, the plurality of button image types can be identified by transmitting information about the button types from the sound generation mechanism unit 106 to the user by voice.

実施の形態3.
実施の形態1、2では、タッチパネル1表面垂直方向に可動支持した場合について説明したが、本実施の形態3では、タッチパネル1のx軸方向とy軸方向及びz軸方向に可動支持する場合の触覚提示入力装置の動作について説明する。
Embodiment 3 FIG.
In the first and second embodiments, the case where the touch panel 1 is movable and supported in the direction perpendicular to the surface has been described. In the present third embodiment, the touch panel 1 is movable and supported in the x-axis direction, the y-axis direction, and the z-axis direction. The operation of the tactile presentation input device will be described.

図9は、本実施の形態3における触覚提示入力装置の構成を示す断面図、図10は本実施の形態3における触覚提示入力装置のタッチパネル1の支持構成を示す平面図である。図9,図10において,6zはタッチパネル1のz軸方向の支持力を制御するためのアクチュエータ、6xはタッチパネル1のx軸方向の支持力を制御するためのアクチュエータ,6yはタッチパネル1のy軸方向の支持力を制御するためのアクチュエータである。10zは筐体7に対してタッチパネル1をz軸方向(パネル面垂直方向)に支持するスプリングボールプランジャーであり、10xはx軸方向,10yはy軸方向(パネル面水平方向)に移動可能に支持するスプリングボールプランジャーである。
図10に示すように、パネル支持部材4はタッチパネル1の4辺に、また、スプリングボールプランジャー10x、10y及びアクチュエータ6x、6yは、タッチパネル1の対向する2辺にそれぞれ設置されている。
さらに、パネル支持部材4にはアクチュエータ6x、6yとパネル支持部材4との接触圧力を検出するための高分子厚膜フィルム等からなる圧力センサ8がアクチュエータ6zに対する圧力センサ8と同様な構造で設けられている。
FIG. 9 is a cross-sectional view showing the configuration of the tactile presentation input device according to the third embodiment, and FIG. 10 is a plan view showing the support configuration of the touch panel 1 of the tactile presentation input device according to the third embodiment. 9 and 10, 6z is an actuator for controlling the supporting force in the z-axis direction of the touch panel 1, 6x is an actuator for controlling the supporting force in the x-axis direction of the touch panel 1, and 6y is the y-axis of the touch panel 1. It is an actuator for controlling the directional support force. 10z is a spring ball plunger which supports the touch panel 1 with respect to the housing 7 in the z-axis direction (panel surface vertical direction), 10x is movable in the x-axis direction, and 10y is movable in the y-axis direction (panel surface horizontal direction). A spring ball plunger which is supported by
As shown in FIG. 10, the panel support member 4 is installed on the four sides of the touch panel 1, and the spring ball plungers 10 x and 10 y and the actuators 6 x and 6 y are installed on the two opposing sides of the touch panel 1.
Further, the panel support member 4 is provided with a pressure sensor 8 made of a polymer thick film for detecting the contact pressure between the actuators 6x and 6y and the panel support member 4 in the same structure as the pressure sensor 8 for the actuator 6z. It has been.

図11はスプリングボールプランジャー10z、10x、10yの構成を示す断面図である。スプリングボールプランジャー10z、10x、10yは、それぞれハウジング10b内で回転自由に支持されたボール10aとスプリング10cから構成される。ボール10aは、無負荷状態ではハウジング10bから一部が飛び出した状態で支持されており、ボール10aを介してスプリング10cの圧縮方向に負荷がかかると、ボール10aはハウジング10b内に移動する。このときの最大移動量はSとなる。   FIG. 11 is a cross-sectional view showing the configuration of the spring ball plungers 10z, 10x, and 10y. Each of the spring ball plungers 10z, 10x, and 10y includes a ball 10a and a spring 10c that are rotatably supported in the housing 10b. The ball 10a is supported in a state where a part of the ball 10a protrudes from the housing 10b in an unloaded state. When a load is applied in the compression direction of the spring 10c via the ball 10a, the ball 10a moves into the housing 10b. The maximum movement amount at this time is S.

スプリングボールプランジャー10z、10x、10yはそれぞれパネル支持部材4と接触するように筐体7に設置されており、z軸方向においては、スプリング10cの反力により、タッチパネル1と表示パネル2と一体に構成されたパネル支持部材4を、弾性部材3を介して筐体7に押し付けるように構成されている。
x軸、y軸方向に関しては、スプリングボールプランジャー10x、10yはスプリング10cに負荷がかからない程度にパネル支持部材4と接触するように設置されており、タッチパネル1は筐体7に対して、x軸、y軸方向に最大で±S移動することが出来るように構成されている。
The spring ball plungers 10z, 10x, and 10y are respectively installed in the housing 7 so as to come into contact with the panel support member 4. In the z-axis direction, the touch panel 1 and the display panel 2 are integrated with each other by the reaction force of the spring 10c. The panel support member 4 configured as described above is pressed against the housing 7 via the elastic member 3.
Regarding the x-axis and y-axis directions, the spring ball plungers 10x and 10y are installed so as to be in contact with the panel support member 4 to the extent that no load is applied to the spring 10c. It is configured to be able to move up to ± S in the axial and y-axis directions.

また、本実施の形態では、アクチュエータ6x、6y、6zとパネル支持部材4に設置された圧力センサ8とは、その摩擦が少なくなるように構成されており、パネル支持部材4との接触面でスプリングボールプランジャー10x、10y、10zのボール10aが転がるので、パネル支持部材4と一体に構成されたタッチパネル1はx、y、z軸方向にスムーズな移動が可能となる。
その他の構成は実施の形態1と同じである。
Further, in the present embodiment, the actuators 6x, 6y, 6z and the pressure sensor 8 installed on the panel support member 4 are configured so that the friction is reduced, and the contact surface with the panel support member 4 is used. Since the balls 10a of the spring ball plungers 10x, 10y, and 10z roll, the touch panel 1 configured integrally with the panel support member 4 can smoothly move in the x, y, and z axis directions.
Other configurations are the same as those of the first embodiment.

次に、実施の形態3における触覚提示入力装置の動作について図12を用いて説明する。本実施の形態では、表示パネル2に表示された複数のボタン画像位置をユーザに触覚提示する場合について説明する。
図12(a)は表示パネル2に表示された4つのボタン画像2b、2c、2d、2eを示し、図12(b)は、前記4つのボタン画像をユーザに触覚提示する際のアクチュエータ6x、6y、6zの駆動(ON/OFF)状態B、C、D、Eを示すタイミングチャート、図12(c)は前記B、C、D、Eにおけるタッチパネル1のxy平面内の移動可能方向を示す図である。
尚、本実施の形態3では、表示画像領域でz軸方向のパネル支持力を強くする場合について説明する。
Next, the operation of the tactile sense input device in Embodiment 3 will be described with reference to FIG. In the present embodiment, a case will be described in which a plurality of button image positions displayed on the display panel 2 are tactilely presented to the user.
12A shows four button images 2b, 2c, 2d, and 2e displayed on the display panel 2, and FIG. 12B shows an actuator 6x when tactilely presenting the four button images to the user. FIG. 12C shows a movable direction in the xy plane of the touch panel 1 at B, C, D, and E. FIG. 12C is a timing chart showing driving (ON / OFF) states B, C, D, and E of 6y and 6z. FIG.
In the third embodiment, the case where the panel support force in the z-axis direction is increased in the display image region will be described.

ユーザが表示パネル2の表示画像領域以外に対応するタッチパネル1の領域に触れた場合は、アクチュエータ6x、6y、6zの駆動をOFFにする。この場合、タッチパネル1はx軸、y軸、z軸方向に移動可能な状態となり、ユーザは軟らかい物体に触れているような触覚を得る。
表示パネル2のボタン画像2bが表示されている領域に対応するタッチパネル1の領域にユーザが触れた場合(図12の状態B)は、アクチュエータ6x、6y、6zの駆動をONにする。この場合、タッチパネル1はx軸、y軸、z軸方向の移動の自由度が拘束された状態(図12(c)のB)となり、ユーザは硬い物体に触れているような触覚を得る。
When the user touches an area of the touch panel 1 other than the display image area of the display panel 2, the actuators 6x, 6y, and 6z are turned off. In this case, the touch panel 1 is movable in the x-axis, y-axis, and z-axis directions, and the user obtains a tactile sensation as if touching a soft object.
When the user touches the area of the touch panel 1 corresponding to the area where the button image 2b of the display panel 2 is displayed (state B in FIG. 12), the actuators 6x, 6y, and 6z are turned on. In this case, the touch panel 1 is in a state where the degree of freedom of movement in the x-axis, y-axis, and z-axis directions is constrained (B in FIG. 12C), and the user has a tactile sensation as if touching a hard object.

表示パネル2のボタン画像2cが表示されている領域に対応するタッチパネル1の領域にユーザが触れた場合(図12の状態C)は、アクチュエータ6x、6zの駆動をON、アクチュエータ6yの駆動をOFFにする。この場合、タッチパネル1はx軸、z軸方向の移動の自由度が拘束されy軸方向だけに移動可能な状態となる。前記状態においてユーザが指を動かすと、ユーザはボタン画像2bが表示されている領域に対応するタッチパネル1の領域に触れたときとは異なる触覚を得ることができる。   When the user touches the area of the touch panel 1 corresponding to the area where the button image 2c of the display panel 2 is displayed (state C in FIG. 12), the actuators 6x and 6z are turned on and the actuator 6y is turned off. To. In this case, the touch panel 1 is in a state in which the degree of freedom of movement in the x-axis and z-axis directions is restricted and is movable only in the y-axis direction. When the user moves his / her finger in the state, the user can obtain a tactile sensation different from when the user touches the area of the touch panel 1 corresponding to the area where the button image 2b is displayed.

表示パネル2のボタン画像2dが表示されている領域に対応するタッチパネル1の領域にユーザが触れた場合(図12の状態D)は、アクチュエータ6y、6zの駆動をON、アクチュエータ6xの駆動をOFFにする。この場合、タッチパネル1はy軸、z軸方向の移動の自由度が拘束されx軸方向に移動可能な状態となる。前記状態においてユーザが指を動かすと、ユーザはボタン画像2b、2cが表示されている領域に対応するタッチパネル1の領域に触れたときとは異なる触覚を得ることができる。   When the user touches the area of the touch panel 1 corresponding to the area where the button image 2d of the display panel 2 is displayed (state D in FIG. 12), the actuators 6y and 6z are turned on and the actuator 6x is turned off. To. In this case, the touch panel 1 is in a state of being movable in the x-axis direction with the freedom of movement in the y-axis and z-axis directions being restricted. When the user moves his / her finger in the state, the user can obtain a tactile sensation different from that when the user touches the area of the touch panel 1 corresponding to the area where the button images 2b and 2c are displayed.

表示パネル2のボタン画像2eが表示されている領域に対応するタッチパネル1の領域にユーザが触れた場合(図12の状態E)は、アクチュエータ6zの駆動をON、アクチュエータ6x、6yの駆動をOFFにする。この場合、タッチパネル1はz軸方向の自由度が拘束されx軸及びy軸方向に移動可能な状態となる。前記状態においてユーザが指を動かすと、ユーザはボタン画像2b、2c、2dに触れたときとは異なる触覚を得ることができる。   When the user touches the area of the touch panel 1 corresponding to the area where the button image 2e of the display panel 2 is displayed (state E in FIG. 12), the driving of the actuator 6z is turned on and the driving of the actuators 6x and 6y is turned off. To. In this case, the touch panel 1 is in a state where the degree of freedom in the z-axis direction is restricted and the touch panel 1 can move in the x-axis and y-axis directions. When the user moves his / her finger in the state, the user can obtain a tactile sensation different from that when the user touches the button images 2b, 2c and 2d.

尚、ユーザがタッチパネル1に触れながら指を動かしてタッチパネル1をxy平面内に動かす場合、タッチパネル1のx軸、y軸方向の最大移動量は各方向で±Sとなるが、タッチパネル1の移動量が±Sを越えたときは、ユーザが指をx軸あるいはy軸方向に動かす力が、指とタッチパネル1との間の静止摩擦力を上回り、指とタッチパネル面の間で滑りが生じる。前記滑りが生じると、スプリングボールプランジャー10xあるいは10yのスプリング10cの復元力により、タッチパネル1のxy平面位置は初期状態に戻る。そして再度ユーザの指がタッチパネル1に触れて、タッチパネル1はx軸、y軸方向に最大±Sの距離だけ移動可能となる。前記動作を繰り返すことにより、ユーザはタッチパネル1がx軸、y軸方向に±S以上の距離を動いているように感じることができる。   When the user moves his / her finger while touching the touch panel 1 to move the touch panel 1 in the xy plane, the maximum movement amount in the x-axis and y-axis directions of the touch panel 1 is ± S in each direction. When the amount exceeds ± S, the force by which the user moves the finger in the x-axis or y-axis direction exceeds the static frictional force between the finger and the touch panel 1, and slipping occurs between the finger and the touch panel surface. When the slip occurs, the xy plane position of the touch panel 1 returns to the initial state by the restoring force of the spring 10c of the spring ball plunger 10x or 10y. Then, the user's finger touches the touch panel 1 again, and the touch panel 1 can move by a distance of maximum ± S in the x-axis and y-axis directions. By repeating the operation, the user can feel as if the touch panel 1 is moving a distance of ± S or more in the x-axis and y-axis directions.

このように、タッチパネル1上のユーザの指の位置を検出して、x軸、y軸、z軸方向のタッチパネル1の支持力を制御することにより、ユーザは表示画面を見なくても、触覚により複数の表示画像位置を知覚することができる。   In this way, by detecting the position of the user's finger on the touch panel 1 and controlling the supporting force of the touch panel 1 in the x-axis, y-axis, and z-axis directions, the user can sense the touch even without looking at the display screen. Thus, a plurality of display image positions can be perceived.

尚、本実施の形態3では、表示画像領域でz軸方向のパネル支持力を強くする場合について述べたが、表示画像領域でz軸方向のパネル支持力が弱くなるように制御する場合は、画像表示領域に対応するタッチパネル1の領域にユーザが触れた場合はアクチュエータ6zの駆動をOFFにして、画像表示領域以外の領域に対応するタッチパネル1の領域にユーザが触れた場合にはアクチュエータ6zの駆動をONとすることで、実施の形態3と同様の効果が得られる。   In the third embodiment, the case where the panel support force in the z-axis direction is increased in the display image region has been described. However, in the case where control is performed so that the panel support force in the z-axis direction is weakened in the display image region, When the user touches the area of the touch panel 1 corresponding to the image display area, the driving of the actuator 6z is turned off, and when the user touches the area of the touch panel 1 corresponding to the area other than the image display area, the actuator 6z By turning on the drive, the same effect as in the third embodiment can be obtained.

また、図13に示すように、画像表示領域(図13(a)の2b〜2h)でz軸方向のパネル支持力を制御するアクチュエータ6zおよびアクチュエータ6x、6yを図13(b)のようにON、OFF駆動することにより、実施の形態3よりも多くの表示画像位置をユーザに触覚提示することができる。   Further, as shown in FIG. 13, the actuator 6z and the actuators 6x and 6y for controlling the panel supporting force in the z-axis direction in the image display area (2b to 2h in FIG. 13A) are as shown in FIG. 13B. By performing ON and OFF driving, it is possible to present more display image positions to the user than in the third embodiment.

尚、本願発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。   In the present invention, within the scope of the invention, the embodiments can be freely combined, any component of each embodiment can be modified, or any component can be omitted in each embodiment. .

この発明によれば、画像表示パネルとタッチパネルを組み合わせた表示装置において、画像表示したタッチ操作用画像を、ユーザは表示パネルの表示画面を見なくても、触覚により表示画像位置を知覚することができ、モバイル端末のみならず画像表示パネルとタッチパネルを組み合わせた表示装置を備えた電子機器に適用可能である。   According to the present invention, in a display device in which an image display panel and a touch panel are combined, the user can perceive the display image position by touch even without viewing the display screen of the display panel. It can be applied not only to a mobile terminal but also to an electronic device provided with a display device in which an image display panel and a touch panel are combined.

1;タッチパネル、2;表示パネル、2a;ボタン画像、3;クッション材、4;パネル支持部材、5;弾性支持部材、6、6x、6y、6z;アクチュエータ、7;筐体、8;圧力センサ、9;z軸位置センサ、10;ユーザの指、10z、10x、10y;スプリングボールプランジャー、10a;ボール、10b;ハウジング、10c;スプリング、101;表示パネル駆動部、102;タッチパネル駆動部、103;アクチュエータ駆動部、104;圧力センサ駆動部、105;z軸位置センサ駆動部、106;音声発生機構駆動部、107;制御部。   DESCRIPTION OF SYMBOLS 1; Touch panel, 2; Display panel, 2a; Button image, 3; Cushion material, 4; Panel support member, 5: Elastic support member, 6, 6x, 6y, 6z; Actuator, 7: Case, 8; 9; z-axis position sensor, 10; user's finger, 10z, 10x, 10y; spring ball plunger, 10a; ball, 10b; housing, 10c; spring, 101; display panel driving unit, 102; 103; Actuator drive unit, 104; Pressure sensor drive unit, 105; Z-axis position sensor drive unit, 106; Sound generation mechanism drive unit, 107;

Claims (7)

タッチ操作用画像を表示画面に表示する表示パネルと、
この表示パネルの表面に間隙設けて配設されるタッチパネルと、
タッチパネルを筐体に支持するパネル指示部材と、
タッチパネルをその表面と垂直方向に移動可能に支持する弾性支持部材と
筐体に対するタッチパネルの支持力を制御するアクチュエータと
タッチパネルからの作用力をユーザが知覚可能な接触子で接触しているタッチパネルの位置情報を出力するタッチパネル駆動部と、
アクチュエータを駆動するアクチュエータ駆動部とを備え、
前記接触子の接触位置が表示パネルのタッチ操作用画像の表示領域に対応するタッチパネルの領域と、タッチ操作用画像領域以外の領域に対応するタッチパネルの領域とでは、タッチパネル駆動部からの位置情報の出力により、アクチュエータ駆動部はアクチュエータの筐体に対するタッチパネルの支持力を異なる様に制御する
ことを特徴とする触覚提示入力装置。
A display panel for displaying images for touch operation on the display screen;
A touch panel disposed with a gap on the surface of the display panel;
A panel indicating member that supports the touch panel on the housing;
An elastic support member that supports the touch panel so that it can move in the direction perpendicular to the surface, an actuator that controls the support force of the touch panel against the housing, and the position of the touch panel that is in contact with the contactor that allows the user to perceive the action force from the touch panel A touch panel drive for outputting information;
An actuator driving unit for driving the actuator,
In the touch panel area where the contact position of the contact corresponds to the display area of the touch operation image on the display panel and the touch panel area corresponding to an area other than the touch operation image area, the position information from the touch panel drive unit The tactile sensation input device, wherein the actuator driving unit controls the support force of the touch panel with respect to the housing of the actuator differently according to the output.
前記表示パネルと前記タッチパネルとは前記パネル指示部材により一体に構成されたことを特徴とする請求項1記載の触覚提示入力装置。   The tactile sensation presentation input device according to claim 1, wherein the display panel and the touch panel are integrally configured by the panel instruction member. 前記パネル指示部材は、前記タッチパネルがタッチパネル面に対して垂直方向に移動可能に支持するように構成し、前記アクチュエータはタッチパネル面の垂直方向の支持力を制御する構成にされたことを特徴とする請求項1または請求項2記載の触覚提示入力装置。   The panel indicating member is configured to support the touch panel so as to be movable in a direction perpendicular to the touch panel surface, and the actuator is configured to control a supporting force in a vertical direction of the touch panel surface. The tactile sensation presentation input device according to claim 1 or 2. 前記タッチパネルを、タッチパネル面縦横水平面両方向に移動可能に支持するスプリングボールプランジャーを備え、タッチパネルの水平面縦横方向の支持力を制御する縦横用のアクチュエータをさらに備えたことを特徴とする請求項1〜請求項3の何れか1項に記載の触覚提示入力装置。   A spring ball plunger that supports the touch panel so as to be movable in both directions in the vertical and horizontal planes of the touch panel surface, and further includes an actuator for vertical and horizontal directions that controls the supporting force in the horizontal and vertical directions of the touch panel. The tactile sensation presentation input device according to claim 3. 前記表示パネルの表示パネル面に対する垂直方向の位置を検出するz軸位置センサを備え、前記タッチパネルの垂直方向の移動に追随して、前記表示パネルが垂直方向に移動し、前記垂直方向の所定の位置に移動した場合に、前記表示パネルに表示されたタッチ操作用画像に割り当てられた機能を実行するように制御する制御手段を備えたことを特徴とする請求項3または請求項4記載の触覚提示入力装置。   A z-axis position sensor for detecting a vertical position of the display panel relative to the display panel surface, following the movement of the touch panel in the vertical direction, the display panel moves in the vertical direction; 5. The tactile sensation according to claim 3, further comprising control means for performing control so as to execute a function assigned to the touch operation image displayed on the display panel when moved to a position. Presentation input device. 前記パネル指示部材と前記アクチュエータとの接触圧力を検出する圧力センサと、前記接触圧力と予め決められた所定の圧力を比較し、前記接触圧力と予め決められた所定の圧力との比較結果により、前記アクチュエータの筐体に対するタッチパネルの支持力を制御する圧力センサ駆動部を備えたことを特徴とした請求項1〜請求項5の何れか1項に記載の触覚提示入力装置。   The pressure sensor for detecting the contact pressure between the panel indicating member and the actuator, the contact pressure is compared with a predetermined pressure, and the comparison result between the contact pressure and the predetermined pressure is as follows: The tactile sensation presentation input device according to claim 1, further comprising a pressure sensor driving unit that controls a supporting force of the touch panel with respect to the housing of the actuator. 前記タッチパネルを操作するユーザに、前記接触子が前記タッチパネルに接触している位置を知らせるための音声発生機構を備えたことを特徴とする請求項1〜請求項6の何れか1項に記載の触覚提示入力装置。   The voice generation mechanism for notifying the user who operates the touch panel of the position where the contact is in contact with the touch panel is provided. Tactile presentation input device.
JP2011219848A 2011-10-04 2011-10-04 Tactile sense presentation and input device Pending JP2013080364A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011219848A JP2013080364A (en) 2011-10-04 2011-10-04 Tactile sense presentation and input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011219848A JP2013080364A (en) 2011-10-04 2011-10-04 Tactile sense presentation and input device

Publications (1)

Publication Number Publication Date
JP2013080364A true JP2013080364A (en) 2013-05-02

Family

ID=48526688

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011219848A Pending JP2013080364A (en) 2011-10-04 2011-10-04 Tactile sense presentation and input device

Country Status (1)

Country Link
JP (1) JP2013080364A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5537717B1 (en) * 2013-08-09 2014-07-02 株式会社フジクラ Electronics
JP2015035133A (en) * 2013-08-09 2015-02-19 株式会社フジクラ Electronic apparatus
KR20150033485A (en) * 2013-09-24 2015-04-01 현대모비스 주식회사 Clickable touch panel and the control apparatus and method thereof
EP3165997A1 (en) 2015-11-04 2017-05-10 Alpine Electronics, Inc. Automotive input apparatus comprising a touch sensitive input device
US9703472B2 (en) 2015-03-18 2017-07-11 Alpine Electronics, Inc. Method and system for operating console with touch screen
JP2017151638A (en) * 2016-02-23 2017-08-31 京セラ株式会社 Control unit for vehicle and control method thereof
JP2017534111A (en) * 2014-10-15 2017-11-16 マイクロソフト テクノロジー ライセンシング,エルエルシー Display module support
US9846454B2 (en) 2014-01-14 2017-12-19 Fujitsu Limited Electronic device
WO2019017284A1 (en) * 2017-07-20 2019-01-24 シャープ株式会社 Input apparatus
CN109656458A (en) * 2017-10-10 2019-04-19 夏普株式会社 Input unit
JP2019128888A (en) * 2018-01-26 2019-08-01 東京瓦斯株式会社 Sales promotion assistance device

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015035132A (en) * 2013-08-09 2015-02-19 株式会社フジクラ Electronic apparatus
JP2015035133A (en) * 2013-08-09 2015-02-19 株式会社フジクラ Electronic apparatus
JP5537717B1 (en) * 2013-08-09 2014-07-02 株式会社フジクラ Electronics
KR20150033485A (en) * 2013-09-24 2015-04-01 현대모비스 주식회사 Clickable touch panel and the control apparatus and method thereof
KR102143735B1 (en) 2013-09-24 2020-08-12 현대모비스 주식회사 Clickable touch panel and the control apparatus and method thereof
US9846454B2 (en) 2014-01-14 2017-12-19 Fujitsu Limited Electronic device
US10585518B2 (en) 2014-10-15 2020-03-10 Microsoft Technology Licensing, Llc Display module support
JP2017534111A (en) * 2014-10-15 2017-11-16 マイクロソフト テクノロジー ライセンシング,エルエルシー Display module support
US9703472B2 (en) 2015-03-18 2017-07-11 Alpine Electronics, Inc. Method and system for operating console with touch screen
EP3165997A1 (en) 2015-11-04 2017-05-10 Alpine Electronics, Inc. Automotive input apparatus comprising a touch sensitive input device
WO2017145745A1 (en) * 2016-02-23 2017-08-31 京セラ株式会社 Control unit for vehicle and control method for same
JP2017151638A (en) * 2016-02-23 2017-08-31 京セラ株式会社 Control unit for vehicle and control method thereof
WO2019017284A1 (en) * 2017-07-20 2019-01-24 シャープ株式会社 Input apparatus
US10921628B2 (en) 2017-07-20 2021-02-16 Sharp Kabushiki Kaisha Input device
CN109656458A (en) * 2017-10-10 2019-04-19 夏普株式会社 Input unit
CN109656458B (en) * 2017-10-10 2022-02-15 夏普株式会社 Input device
JP2019128888A (en) * 2018-01-26 2019-08-01 東京瓦斯株式会社 Sales promotion assistance device

Similar Documents

Publication Publication Date Title
JP2013080364A (en) Tactile sense presentation and input device
US10203755B2 (en) Input apparatus and control method for input apparatus
JP5529663B2 (en) Input device
JP6442132B2 (en) Method and apparatus for haptic flex gesturing
JP2018173983A (en) Haptic sensation as function of eye gaze
KR101748415B1 (en) Apparatus and method for providing visual and haptic information, and button for having thereof
KR20120049307A (en) Tactile sensation providing apparatus and control method for tactile sensation providing apparatus
WO2011024460A1 (en) Input device
WO2011024388A1 (en) Input device
JP2010140102A (en) Input apparatus
KR20120048658A (en) Tactile sensation imparting device and control method of tactile sensation imparting device
WO2011074187A1 (en) Tactile indication device
KR20200029529A (en) Systems for correcting finger sensations during finger press input events
JP5448427B2 (en) Input device
WO2011148650A1 (en) Tactile sensation imparting device
WO2012102055A1 (en) Electronic device
EP2518590A1 (en) Portable electronic device and method of controlling same
CN216429851U (en) Shape memory alloy actuator, haptic assembly, and latch
JP2011048698A (en) Input device
JP2011187087A (en) Input device and control method for the same
JP2009282565A (en) Mouse device and information processing system
US20120274545A1 (en) Portable electronic device and method of controlling same
JP7352721B2 (en) input device
JP6941798B2 (en) Input device
JP2011048815A (en) Input device