WO2011077687A1 - 触感呈示装置および触感呈示装置の制御方法 - Google Patents

触感呈示装置および触感呈示装置の制御方法 Download PDF

Info

Publication number
WO2011077687A1
WO2011077687A1 PCT/JP2010/007344 JP2010007344W WO2011077687A1 WO 2011077687 A1 WO2011077687 A1 WO 2011077687A1 JP 2010007344 W JP2010007344 W JP 2010007344W WO 2011077687 A1 WO2011077687 A1 WO 2011077687A1
Authority
WO
WIPO (PCT)
Prior art keywords
tactile sensation
unit
touch sensor
display
control unit
Prior art date
Application number
PCT/JP2010/007344
Other languages
English (en)
French (fr)
Inventor
和宏 山本
浩征 松本
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US13/517,918 priority Critical patent/US9880622B2/en
Priority to JP2011547289A priority patent/JPWO2011077687A1/ja
Publication of WO2011077687A1 publication Critical patent/WO2011077687A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user

Definitions

  • the present invention relates to a device that presents a tactile sensation in response to a pressing operation on a touch sensor, and a method for controlling the device.
  • an input device including a touch sensor such as a touch panel or a touch switch as an input device such as an operation unit or a switch that detects a contact operation by a user.
  • input devices equipped with touch sensors are widely used in information devices such as calculators and ticket machines, household appliances such as microwave ovens, televisions, and lighting equipment, and industrial equipment (FA devices). .
  • any type of touch sensor detects a touch operation with a finger or a stylus pen, and the touch sensor itself is not physically displaced like a push button switch even when touched.
  • a device that makes a sound when a contact operation is properly recognized by a terminal is known. Further, for example, changing the display color of an input user interface object (hereinafter simply referred to as “object”) such as an input button displayed on the display unit corresponding to the position where the touch operation is detected, etc. There is also known one in which the display mode is changed. If such a thing is used, the operator can confirm whether or not his / her contact operation is properly detected by the terminal by hearing or vision.
  • object an input user interface object
  • Patent Document 1 and Patent Document 2 can present a tactile sensation due to vibration to an operator's fingertip or the like when contact with the touch sensor is detected. Therefore, an operator who performs a contact operation using such a device can recognize by touch that the contact operation performed on the touch sensor is properly detected by the device.
  • the process for the apparatus to present a predetermined tactile sensation Need to be added to the application is detected.
  • it is necessary to prevent the device from presenting a tactile sensation even when contact with a touch sensor corresponding to a position where an object such as a key or a button is not displayed on the display unit is detected.
  • the tactile sensation presenting device vibrates the fingertips of the operator when contact is detected via a touch sensor and a user interface employing a GUI (Graphical User Interface).
  • the tactile sensation can be presented. That is, the tactile sensation providing apparatus can notify the operator that a tactile sensation has been detected by detecting that the operator has touched an object such as an image-displayed key or button. On the other hand, the tactile sensation providing apparatus can prevent feedback from being generated even when contact with a position where there is no object such as a key or button is detected.
  • the tactile sensation providing apparatus When performing such control, the tactile sensation providing apparatus generally manages the GUI state when the touch sensor is touched, that is, the state of an object such as a key or button displayed on the display unit. It is necessary to link with existing applications.
  • FIG. 7 is a block diagram showing a schematic configuration of an assumed tactile sensation providing apparatus.
  • the tactile sensation providing apparatus 100 includes a control unit 110, an application execution unit 120, a display unit 130, a touch sensor 140, and a tactile sensation providing unit 150.
  • the control unit 110 includes a display control unit 112 and a tactile sensation control unit 114.
  • the control unit 110 controls the entire tactile sensation providing apparatus 100 including each functional unit of the tactile sensation providing apparatus 100.
  • the application execution unit 120 reads various applications from a storage unit (not shown) and executes processing based on the applications.
  • the application executed by the application execution unit 120 is a process of presenting a predetermined tactile sensation when the touch sensor 140 corresponding to the position of the object displayed on the display unit 130 detects contact. Are added (incorporated) in advance.
  • the display unit 130 is configured by a liquid crystal display, an organic EL display, or the like, and displays an image of an object such as a key or a button for suggesting to the operator a place to be touched.
  • the touch sensor 140 is normally disposed on the front surface of the display unit 130 and detects a touch operation by an operator's finger or the like with respect to an object displayed on the display unit 130 from the touch surface of the corresponding touch sensor 140.
  • the touch sensor 140 notifies the application execution unit 120 of the contact position detected on the touch surface via the control unit 110.
  • the tactile sensation providing unit 150 is configured by a small eccentric motor, a piezoelectric element, or the like, and presents a tactile sensation to a target to be contacted with an operator's finger or the like by vibrating the touch surface of the touch sensor 140.
  • the display control unit 112 of the control unit 110 Based on the display data supplied from the application execution unit 120, the display control unit 112 of the control unit 110 displays an image such as an object on the display unit 130, or changes the display mode of the image. Control the display.
  • the tactile sensation control unit 114 controls the tactile sensation providing unit 150 to present a vibration pattern based on a predetermined condition based on an instruction from the application execution unit 120.
  • FIG. 8 is a flowchart schematically illustrating an example of an operation of presenting a tactile sensation based on contact detection by the tactile sensation providing apparatus 100.
  • the operation for controlling the presentation of the tactile sensation by the tactile sensation providing apparatus 100 is started.
  • the touch sensor 140 notifies the application execution unit 120 of the position of contact with the touch surface (step S100).
  • the application execution unit 120 determines whether or not the contact position corresponds to a position where an object such as a key or button is displayed on the display unit 130 (step S102).
  • step S102 when the contact position does not correspond to the position where an image of an object such as a key or button is displayed on the display unit 130, the application execution unit 120 ends the operation without giving an instruction regarding display or touch. In this case, no tactile sensation is presented.
  • step S102 when the contact position corresponds to the position where the image of the object such as a key or button is displayed, the application execution unit 120 displays on the display control unit 112 that the input has been detected.
  • the display indicating that the input has been detected can be visually recognized by the operator, for example, by highlighting an object such as a key or a button for a moment or displaying an image showing a state where a key or a button is pressed. It is to display like this.
  • the display control unit 112 changes the image displayed on the display unit 130 based on the display data (step S104).
  • the application execution unit 120 instructs the tactile sensation control unit 114 to present a predetermined tactile sensation in order to notify the operator that the input has been detected.
  • the presentation of the predetermined tactile sensation is to provide feedback that can be recognized by the tactile sense of the operator, such as vibrating the touch surface of the touch sensor 140 for a moment.
  • the tactile sensation control unit 114 controls the tactile sensation presentation unit 150 to present a predetermined vibration pattern in accordance with the instruction.
  • the tactile sensation providing unit 150 presents a tactile sensation with a predetermined vibration pattern to the contact target that is in contact with the touch surface of the touch sensor 140 (step S106).
  • the tactile sensation providing apparatus 100 provides a tactile sensation only when detecting an input to an object that suggests to the operator a location to be touched via a user interface that employs a touch sensor and a GUI. Can be presented.
  • the above-described operation can be performed without any problem as long as the application supports the operation of presenting the tactile sensation.
  • the application incorporates a process for presenting a tactile sensation in advance, a predetermined tactile sensation can be appropriately presented by the above-described operation.
  • the tactile sensation presenting apparatus 100 when an application that does not support tactile sensation is applied, the tactile sensation presenting apparatus 100 properly presents a tactile sensation even if the display of the object changes based on the touch operation. I can't. Therefore, in order to effectively use various application resources that have been developed up to now in the tactile sensation providing apparatus 100, each application is modified and a tactile sensation is presented according to a predetermined condition. Processing must be added. Such modification to add processing must be performed for each of various applications, and there is a concern that it takes enormous effort and cost.
  • All of the application execution units 120 must be involved. In order to develop or design an application that performs such processing, not only complicated work is required, but also there is a concern that the processing load on the application execution unit 120 that executes the application increases.
  • the touch sensor is lightly touched (contact). This presents a sense of discomfort to the operator.
  • the touch sensor is a resistive film type
  • a tactile sensation is presented when the upper conductive film is in contact with the lower conductive film
  • a capacitive sensor is used, a tactile sensation is presented when an electrical signal is detected.
  • a mechanical push button switch is detected when an input is detected. It was not possible to provide a comfortable feeling of operation. That is, the tactile sensation presented by the conventional tactile sensation presentation device is merely to notify the operator that contact has been detected, and merely performs an operation such as vibrating the touch surface. Therefore, the tactile sensation presented by the conventional tactile sensation presentation device does not provide the operator with a realistic operational feeling as in the case of operating a mechanical push button switch.
  • a tactile sensation hereinafter referred to as a click tactile sensation
  • a metal dome switch or the like is buckled by applying a certain amount of pressing force. Can do.
  • the operator does not press the original metal dome switch or the like by reducing the pressing force to some extent in the process of releasing the pressing force to the pressed switch.
  • a tactile sensation hereinafter referred to as a release tactile sensation
  • an object of the present invention made in view of such circumstances is to provide a tactile sensation providing apparatus that presents a tactile sensation in response to an operation of an operator on an object without wasting existing application resources constituting the user interface, and the apparatus It is to provide a control method.
  • the invention of the tactile sensation providing apparatus is as follows: A touch sensor; A tactile sensation providing unit that vibrates the touch surface of the touch sensor; A display unit; Based on the information indicating the tactile sensation supplied from the application software, the tactile sensation presented by the tactile sensation providing unit is set for the object displayed on the display unit, and when the input to the object is detected, the touch surface is pressed.
  • a control unit that controls the tactile sensation providing unit so as to present the tactile sensation set for the object with respect to the pressing target It is characterized by providing.
  • the invention according to the second aspect is the tactile sensation providing apparatus according to the first aspect,
  • the control unit is configured to set a tactile sensation that the tactile sensation providing unit presents to the object based on an instruction related to a tactile sensation output together with information related to display by the application software.
  • the invention according to a third aspect is the tactile sensation providing apparatus according to the first or second aspect,
  • the control unit detects a pressing load that satisfies a load criterion for the tactile sensation to be detected while the input to the object is detected, the tactile sensation is presented so as to present the tactile sensation to the pressing target.
  • the presenting unit is controlled.
  • the invention of the control method of the tactile sensation providing apparatus is as follows: A touch sensor; A tactile sensation providing unit that vibrates the touch surface of the touch sensor; In a control method of a tactile sensation presentation device comprising a display unit, Based on the information indicating the tactile sensation supplied from the application software, the tactile sensation presented by the tactile sensation providing unit is set for the object displayed on the display unit, and when the input to the object is detected, the touch surface is pressed. The tactile sensation providing unit is controlled so as to present the tactile sensation set for the object to the pressed object.
  • an existing application can be utilized without being wasted, and a user interface with excellent operability can be provided using such an application.
  • the present invention sets a tactile sensation for an object based on information about a tactile sensation supplied by application software together with information for generating a user interface to be displayed on a display unit.
  • the present invention does not present a tactile sensation for an operation of touching (touching) the touch sensor lightly, and the operator intentionally presses (pushes) the touch sensor. ) Present tactile sensation to the operation.
  • FIG. 1 is a block diagram showing a schematic configuration of a tactile sensation providing apparatus according to an embodiment of the present invention.
  • the tactile sensation providing apparatus 1 includes a control unit 10, an application execution unit 20, a display unit 30, a touch sensor 40, a tactile sensation providing unit 50, and a load detection unit 60.
  • the control unit 10 includes a display control unit 12, a tactile sensation control unit 14, and an input control unit 16.
  • the control unit 10 controls the entire tactile sensation providing apparatus 1 including each functional unit of the tactile sensation providing apparatus 1.
  • the application execution unit 20 reads various applications from a storage unit (not shown) and executes processing based on the applications. In the present embodiment, a case will be described in which the application execution unit 20 executes a modified application in which a tactile sensation is set for an object for an application that does not originally support tactile sensation. The process of modifying the application to correspond to the tactile sensation will be described later.
  • the display unit 30 displays an object such as a push button switch (push button switch) as an image.
  • the push button switch refers to a mechanical key that can be actually pressed, such as an input button, a key, or the like (hereinafter simply referred to as a “key or the like”).
  • an object simulating such a push button switch with an image is displayed on the display unit 30.
  • the display unit 30 is configured using, for example, a liquid crystal display panel, an organic EL display panel, or the like.
  • the application execution unit 20 supplies information (display data) such as an image constituting the user interface to the display control unit 12 when generating a user interface or changing an object image.
  • the display control unit 12 can perform display based on the information on the display unit 30.
  • “user interface” is simply abbreviated as “UI” as appropriate.
  • the touch sensor 40 is usually arranged on the front surface of the display unit 30, and a touch operation (contact) by an operator's finger or the like (press target) on the object displayed on the display unit 30 is applied to the touch surface of the corresponding touch sensor 40. Detect at. Further, when the touch sensor 40 detects contact with the touch surface, the touch sensor 40 notifies the application execution unit 20 of the detected position of the contact via the input control unit 16.
  • the touch sensor 40 is configured by a known method such as a resistance film method, a capacitance method, and an optical method.
  • the tactile sensation providing unit 50 is configured using a piezoelectric vibrator or the like, and generates vibration on the touch surface of the touch sensor 40.
  • the tactile sensation providing unit 50 presents a tactile sensation to the pressing target pressing the touch surface by generating vibration on the touch surface of the touch sensor 40.
  • the pressing object that is pressing the touch surface is, for example, an operator's finger or a stylus pen.
  • the load detection unit 60 detects a pressing load on the touch surface of the touch sensor 40, and is configured by using an element that reacts linearly to the load, such as a strain gauge sensor or a piezoelectric element. In addition, the load detection unit 60 notifies the tactile sensation control unit 14 of the detected pressing load on the touch surface of the touch sensor 40.
  • the display control unit 12 of the control unit 10 Based on the display data supplied from the application execution unit 20, the display control unit 12 of the control unit 10 displays an object or the like on the display unit 30 or changes the image display. Take control.
  • the display control unit 12 receives display data of an object used when generating a UI to be displayed on the display unit 30 from the application execution unit 20.
  • the display control unit 12 executes the application display data of the object indicating that the input has been received. Received from part 20.
  • the input control unit 16 notifies one or both of the application execution unit 20 and the tactile sensation control unit 14 of the position of the operator's contact with the touch sensor 40.
  • the tactile sensation control unit 14 includes a storage unit (not shown), and at least temporarily stores tactile sensation information set for each object in accordance with an application instruction executed by the application execution unit 20. can do. That is, in the present embodiment, the tactile sensation with respect to the object can be set in the tactile sensation control unit 14 as described later. Therefore, when the tactile sensation with respect to the object is set in the tactile sensation control unit 14 in this way, the input control unit 16 notifies the tactile sensation control unit 14 of the position of contact with the touch sensor 40, so Can be controlled. In other words, in this case, the application execution unit 20 instructs the operation related to the tactile sensation of receiving the notification of the position of contact with the touch sensor 40 and determining whether the position is a position corresponding to the object. There is no need to do it.
  • the tactile sensation control unit 14 determines whether or not the position of contact corresponds to the position of the object for which the tactile sensation is set. When the notified contact position corresponds to the position of the object for which the tactile sensation is set, the tactile sensation control unit 14 controls the tactile sensation providing unit 50 so as to present the set tactile sensation.
  • the load detector 60 presents a tactile sensation when a predetermined pressing load is detected. That is, the tactile sensation control unit 14 is a load standard in which the pressing load detected by the load detection unit 60 presents a tactile sensation in a state where the touch sensor 40 detects contact at a position corresponding to an object that executes a predetermined process.
  • the tactile sensation providing unit 50 When t is satisfied, the tactile sensation providing unit 50 is controlled so as to present the set tactile sensation. Then, the tactile sensation providing unit 50 generates a set predetermined tactile sensation on a pressing target such as an operator's finger pressing the touch surface of the touch sensor 40 by generating a predetermined pattern of vibration. Present.
  • FIG. 2 shows an example of the mounting structure of the tactile sensation providing apparatus 1 shown in FIG. 1, FIG. 2 (A) is a cross-sectional view of the main part, and FIG. 2 (B) is a plan view of the main part.
  • the display unit 30 is housed and held in the housing 61.
  • the touch sensor 40 is held on the display unit 30 via an insulator 62 made of an elastic member.
  • the display unit 30 and the touch sensor 40 are rectangular in plan view.
  • the touch sensor 40 is held on the display unit 30 via the insulators 62 arranged at the four corners deviated from the display area A of the display unit 30 indicated by virtual lines in FIG. Is done.
  • the housing 61 is provided with an upper cover 63 so as to cover the surface area of the touch sensor 40 that is out of the display area of the display unit 30, and between the upper cover 63 and the touch sensor 40, an elastic member is provided.
  • An insulator 64 is provided.
  • the front surface member having the touch surface 40a is made of, for example, a transparent film or glass, and the back surface member is made of glass or acrylic.
  • the touch sensor 40 has a structure in which, when the touch surface 40a is pressed, the pressed portion is slightly bent (distorted) in accordance with the pressing force, or the structure itself is bent slightly.
  • a strain gauge sensor 51 for detecting a load (pressing force) applied to the touch sensor 40 is provided in the vicinity of each side covered with the upper cover 63 by adhesion or the like.
  • piezoelectric vibrators 52 for vibrating the touch sensor 40 are provided by adhesion or the like in the vicinity of two opposing sides. That is, in the tactile sensation providing apparatus 1 shown in FIG. 2, the load detection unit 60 shown in FIG. 1 is configured using four strain gauge sensors 51, and the tactile sensation providing unit 50 is configured using two piezoelectric vibrators 52. ing. The tactile sensation providing unit 50 vibrates the touch surface 40 a by vibrating the touch sensor 40.
  • the casing 61, the upper cover 63, and the insulator 64 shown in FIG. 2A are not shown.
  • the modified application is preliminarily added with a correspondence between the object and information related to the tactile sensation presented according to the input to the object. deep.
  • general processing judgment and instructions
  • information related to presentation of tactile sensation is added to information related to display of UI among information originally possessed by the application.
  • the tactile sensation control unit 14 causes each object constituting the UI to be displayed when the UI is first displayed or when the UI display is changed.
  • the tactile sensation can be set. That is, at this time, the tactile sensation control unit 14 applies the object displayed on the display unit 30 based on the information indicating the tactile sensation supplied from the application executed by the application execution unit 20 outside the control unit 10.
  • the tactile sensation presented by the tactile sensation presentation unit 50 is set.
  • the position information of the object that is, where the object is displayed in the area where the UI of the display unit 30 is displayed.
  • the size information of an object that is, a range in which contact is detected by the touch sensor 40 corresponding to the position of the object
  • Such a modification is made that information such as is associated in advance and added.
  • FIG. 3 is a flowchart for explaining a UI generation operation according to this embodiment. This is an operation performed when a UI provided by an application is newly generated or when a UI provided by the application is changed to a new UI according to an instruction of the application executed in the application execution unit 20 It is.
  • a UI provided by an application when a UI provided by an application is newly generated, it is necessary to set a tactile sensation for an object constituting the UI.
  • the UI screen display is changed according to an instruction from the application, the arrangement of displayed objects may be changed. In this case as well, tactile sensation is set for the objects constituting the UI to be changed. There is a need.
  • the UI generation operation shown in FIG. 3 is started, for example, when a UI provided by the application is newly generated or when the UI provided by the application is changed to a new UI according to an instruction from the application. To do.
  • the flowchart shown in FIG. 3 describes the operation viewed from the viewpoint of the control unit 10.
  • information display data
  • the display control unit 12 of the control unit 10 receives information related to the display of the UI (step S1).
  • step S2 information related to presentation of tactile sensation is added to information related to UI display. Therefore, when information related to UI display is output from the application to the display control unit 12, information related to the tactile sensation presented according to the input to the object constituting the UI is also output. Therefore, the tactile sensation control unit 14 of the control unit 10 receives information related to the tactile sensation presented according to the input to this object (step S2).
  • the tactile sensation control unit 14 sets the tactile sensation presented by the tactile sensation providing unit 50 for each object constituting the UI (step S3).
  • various tactile sensations are assumed according to information related to presentation of tactile sensations added to the application.
  • a touch position and a touch range in the touch sensor 40 are specified, and depending on an object displayed at the position / range, a touch type (for example, a touch feeling of a metal dome switch or a rubber switch), or a touch mode (for example, Set the feedback strength.
  • a load standard for presenting a tactile sensation for each object is set according to information related to the tactile sensation added to the application.
  • the load reference for presenting a tactile sensation is the predetermined when the tactile sensation is presented to the pressing target pressing the touch surface of the touch sensor 40 when the load detection unit 60 detects a pressing load that satisfies the predetermined load criterion. It is a load standard.
  • a relatively small (weak feedback) tactile sensation can be set for a small object.
  • the frequency of the vibration to be generated is increased, or the time for generating the vibration is shortened.
  • a relatively large (strong feedback) tactile sensation can be set for a large object.
  • the frequency of vibration to be generated is lowered, or the time for generating vibration is lengthened.
  • the load standard for presenting the tactile sensation is set to be relatively small so that the tactile sensation is presented by a relatively weak press by the operator.
  • the tactile sensation control unit 14 stores tactile sensation information set for each object in a storage unit (not shown).
  • step S4 the control unit 10 performs a UI generation process. Specifically, the UI generation processing is activated when a UI is drawn and displayed on the display unit 30 based on information related to the UI display received by the display control unit 12 or when an input to the object is detected. This is an operation for associating with an application to be executed.
  • the UI is displayed on the display unit 30, and preparation for presenting a tactile sensation is completed when an input is detected for an object constituting the UI. To do.
  • the pressure load detected by the load detection unit 60 is a predetermined reference in a state where the touch sensor 40 detects the operator's contact with the object displayed on the display unit 30. If the condition is satisfied, tactile sensation is presented.
  • the reason why the tactile sensation is presented when the pressing load detected by the load detecting unit 60 satisfies a predetermined standard is that the operator does not intend to touch the touch sensor 40 (due to an operation mistake or the like) in such a case. It is based on the fact that it can be considered that an operation of intentionally pressing (pushing) is performed.
  • FIG. 4 is a flowchart showing the operation of the tactile sensation providing apparatus 1 according to the present embodiment.
  • an object such as a key is displayed on the display unit 30 in advance so that an operation with an operator's finger or stylus can be detected in accordance with the UI generation operation described above.
  • Shall be kept. That is, hereinafter, it is assumed that a UI supplied by a modified application and a UI for which tactile sensation has been set for an object is displayed.
  • the application of this embodiment causes the operator to recognize the detection of the contact when the touch sensor 40 corresponding to the position of the image of the object displayed on the display unit 30 is detected. Shall be displayed with some change. However, in the present embodiment, such an image change is not essential.
  • the operation of the tactile sensation providing apparatus 1 starts with the above-described preparation completed.
  • the input control unit 16 monitors whether or not the touch surface of the touch sensor 40 is touched by an operator's finger or the like (step S11).
  • the input control unit 16 notifies the position of the contact to the application execution unit 20 and the tactile sensation control unit 14 (step S12).
  • the application execution unit 20 determines whether or not the position of the touch corresponds to a position where an image of an object such as a key is displayed on the current GUI (Step S1). S13).
  • the application execution unit 20 supplies display data for changing the image of the object to the display control unit 12 according to the setting based on the application.
  • the display control unit 12 controls the display unit 30 to change the image of the displayed object (step S14). That is, when a touch on an object such as a key is detected, the tactile sensation providing apparatus 1 changes the display image of the object.
  • the operator When changing the display image of an object, for example, the operator makes a display as if the object is selected, or changes the color or brightness of the object, so that the operator touches (touches) a key or the like. It is preferable to make it visible.
  • step S13 the input control unit 16 can also determine whether or not the contact position corresponds to the position where the object image is displayed. For this reason, if an input to the object is detected in step S13 (that is, if there is a touch on an object such as a key), the processing related to the presentation of tactile sensation after step S15 can be performed without the application execution unit 20 being involved. .
  • step S ⁇ b> 15 the tactile sensation control unit 14 determines whether or not the pressing load detected by the load detection unit 60 satisfies a predetermined criterion while increasing due to the pressing of the touch sensor 40 against the touch surface. For example, the load detection unit 60 detects the load from the average value of the outputs of the four strain gauge sensors 51.
  • the load satisfying the predetermined standard is set in advance to a value such as 1.5 N (Newton) based on the pressing load when the operator performs a normal pressing operation, and the setting can be changed thereafter. It is preferable to do this.
  • the predetermined standard is set so as not to set an excessively low standard in consideration of a pressing load at the time of a pressing operation based on the operator's intention (for example, an average value). This is to prevent the operation when the operator touches lightly unintentionally from being recognized as a push (push) operation, and to give the operator a pressure sensation for realistic tactile sensation described later. It is.
  • the tactile sensation control unit 14 controls the tactile sensation providing unit 50 to generate a predetermined vibration on the touch surface of the touch sensor 40 so as to present the tactile sensation (step S15).
  • the tactile sensation control unit 14 presents a tactile sensation when the load detection unit 60 detects a pressing load that satisfies a load criterion for presenting a tactile sensation in a state where an input to an object that executes a predetermined process is detected.
  • the tactile sensation providing unit 50 is controlled. By this control, the tactile sensation providing unit 50 presents a tactile sensation to the pressing target pressing the touch surface of the touch sensor 40.
  • the tactile sensation presented here is a tactile sensation set by information received from an application, as described in FIG.
  • the tactile sensation presented by the tactile sensation providing unit 50 to the object to be pressed in step S16 can be a click tactile sensation that is presented when an actual key or button is clicked.
  • the tactile sensation providing apparatus 1 stimulates the tactile sense in a state where the pressure sense of the operator is stimulated. That is, the tactile sensation providing apparatus 1 stimulates pressure sense until the load applied to the touch sensor 40 satisfies a reference (eg, 1.5N) for presenting the tactile sensation, and when the load satisfies the reference, the piezoelectric vibrator 52 is driven with a predetermined drive signal to vibrate the touch surface 40a to stimulate the sense of touch.
  • a reference eg, 1.5N
  • the tactile sensation providing apparatus 1 can present to the operator a click tactile sensation similar to that obtained when a button switch such as a push button switch (push button switch) is pressed. Therefore, even if the operator is a virtual push button switch drawn on the touch sensor, the operator can perform an operation on the touch sensor 40 while obtaining a realistic click feeling similar to that when the actual push button switch is operated. Can not feel uncomfortable. In addition, since the operator can perform the operation in conjunction with the consciousness of “pressing” the touch sensor 40, it is possible to prevent an input error due to simple contact.
  • the driving signal when presenting the click sensation described above that is, the constant frequency, period (wavelength), waveform, and amplitude for stimulating the sense of touch can be appropriately set according to the click sensation presented.
  • the tactile sensation providing unit 50 is driven by a drive signal for one cycle including a sine wave having a constant frequency of 170 Hz.
  • the tactile sensation providing unit 50 is driven by such a drive signal, and the touch surface 40a is vibrated by about 15 ⁇ m in a state where a pressing load satisfying a predetermined standard is applied. Thereby, it is possible to present the operator with a realistic click feeling as if the user had clicked on an actual key.
  • step S17 when the pressing load does not satisfy the predetermined standard in step S15, the tactile sensation control unit 14 has zero pressing load detected by the load detecting unit 60 due to weakening of the touch sensor 40 against the touch surface. It is determined whether or not (step S17). If the pressing load detected by the load detection unit 60 in step S17 is not yet zero, the operator's operation on the touch sensor 40 has not been released (released), and the tactile sensation control unit 14 returns to step S15. To continue processing. On the other hand, when the pressing load detected by the load detection unit 60 in step S17 becomes zero, it can be determined that the operator has released (released) the operation on the touch sensor 40. The operation shown in FIG. Note that the operation in step S17 is an operation for determining whether or not the touch on the touch panel 40 is still detected, instead of the operation for determining whether or not the pressing load detected by the load detection unit 60 has become zero. You can also
  • the application execution unit 20 ends the operation shown in FIG. That is, when an input to an object such as a key is not detected, or when the detected input is not to an object such as a key, the application execution unit 20 relates to the operation illustrated in FIG. 4 without changing the display image of the object. End the process. Further, in this case, the input control unit 16 ends the process without giving an instruction to the tactile sensation control unit 14 to present tactile sensation. As described above, the tactile sensation providing apparatus 1 can make the operator recognize that no input to the object has been detected by not presenting a tactile sensation when contact with a position other than the object such as a key is detected. .
  • the tactile sensation presentation apparatus 1 when an input is detected, a tactile sensation according to an object can be presented, and an existing application constituting the UI can be displayed as information related to tactile sensation presentation. Can be diverted by adding.
  • the tactile sensation providing apparatus 1 allows the operator to recognize that an input to the object is correctly recognized by an operation of pressing (pushing) the object such as a key by a real click tactile sense. be able to.
  • the tactile sensation (hereinafter referred to as release tactile sense) returns to the original state where the metal dome switch or the like is not pressed by the fact that the pressing force on the switch is reduced thereafter. ) Is presented. Since the tactile sensation providing apparatus 1 according to the present embodiment can present a realistic click tactile sensation in response to the pressing operation, after that, a real release tactile sensation is presented in the middle of the release (release) of the press on the touch sensor. Can provide a whole series of natural operation feeling.
  • FIG. 5 is a flowchart showing the operation of the tactile sensation providing apparatus 1 according to the present embodiment.
  • the operation shown in FIG. 5 starts after the operation (step S16) for presenting the click feeling described in FIG.
  • the tactile sensation control unit 14 changes the pressing load detected by the load detection unit 60 from a predetermined reference value or more to less than the predetermined reference value due to weakening of the pressing force of the operation on the touch panel 40 by the operator. It is determined whether or not (step S31).
  • “change from above a predetermined reference to less than the predetermined reference” means that the pressing load exceeds a predetermined reference (or higher than the predetermined reference) when the pressure is released. It means that the state falls below the standard (or below the predetermined standard).
  • step S31 If it is determined in step S31 that the pressing load has changed from a predetermined reference value to less than the predetermined reference value, the tactile sensation control unit 14 controls the tactile sensation providing unit 50 to present the release tactile sensation set by the application. (Step S32).
  • the load standard for presenting the release tactile sensation can be set to be the same as the above-mentioned load standard for presenting the click tactile sensation when pressed, but preferably 50% to the load standard for presenting the click tactile sensation upon pressing. Set to 80% lower value.
  • the sequential pressing, release of the pressing, and tactile sensation presentation timing are well matched, and there is no sense of incongruity.
  • An operational feeling can be presented. That is, by making the reference load that presents a tactile sensation at the time of release smaller than the reference load that presents a tactile sensation when pressed, it is possible to present a tactile sensation that is not uncomfortable.
  • the operability at the time of the continuous pressing operation can be remarkably improved by setting the reference load for presenting the tactile sensation at the time of release to about 50% or more of the reference load for presenting the tactile sensation at the time of pressing.
  • the reference load that presents a tactile sensation during release approximately 80% or less of the reference load that presents a tactile sensation during pressing, it is possible to cope with minute load changes in the hold state during successive pressing operations.
  • setting of the load reference is also added to the application in advance as information related to the presentation of the tactile sensation.
  • the input control unit 16 determines whether or not the touch sensor 40 no longer detects contact (step S33). When the touch sensor 40 no longer detects contact, the input control unit 16 notifies the application execution unit 20 that the contact has been released. Then, the application execution unit 20 supplies display data for changing the image of the object to the display control unit 12 according to the setting based on the application. When receiving the display data, the display control unit 12 controls the display unit 30 to change the image of the displayed object (step S34). That is, when contact is released from an object such as a key, the display control unit 12 changes the display image of the object.
  • the release tactile sensation can use the same drive signal as the click tactile sensation, but in the present embodiment, a release tactile that is different from the click tactile sensation can be set.
  • the tactile sensation providing apparatus 1 can set, for each object, a tactile sensation to be presented according to an input to each object based on an application to which information related to tactile sensation is added. it can. Therefore, the tactile sensation providing apparatus 1 can present an appropriate tactile sensation for each object by slightly modifying an existing application. Further, the tactile sensation providing apparatus 1 according to the present embodiment can present various tactile sensations such as a click tactile sensation and a release tactile sensation in accordance with an input to the object. For this reason, the tactile sensation providing apparatus 1 can utilize existing application resources without wasting them, and can provide a realistic operational feeling that can be obtained when operating an actual push button switch. it can.
  • the hardware configuration of the tactile sensation providing apparatus is not limited to the configuration as shown in the block diagram of FIG. 1, and various modifications and changes can be assumed. That is, for example, as illustrated in FIG. 6, a configuration in which the position of contact with the touch sensor 40 is always notified via the tactile sensation control unit 14 without providing a route for notifying the application execution unit 20 from the input control unit 16. Can also be assumed. By configuring in this way, it is possible to provide a configuration that is easy to design in terms of hardware, such as reducing the number of necessary interfaces by providing only one location for reporting the position of contact with the touch sensor 40.
  • the configuration in which the control unit 10 includes the display control unit 12, the tactile sensation control unit 14, and the input control unit 16 has been described.
  • the tactile sensation providing apparatus according to the present invention is not limited to such a configuration, and various configurations can be adopted according to the requirements in designing. For example, by causing one function unit to function as another function unit, the other function unit can be omitted, or one function unit can be subdivided into a plurality of function units.
  • the load detection unit can be configured according to a contact detection method in the touch sensor.
  • a contact detection method in the touch sensor For example, in the case of the resistance film method, if a load can be detected from a change in an output signal based on a change in resistance due to a contact area, it can be configured without using a strain gauge sensor.
  • the electrostatic capacity method even when the load can be detected from the change in the output signal based on the change in the electrostatic capacity, it can be configured without using the strain gauge sensor.
  • the tactile sensation providing unit can be configured using an arbitrary number of piezoelectric vibrators, or can be configured by providing a transparent piezoelectric element over the entire surface of the touch sensor, or can express vibration that presents tactile sensation. Can be configured to rotate once in one cycle of the drive signal. Furthermore, when the load detection unit and the tactile sensation providing unit are configured using a piezoelectric element, the load detection unit and the tactile sensation providing unit can be configured by sharing the piezoelectric element.
  • the tactile sensation providing apparatus according to the present invention does not necessarily have such a configuration, and the touch sensor and the display unit may be separated from each other.
  • the present invention can also be effectively applied to an input device that functions as a touch switch in which a touch sensor performs an on / off operation.
  • the tactile sensation providing apparatus drives the piezoelectric element when the pressing load detected based on the output of the piezoelectric element satisfies the load standard for presenting the tactile sensation.
  • the case where the pressing load detected based on the output of the piezoelectric element satisfies the load standard for presenting a tactile sensation may be when the detected pressing load reaches a reference value for presenting a tactile sensation. Then, it may be when the detected pressing load exceeds a reference value for presenting tactile sensation, or when a reference value for presenting tactile sensation is detected based on the output of the piezoelectric element.
  • the “display unit” and “touch sensor” in the description of the present embodiment may be configured by an integrated device by providing both functions of the display unit and the touch sensor on a common substrate. Good.
  • a plurality of photoelectric conversion elements such as photodiodes are regularly arranged in a matrix electrode array of pixel electrodes included in the liquid crystal panel. Some are mixed.
  • This device displays an image with a liquid crystal panel structure, while reflecting the light of a backlight for liquid crystal display at the tip of a pen that touches and inputs a desired position on the surface of the panel. The reflected light is reflected by peripheral photoelectric conversion elements. By receiving the light, the touch position can be detected.

Abstract

 ユーザインタフェースを構成する既存のアプリケーションリソースを無駄にせずに、オブジェクトに対する操作者の入力に応じて触感を呈示する触感呈示装置、および当該装置の制御方法を提供する。 触感呈示装置1は、タッチセンサ40と、タッチセンサ40のタッチ面を振動させる触感呈示部50と、表示部30と、アプリケーションソフトウェアから供給された触感を示す情報に基づいて、表示部30に表示するオブジェクトに対して触感呈示部50が呈示する触感を設定するとともに、オブジェクトに対する入力を検知すると、タッチ面を押圧している押圧対象に対して、オブジェクトに対して設定した触感を呈示するように触感呈示部50を制御する制御部10と、を備えることを特徴とする。

Description

触感呈示装置および触感呈示装置の制御方法 関連出願の相互参照
 本出願は、2009年12月21日に出願された日本国特許出願2009-289359号の優先権を主張するものであり、この先の出願の開示全体を、ここに参照のために取り込む。
 本発明は、タッチセンサに対する押圧操作に応じて触感を呈示する装置、および当該装置の制御方法に関するものである。
 近年、携帯電話等の携帯端末において、ユーザによる接触操作を検知する操作部やスイッチ等の入力装置として、タッチパネルやタッチスイッチ等のタッチセンサを備える入力装置が採用されているものがある。携帯端末以外に、電卓、券売機等の情報機器や、電子レンジ、テレビ、照明器具等の家電製品、産業用機器(FA機器)等にも、タッチセンサを備える入力装置は広く使用されている。
 このようなタッチセンサには、抵抗膜方式、静電容量方式、光学式等の種々の方式が知られている。しかしながら、いずれの方式のタッチセンサも、指やスタイラスペンによる接触操作を検知するものであって、タッチセンサ自体は、接触されても、押しボタンスイッチのようには物理的に変位しない。
 このため、操作者は、タッチセンサに対して接触操作を行っても、当該操作に対するフィードバックを得ることができない。このように、操作者は、接触操作を行う際の操作感が得られないため、当該接触操作が端末によって適切に検知されたか否かを確認する術がない。したがって、このような端末においては、操作者が同じ位置に何度も接触操作をしてしまう等の繰り返しの操作を行い易く、操作者にストレスを与える場合がある。
 このような不要な接触操作の繰り返しを防止するものとして、例えば、接触操作が端末に適切に認識された際に、音を鳴らすようにしたものが知られている。また、例えば、当該接触操作の検知された位置に対応する表示部に画像表示されている入力ボタン等の入力用ユーザインタフェースオブジェクト(以下、単に「オブジェクト」と記す)の表示色を変更するなど、表示態様を変更するようにしたものも知られている。これらのようなものを使用すれば、操作者は、聴覚や視覚によって、自己の接触操作が端末に適切に検知されたか否かを確認することができる。
 しかしながら、聴覚に働きかけるフィードバック方法の場合は、騒音環境下での操作者による確認が困難になる。さらに、使用機器がマナーモード等の消音状態にあるときは、聴覚に働きかけるフィードバックでは対応できない。また、視覚に働きかけるフィードバック方法の場合、表示部に表示されているオブジェクトのサイズが小さいと、操作者が特に指で接触操作を行う際に、指の下にオブジェクトが隠れて表示態様の変化を確認できない場合がある。
 そこで、聴覚や視覚によらず、タッチセンサが接触を検知すると、タッチセンサを振動させるフィードバック方法も提案されている(例えば、特許文献1および特許文献2参照)。
特開2003-288158号公報 特開2008-130055号公報
 上記特許文献1および特許文献2に開示の装置は、タッチセンサに対する接触を検知した際に、操作者の指先などに、振動による触感を呈示することができる。したがって、このような装置を用いて接触操作を行う操作者は、タッチセンサに対して行った接触操作が装置に適正に検知されたことを、触覚により認識することができる。
 しかしながら、このような装置を用いて接触を検知した際に触感を呈示するためには、所定の条件に応じて触感を呈示する処理が、予めアプリケーションソフトウェア(以下、単に「アプリケーション」と記す)に組み込まれている必要がある。すなわち、上述の装置においては、振動を発生させることを予め想定して開発されたアプリケーションを使用すれば、所定の条件に応じて触感を呈示することができる。しかしながら、上述の装置に、振動を発生させることを想定していないアプリケーションをそのまま適用しても、適切に触感を呈示することはできない。
 したがって、上述したような装置において所定の条件に応じて適切に触感を呈示するためには、新たにアプリケーションを開発するか、あるいは既存のアプリケーションに対して、触感を呈示するための処理を追加する等の何らかの改変を加える必要がある。
 具体的には、触感呈示装置の表示部に画像表示されるキーまたはボタン等のオブジェクトの位置に対応するタッチセンサに対する接触が検知された際に、当該装置が所定の触感を呈示するための処理をアプリケーションに追加する必要がある。また、表示部にキーまたはボタン等のオブジェクトが画像表示されていない位置に対応するタッチセンサに対する接触が検知されても、装置が触感を呈示しないようにする必要もある。
 このように触感の呈示の有無を制御すれば、触感呈示装置は、タッチセンサおよびGUI(Graphical User Interface)を採用したユーザインタフェースを介して接触を検知した際に、操作者の指先などに、振動による触感を呈示することができる。すなわち、触感呈示装置は、画像表示したキーまたはボタン等のオブジェクトに対する操作者による接触が検知されたことを、触感を呈示することにより操作者に報知することができる。一方、キーまたはボタン等のオブジェクトのない位置に対する接触が検知されても、触感呈示装置は、フィードバックを発生しないようにすることができる。
 このような制御を行う場合、触感呈示装置は、一般的に、タッチセンサに対して接触がなされた際のGUIの状態、すなわち表示部に表示されるキーまたはボタン等のオブジェクトの状態を管理しているアプリケーションと連携することが必要になる。
 以下、触感呈示装置において、触感を呈示する際に想定される処理について説明する。
 図7は、想定される触感呈示装置の概略構成を示すブロック図である。図7に示すように、触感呈示装置100は、制御部110と、アプリケーション実行部120と、表示部130と、タッチセンサ140と、触感呈示部150と、を備えている。また、制御部110は、表示制御部112と、触感制御部114とを含んで構成される。
 制御部110は、触感呈示装置100の各機能部をはじめとして触感呈示装置100の全体を制御する。アプリケーション実行部120は、図示しない記憶部から各種のアプリケーションを読み込んで、当該アプリケーションに基づく処理を実行する。なお、以下の説明においては、アプリケーション実行部120が実行しているアプリケーションは、表示部130に表示したオブジェクトの位置に対応するタッチセンサ140が接触を検知した際に、所定の触感を呈示する処理が予め追加されている(組み込まれている)ものとする。
 表示部130は、液晶ディスプレイや有機ELディスプレイ等で構成し、接触すべき箇所を操作者に示唆するためのキーまたはボタン等のオブジェクトの画像を表示する。タッチセンサ140は、通常は表示部130の前面に配置して、表示部130に表示したオブジェクトに対する操作者の指等による接触操作を、対応するタッチセンサ140のタッチ面により検知する。また、タッチセンサ140は、タッチ面において検知した接触の位置を、制御部110を介してアプリケーション実行部120に通知する。触感呈示部150は、小型の偏心モータや圧電素子等で構成し、タッチセンサ140のタッチ面を振動させることにより、操作者の指等の接触操作を行う対象に触感を呈示する。
 制御部110の表示制御部112は、アプリケーション実行部120から供給される表示データに基づいて、表示部130にオブジェクトなどの画像を表示したり、あるいは当該画像の表示態様を変更したりする等、表示に係る制御を行う。触感制御部114は、アプリケーション実行部120の指示に基づいて、触感呈示部150が所定の条件に基づく振動パターンを呈示するように制御する。
 図8は、触感呈示装置100による、接触の検知に基づいて触感を呈示する動作の例を概略的に説明するフローチャートである。
 タッチセンサ140のタッチ面に対する接触が検知された時点で、触感呈示装置100による触感の呈示を制御する動作は開始する。本動作が開始すると、まず、タッチセンサ140は、タッチ面に対する接触の位置をアプリケーション実行部120に通知する(ステップS100)。この通知を受けると、アプリケーション実行部120は、当該接触位置が表示部130にキーまたはボタン等のオブジェクトを画像表示している位置に対応するか否かを判定する(ステップS102)。ステップS102において、接触位置が表示部130にキーまたはボタン等のオブジェクトの画像を表示している位置に対応しない場合、アプリケーション実行部120は、表示または触感に関する指示は行わずに動作を終了する。この場合、触感は呈示されない。
 一方、ステップS102において、接触の位置がキーまたはボタン等のオブジェクトの画像を表示している位置に対応する場合、アプリケーション実行部120は、表示制御部112に対して、入力を検知した旨の表示を行うための表示データを供給する。ここで、入力を検知した旨の表示とは、例えばキーまたはボタン等のオブジェクトを一瞬だけ反転表示したり、キーまたはボタン等が押下された状態を示す画像を表示するなど、操作者が視認できるような表示にすることである。このような表示データをアプリケーション実行部120から受信したら、表示制御部112は、当該表示データに基づいて、表示部130に表示される画像を変更する(ステップS104)。
 続いて、アプリケーション実行部120は、触感制御部114に対して、入力を検知した旨を操作者に報知するため、所定の触感を呈示するように指示する。ここで、所定の触感の呈示とは、タッチセンサ140のタッチ面を一瞬だけ振動させるなど、操作者の触覚により認識できるフィードバックを提供することである。このような触感の呈示の指示を受けたら、触感制御部114は、当該指示に従って触感呈示部150が所定の振動パターンを呈示するように制御する。これにより、触感呈示部150は、タッチセンサ140のタッチ面を接触している接触対象に対して所定の振動パターンによる触感を呈示する(ステップS106)。このような処理を行うことで、触感呈示装置100は、タッチセンサおよびGUIを採用するユーザインタフェースを介して、接触すべき箇所を操作者に示唆するオブジェクトに対する入力を検知した際にのみ、触感を呈示することができる。
 以上説明したように、触感呈示装置100によれば、アプリケーションが触感を呈示する動作に対応していれば、問題なく上述の動作を行うことができる。すなわち、触感を呈示する処理を予め組み込んだアプリケーションであれば、上述の動作により、所定の触感を適切に呈示することができる。
 しかしながら、上述した触感呈示装置100においては、触感の呈示に対応していないアプリケーションを適用すると、そのままの状態では、接触操作に基づいてオブジェクトの表示が変化しても、適切に触感を呈示することはできない。したがって、触感呈示装置100において、現在までに開発されてきた種々のアプリケーション資源を無駄にせずに有効に活用するためには、それぞれのアプリケーションを改変して、所定の条件に応じて触感を呈示する処理を追加しなければならない。このような処理を追加する改変は、種々のアプリケーションごとに行わなければならず、膨大な手間とコストがかかることが懸念される。
 このような事情の下では、今後、触感呈示装置に向けたアプリケーションの開発に各社ベンダが参入する阻害要因になったり、タッチセンサおよびGUIを採用したプラットフォームの普及が遅延する要因にもなり得る。
 また、上述したような動作においては、タッチセンサ140に対する接触の有無の監視から、接触の位置がオブジェクトの位置に対応するか否かの判定、オブジェクトの表示の変更、触感の呈示に至るまで、全てアプリケーション実行部120が関与しなければならない。このような処理を行うアプリケーションを開発または設計するには、煩雑な作業が必要になるのみならず、当該アプリケーションを実行するアプリケーション実行部120にかかる処理負荷も大きくなることが懸念される。
 さらに、例えば上記特許文献1および特許文献2に開示の技術は、単にタッチセンサが接触を検知すると、当該接触に応じてタッチセンサを振動させているに過ぎない。このため、上記特許文献1および特許文献2に開示の技術において、触感の呈示に対応したアプリケーションを適用したとしても、触感を適切に呈示することができないことも想定される。特に、機械式の押しボタンスイッチ(プッシュ式ボタンスイッチ)のようなボタンスイッチがタッチセンサ上に描画される装置は、タッチセンサに指などが軽く触れただけで触感を呈示してしまう。したがって、操作者がタッチセンサを押圧(プッシュ)する前段階の軽く触れるだけの接触操作に反応してしまうため、描画イメージ(押しボタン)の反応と異なることにより、誤操作を誘発するおそれがある。
 また、上記特許文献に記載の技術においては、描画されたボタンスイッチを操作者がプッシュする意図はなくても(つまり力を入れていなくても)、タッチセンサを軽く触れる動作(接触)に応じて触感を呈示してしまうため、操作者に違和感を与えることにもなる。例えば、タッチセンサが抵抗膜方式の場合、上部導電膜が下部導電膜に接触すれば触感が呈示され、また静電容量方式の場合は、接触による電気的信号が検出されれば触感が呈示される。
 さらに、従来の触感を呈示する装置に、タッチセンサにより触感を呈示するための処理を予め組み込んだアプリケーションに基づくユーザインタフェースを採用したとしても、入力を検知した際に機械式の押しボタンスイッチのような操作感を提供することはできなかった。すなわち、従来の触感呈示装置により呈示される触感は、あくまでも接触が検知されたことを操作者に報知するためのものであり、単にタッチ面を振動させる等の動作を行うのみである。したがって、従来の触感呈示装置により呈示される触感は、機械式の押しボタンスイッチを操作する場合のような、リアルな操作感を操作者に提供するものではなかった。
 しかしながら、タッチセンサおよびGUIを採用するユーザインタフェースにおいては、現実の機械式の押しボタンスイッチなどを模したオブジェクトの画像を表示することが多い。したがって、そのようなオブジェクトに対する入力が検知された場合、やはり機械式の押しボタンスイッチに倣ったリアルな触感を呈示するほうが、操作者に与える操作感としては好適である。表示されたオブジェクトに対する入力が検知された際に、現実のキーまたはボタン等をクリックした場合のようなフィードバックを返すことができれば、操作者に与える操作感を向上することができる。
 機械式の押しボタンスイッチの場合、操作者は、ある程度の押圧力を加えることにより、当該スイッチが押下されて、例えばメタルドームスイッチなどが坐屈する際の触感(以下、クリック触感という)を得ることができる。同様に、機械式の押しボタンスイッチの場合、操作者は、押下していたスイッチに対する押圧力を解除する過程で、ある程度まで押圧力を弱めることにより、メタルドームスイッチなどが元の押下されていない状態に戻る触感(以下、リリース触感という)を得ることができる。また、機械式の押しボタンスイッチの場合、操作者は、非常に弱い押圧力によってスイッチに触れても(接触しても)クリック触感は呈示されず、また、クリック触感が呈示されない状態からは、リリース触感も呈示されない。従来のタッチセンサおよびGUIを採用した触感呈示装置においては、上述した機械式の押しボタンスイッチのようなクリック触感およびリリース触感を呈示することはできなかった。
 そこで、触感呈示装置においてクリック触感やリリース触感などのリアリティのある触感の呈示を実現しようとすると、そのために必要な処理を全てアプリケーションに付加する必要がある。さらに、このような触感の呈示を実現するには、アプリケーションに対してセンサの検出データを入力して、当該アプリケーションの判断と指示に従う必要もある。このような処理を行うアプリケーションを開発または設計するには、煩雑な作業が必要になるのみならず、当該アプリケーションを実行するアプリケーション実行部120にかかる処理負荷も、ますます大きくなることが懸念される。
 したがって、かかる事情に鑑みてなされた本発明の目的は、ユーザインタフェースを構成する既存のアプリケーションリソースを無駄にせずに、オブジェクトに対する操作者の操作に応じて触感を呈示する触感呈示装置、および当該装置の制御方法を提供することにある。
 上記目的を達成する第1の観点に係る触感呈示装置の発明は、
 タッチセンサと、
 前記タッチセンサのタッチ面を振動させる触感呈示部と、
 表示部と、
 アプリケーションソフトウェアから供給された触感を示す情報に基づいて、前記表示部に表示するオブジェクトに対して前記触感呈示部が呈示する触感を設定するとともに、前記オブジェクトに対する入力を検知すると、前記タッチ面を押圧している押圧対象に対して、当該オブジェクトに対して設定した触感を呈示するように前記触感呈示部を制御する制御部と、
 を備えることを特徴とするものである。
 第2の観点に係る発明は、第1の観点に係る触感呈示装置において、
 前記制御部は、前記アプリケーションソフトウェアによって表示に関連する情報とともに出力される触感の呈示に関連する指示に基づいて、前記オブジェクトに対して前記触感呈示部が呈示する触感を設定するものである。
 第3の観点に係る発明は、第1または第2の観点に係る触感呈示装置において、
 前記タッチセンサのタッチ面に対する押圧荷重を検出する荷重検出部をさらに備え、
 前記制御部は、前記オブジェクトに対する入力を検知している状態で、前記荷重検出部が触感を呈示する荷重基準を満たす押圧荷重を検出すると、前記押圧対象に対して触感を呈示するように前記触感呈示部を制御するものである。
 また、上記目的を達成する第4の観点に係る触感呈示装置の制御方法の発明は、
 タッチセンサと、
 前記タッチセンサのタッチ面を振動させる触感呈示部と、
 表示部と、を備える触感呈示装置の制御方法において、
 アプリケーションソフトウェアから供給された触感を示す情報に基づいて、前記表示部に表示するオブジェクトに対して前記触感呈示部が呈示する触感を設定するとともに、前記オブジェクトに対する入力を検知すると、前記タッチ面を押圧している押圧対象に対して、当該オブジェクトに対して設定した触感を呈示するように前記触感呈示部を制御することを特徴とするものである。
 本発明によれば、既存のアプリケーションを無駄にすることなく活用することができるとともに、このようなアプリケーションを用いて、操作性の優れたユーザインタフェースを提供することができる。
本発明の実施の形態に係る触感呈示装置の概略構成を示すブロック図である。 図1に示した触感呈示装置の実装構造の一例を示す図である。 本実施の形態によるユーザインタフェースの生成動作を説明する図である。 図1に示した触感呈示装置のクリック触感呈示動作を示すフローチャートである。 図1に示した触感呈示装置のリリース触感呈示動作を示すフローチャートである。 本発明の実施の形態に係る触感呈示装置の概略構成の他の例を示すブロック図である。 想定される触感呈示装置の概略構成を示すブロック図である。 想定される触感呈示装置の動作を示すフローチャートである。
 以下、本発明の実施の形態について、図面を参照して説明する。
 本発明は、表示部に表示するユーザインタフェースを生成するための情報とともに、アプリケーションソフトウェアによって供給される触感に関する情報に基づいて、オブジェクトに対する触感を設定するものである。また、本発明は、触感を呈示する際、タッチセンサに対して軽く触れる(タッチする)程度の操作に対しては触感を呈示せず、操作者が意図してタッチセンサを押圧する(プッシュする)操作に対して触感を呈示する。
 図1は、本発明の実施の形態に係る触感呈示装置の概略構成を示すブロック図である。
 図1に示すように、触感呈示装置1は、制御部10と、アプリケーション実行部20と、表示部30と、タッチセンサ40と、触感呈示部50と、荷重検出部60と、を備えている。また、制御部10は、表示制御部12と、触感制御部14と、入力制御部16と、を含んで構成される。
 制御部10は、触感呈示装置1の各機能部をはじめとして触感呈示装置1の全体を制御する。アプリケーション実行部20は、図示しない記憶部から各種のアプリケーションを読み込んで、当該アプリケーションに基づく処理を実行する。なお、本実施の形態においては、アプリケーション実行部20が、元々触感の呈示に対応していないアプリケーションに、オブジェクトに対して触感を設定した改変アプリケーションを実行する場合について説明する。アプリケーションに改変を加えて触感の呈示に対応させる処理については後述する。
 表示部30は、押しボタンスイッチ(プッシュ式ボタンスイッチ)のようなオブジェクトを画像表示する。なお、押しボタンスイッチとは、入力ボタンやキー等(以下、単に「キー等」と総称する)のように、実際に押し込むことのできる機械式のキーのことを指すものとする。本実施の形態においては、表示部30に、このような押しボタンスイッチを画像で模したオブジェクトを表示する。表示部30は、例えば、液晶表示パネルや有機EL表示パネル等を用いて構成する。アプリケーション実行部20は、ユーザインタフェースを生成する際や、オブジェクトの画像を変更する際などに、ユーザインタフェースを構成する画像などの情報(表示データ)を表示制御部12に供給する。このようにしてユーザインタフェースを構成する情報が供給されたら、表示制御部12は、表示部30に当該情報に基づく表示を行うことができる。なお、図面および以下の説明において、「ユーザインタフェース」は、適宜、単に「UI」と略記する。
 タッチセンサ40は、通常は表示部30の前面に配置して、表示部30に表示したオブジェクトに対する操作者の指等(押圧対象)による押圧操作(接触)を、対応するタッチセンサ40のタッチ面にて検知する。また、タッチセンサ40は、タッチ面に対する接触を検知すると、当該検出した接触の位置を、入力制御部16を介してアプリケーション実行部20に通知する。このタッチセンサ40は、例えば抵抗膜方式、静電容量方式、光学式等の公知の方式のもので構成される。
 触感呈示部50は、圧電振動子等を用いて構成し、タッチセンサ40のタッチ面に振動を発生させる。この触感呈示部50は、タッチセンサ40のタッチ面に振動を発生させることにより、タッチ面を押圧している押圧対象に対して触感を呈示する。タッチ面を押圧している押圧対象とは、例えば操作者の指やスタイラスペンなどである。荷重検出部60は、タッチセンサ40のタッチ面に対する押圧荷重を検出するもので、例えば、歪みゲージセンサや圧電素子等の、荷重に対してリニアに反応する素子を用いて構成する。また、荷重検出部60は、検出したタッチセンサ40のタッチ面に対する押圧荷重を、触感制御部14に通知する。
 制御部10の表示制御部12は、アプリケーション実行部20から供給される表示データに基づいて、表示部30にオブジェクトなどを画像表示したり、あるいは当該画像表示を変更したりする等、表示に係る制御を行う。表示制御部12は、表示部30に表示するUIを生成する際に使用するオブジェクトの表示データを、アプリケーション実行部20から受け取る。また、表示制御部12は、タッチセンサ40に対する操作者の接触の位置が、所定の動作を開始するオブジェクトに対応する位置である場合、入力を受け付けた旨を示すオブジェクトの表示データを、アプリケーション実行部20から受け取る。
 入力制御部16は、タッチセンサ40に対する操作者の接触の位置を、アプリケーション実行部20および触感制御部14の一方または両方に通知する。
 本実施の形態による触感制御部14は、図示しない記憶部を有し、アプリケーション実行部20で実行されるアプリケーションの指示により、各オブジェクトに対して設定された触感の情報を、少なくとも一時的に記憶することができる。すなわち、本実施の形態においては、後述するように、オブジェクトに対する触感を触感制御部14において設定することができる。したがって、このように触感制御部14においてオブジェクトに対する触感が設定されている場合、入力制御部16は、タッチセンサ40に対する接触の位置を触感制御部14に通知することにより、触感制御部14は触感の呈示に係る制御を行うことができる。つまり、この場合、アプリケーション実行部20は、タッチセンサ40に対する接触の位置の通知を受信して当該位置がオブジェクトに対応する位置であるか否かを判断するという、触感の呈示に係る動作を指示する必要はなくなる。
 触感制御部14は、タッチセンサ40に対する接触の位置が入力制御部16から通知されると、当該接触の位置が、触感が設定されたオブジェクトの位置に対応するか否かを判定する。通知された接触の位置が、触感が設定されたオブジェクトの位置に対応する場合、触感制御部14は、設定された触感を呈示するように触感呈示部50を制御する。なお、本実施例では、荷重検出部60により、所定の押圧荷重が検出された場合に触感を呈示するようにする。すなわち、触感制御部14は、所定の処理を実行するオブジェクトに対応する位置における接触をタッチセンサ40が検知している状態で、荷重検出部60により検出される押圧荷重が触感を呈示する荷重基準を満たした場合に、設定された触感を呈示するように触感呈示部50を制御する。そして、触感呈示部50は、設定された所定のパターンの振動を発生することにより、タッチセンサ40のタッチ面を押圧している操作者の指などの押圧対象に対して、設定された触感を呈示する。
 図2は、図1に示した触感呈示装置1の実装構造の一例を示すもので、図2(A)は要部断面図であり、図2(B)は要部平面図である。表示部30は、筐体61内に収納保持される。表示部30上には、弾性部材からなるインシュレータ62を介して、タッチセンサ40が保持される。なお、本実施の形態に係る触感呈示装置1は、表示部30およびタッチセンサ40を、平面視で矩形状としている。また、触感呈示装置1において、タッチセンサ40は、図2(B)に仮想線で示す表示部30の表示領域Aから外れた4隅に配設したインシュレータ62を介して表示部30上に保持される。
 また、筐体61には、表示部30の表示領域から外れたタッチセンサ40の表面領域を覆うようにアッパカバー63が設けられ、このアッパカバー63とタッチセンサ40との間に、弾性部材からなるインシュレータ64が配設される。なお、図2に示すタッチセンサ40において、タッチ面40aを有する表面部材は、例えば透明フィルムやガラスで構成され、裏面部材はガラスやアクリルで構成される。タッチセンサ40は、タッチ面40aが押圧されると、押圧部分が押圧力に応じて微少量撓む(歪む)、または構造体そのものが微少量撓む構造のものを用いる。
 タッチセンサ40の表面上には、アッパカバー63で覆われる各辺の近傍に、タッチセンサ40に加わる荷重(押圧力)を検出するための歪みゲージセンサ51がそれぞれ接着等により設けられる。さらに、タッチセンサ40の裏面上には、対向する2つの辺の近傍に、タッチセンサ40を振動させるための圧電振動子52がそれぞれ接着等により設けられる。すなわち、図2に示す触感呈示装置1は、図1に示した荷重検出部60が4つの歪みゲージセンサ51を用いて構成され、触感呈示部50が2つの圧電振動子52を用いて構成されている。そして、触感呈示部50は、タッチセンサ40を振動させることにより、タッチ面40aを振動させるようにしている。なお、図2(B)は、図2(A)に示した筐体61、アッパカバー63およびインシュレータ64の図示を省略している。
 次に、本実施の形態において、触感の呈示に対応させて改変を加えたアプリケーションによる指示に基づいて、オブジェクトに応じた触感を触感制御部14に設定する動作について説明する。
 本実施の形態では、上述したように、アプリケーションに改変を加えることにより、改変アプリケーションに、オブジェクトと、当該オブジェクトに対する入力に応じて呈示する触感に関連する情報との対応付けを、予め付加しておく。ただし、もともと触感の呈示に対応していないアプリケーションに対して、触感を呈示する動作に係る処理全般(判断や指示)を付加する改変を行うとなると、一般に種々の制御情報を付加する必要が生じ、そのための手間およびコストが膨大になるおそれがある。
 そこで、本実施の形態では、もともとアプリケーションが有している情報のうち、UIの表示に関連する情報に対して、触感の呈示に関連する情報を付加する。これにより、UIが最初に表示部30に表示される際、またはUIの表示が変更される際などに、UIの表示関連の情報とともに、UIを構成するオブジェクトについての触感に関連する情報が供給されるようになる。したがって、この触感の呈示に関連する情報がアプリケーションから供給されることにより、触感制御部14は、UIが最初に表示される際またはUIの表示が変更される際に、UIを構成する各オブジェクトについて触感を設定することができる。すなわち、この際、触感制御部14は、制御部10の外部にあるアプリケーション実行部20にて実行されるアプリケーションから供給された触感を示す情報に基づいて、表示部30に表示するオブジェクトに対して、触感呈示部50が呈示する触感を設定する。
 具体的には、例えば、オブジェクトにより構成されるUIを使用するアプリケーションには、通常、オブジェクトの位置情報(すなわち、当該オブジェクトが表示部30のUIを表示する領域において、どの位置に表示されるのかを示す情報)が定義されている。また、当該アプリケーションには、通常、オブジェクトの大きさ情報(すなわち、当該オブジェクトの位置に対応するタッチセンサ40において接触を検知する範囲)も定義されている。そこで、そのアプリケーションに使用されるUIを構成するオブジェクトの位置・大きさ情報に、当該オブジェクトに対する入力が検知された場合に呈示すべき触感の種類、および触感を呈示する際の条件である押圧荷重などの情報を、予め対応付けて付加する改変を行う。
 本実施の形態では、アプリケーションに対して少なくともこれらの情報を付加するだけで、使用されるUIを構成するオブジェクトごとに、種々の触感が種々の条件により呈示される。その他の処理、例えば、触感の呈示のためだけに、タッチセンサ40に対する接触の監視や、接触の位置がオブジェクトの位置に対応するか否かの判定などの処理を、アプリケーションに付加しておく必要はない。
 図3は、本実施の形態によるUIの生成動作を説明するフローチャートである。これは、アプリケーション実行部20において実行されるアプリケーションの指示により、アプリケーションが提供するUIが新たに生成される際、またはアプリケーションが提供していたUIが新たなUIに変更される際などに行う動作である。すなわち、本実施の形態において、アプリケーションが提供するUIが新たに生成される際には、UIを構成するオブジェクトに対して触感の設定を行う必要がある。また、アプリケーションの指示により、UIの画面表示が変更されたら、表示されるオブジェクトの配置も変更されることがあるため、この場合も、変更するUIを構成するオブジェクトに対して触感の設定を行う必要がある。
 図3に示すUIの生成動作は、例えば、アプリケーションの指示により、アプリケーションが提供するUIが新たに生成される際、またはアプリケーションが提供していたUIが新たなUIに変更される際などに開始する。なお、図3に示すフローチャートは、制御部10の視点から見た動作を説明している。本動作が開始すると、アプリケーション実行部20で実行されているアプリケーションから、当該アプリケーションが提供するUIを生成するためのUIの表示に関連する情報(表示データ)が、表示制御部12に出力される。したがって、制御部10の表示制御部12は、このUIの表示に関連する情報を受けとる(ステップS1)。
 本実施の形態で用いるアプリケーションには、上述したように、UIの表示に関連する情報に対して、触感の呈示に関連する情報が付加してある。したがって、アプリケーションからUIの表示に関連する情報が表示制御部12に出力される際には、UIを構成するオブジェクトに対する入力に応じて呈示する触感に関連する情報も出力される。そのため、制御部10の触感制御部14は、このオブジェクトに対する入力に応じて呈示する触感に関連する情報を受けとる(ステップS2)。
 オブジェクトに対する入力に応じて呈示する触感に関連する情報を受けとったら、触感制御部14は、UIを構成する各オブジェクトに対して触感呈示部50が呈示する触感を設定する(ステップS3)。この際、設定される触感は、アプリケーションに付加された触感の呈示に関連する情報に従って、種々のものが想定される。例えば、タッチセンサ40における接触位置および接触範囲を指定して、当該位置・範囲に表示されるオブジェクトに応じて、触感の種類(例えばメタルドームスイッチやラバースイッチの触感)や、触感の態様(例えばフィードバックの強弱)等を設定する。また、例えば、アプリケーションに付加された触感の呈示に関連する情報に従って、各オブジェクトについて触感を呈示する荷重基準も設定する。触感を呈示する荷重基準とは、荷重検出部60が所定の荷重基準を満たす押圧荷重を検出したら、タッチセンサ40のタッチ面を押圧している押圧対象に対して触感を呈示する際の当該所定の荷重基準である。
 具体的には、例えば小さなオブジェクトに対しては、比較的小さな(弱いフィードバックの)触感を設定することができる。例えば、この場合、発生させる振動の周波数を高くしたり、振動を発生する時間を短くしたりする。一方、大きなオブジェクトに対しては、比較的大きな(強いフィードバックの)触感を設定することができる。例えば、この場合、発生させる振動の周波数を低くしたり、振動を発生する時間を長くしたりする。また、小さなオブジェクトの場合、例えば触感を呈示する荷重基準を比較的小さく設定し、操作者の比較的弱い押圧によって触感が呈示されるようにする。また、大きなオブジェクトの場合、例えば触感を呈示する荷重基準を比較的大きく設定し、操作者の比較的強い押圧でないと触感が呈示されないようにする。なお、触感制御部14は、各オブジェクトに対して設定された触感の情報を、図示しない記憶部に記憶する。
 ステップS3において触感の設定が完了したら、制御部10は、UIの生成処理を行う(ステップS4)。UIの生成処理とは、具体的には、表示制御部12が受けとったUIの表示に関連する情報に基づいて表示部30にUIを描画表示したり、オブジェクトに対する入力が検知された際に起動するアプリケーションとの関連付けを行う動作などのことである。
 以上のように、本実施の形態によるUIの生成動作を行うことにより、表示部30にはUIが表示され、当該UIを構成するオブジェクトに対して入力が検知されたら触感を呈示する準備が完了する。
 次に、表示部30にUIが表示された後、触感呈示装置1が操作者の押圧操作に応じて触感を呈示する際の動作について説明する。
 本実施の形態による触感呈示装置1は、表示部30に画像表示されたオブジェクトに対する操作者の接触がタッチセンサ40に検知されている状態で、荷重検出部60が検出する押圧荷重が所定の基準を満たすと、触感を呈示する。荷重検出部60が検出する押圧荷重が所定の基準を満たす場合に触感を呈示するのは、このような場合に、操作者はタッチセンサ40に意図せず(操作ミスなどで)接触したのではなく、意図して押圧する(プッシュする)動作を行ったとみなせることに基づく。
 図4は、本実施の形態による触感呈示装置1の動作を示すフローチャートである。触感呈示装置1の動作を行うにあたり、上述したUI生成動作に従って、予め、表示部30には、操作者の指またはスタイラスなどによる操作を検知することができるように、キー等のオブジェクトを画像表示しておくものとする。すなわち、以下、改変したアプリケーションにより供給されるUIであって、オブジェクトに対して触感の設定が完了したUIが表示されているものとする。なお、この実施例のアプリケーションは、表示部30に表示されたオブジェクトの画像の位置に対応するタッチセンサ40に接触が検知された際、当該接触の検知を操作者に認識させるため、オブジェクトの画像に何らかの変化を施して表示するものとする。しかしながら、本実施の形態においては、このような画像の変化は必須のものではない。
 上述のような準備が完了した状態で、本実施の形態による触感呈示装置1の動作は開始する。触感呈示装置1の動作が開始したら、まず、入力制御部16は、操作者の指などによるタッチセンサ40のタッチ面に対する接触の有無を監視する(ステップS11)。ステップS11にてタッチセンサ40のタッチ面に対する接触が検知されたら、入力制御部16は、当該接触の位置をアプリケーション実行部20および触感制御部14に通知する(ステップS12)。
 タッチセンサ40における接触の位置が通知されたら、アプリケーション実行部20は、当該接触の位置が、現在のGUIにおいてキー等のオブジェクトの画像が表示された位置に対応するか否かを判定する(ステップS13)。接触の位置が、オブジェクトの画像が表示された位置に対応する場合、アプリケーション実行部20は、アプリケーションに基づく設定に従ってオブジェクトの画像を変更するための表示データを、表示制御部12に供給する。この表示データを受け取ったら、表示制御部12は、表示されるオブジェクトの画像を変更するように表示部30を制御する(ステップS14)。すなわち、触感呈示装置1は、キー等のオブジェクトに対する接触が検知された場合、当該オブジェクトの表示画像を変更する。オブジェクトの表示画像を変更する際、例えばオブジェクトが選択されたような表示をしたり、またオブジェクトの色または輝度などを変化させたりして、キー等に触れた(タッチした)ことを操作者が視認できるようにするのが好適である。このようなオブジェクトの画像を変化させる表示は、アプリケーションに基づく設定により、種々の態様が考えられる。
 ステップS13において、接触の位置がオブジェクトの画像が表示された位置に対応するか否かは、入力制御部16も判定することができる。このため、ステップS13においてオブジェクトに対する入力が検知されたら(すなわちキー等のオブジェクトに対する接触があったら)、ステップS15以降の触感の呈示に係る処理はアプリケーション実行部20が関与せずに行うことができる。ステップS15において、触感制御部14は、荷重検出部60により検出される押圧荷重が、タッチセンサ40のタッチ面に対する押圧によって増加しながら所定の基準を満たしたか否かを判定する。なお、荷重検出部60は、例えば、4つの歪みゲージセンサ51の出力の平均値から荷重を検出する。ここで、所定の基準を満たす荷重は、操作者が通常の押圧操作を行う際の押圧荷重に基づいて、例えば1.5N(ニュートン)などの値を予め設定し、その後も設定変更できるようにするのが好適である。また、この所定の基準は、操作者の意図に基づく押圧操作の際の押圧荷重を考慮して(例えば平均値など)、過度に低い基準を設定しないようにする。これは、操作者が意図せずに軽く触れてしまったような場合の操作は押圧(プッシュ)操作として認識しないようにするため、および後述するリアルな触感のための圧覚を操作者に与えるためである。
 ステップS15において押圧荷重が所定の基準を満たした場合、触感制御部14は、タッチセンサ40のタッチ面に所定の振動を発生させて、触感を呈示するように触感呈示部50を制御する(ステップS16)。すなわち、触感制御部14は、所定の処理を実行するオブジェクトに対する入力を検知している状態で、荷重検出部60が触感を呈示する荷重基準を満たす押圧荷重を検出すると、触感を呈示するように触感呈示部50を制御する。この制御により、触感呈示部50は、タッチセンサ40のタッチ面を押圧している押圧対象に対して触感を呈示する。ここで呈示する触感とは、図3において説明したように、アプリケーションから受け取った情報により設定された触感である。
 なお、本実施の形態では、ステップS16において触感呈示部50が押圧対象に対して呈示する触感は、現実のキーまたはボタン等をクリックした場合に呈示されるようなクリック触感とすることができる。ここで、操作者に対してリアルなクリック触感を呈示するためには、触感呈示装置1は、操作者の圧覚が刺激された状態で触覚を刺激する。すなわち、触感呈示装置1は、タッチセンサ40に加わる荷重が、触感を呈示する基準(例えば1.5N)を満たすまでは、圧覚を刺激するようにし、荷重が当該基準を満たすと、圧電振動子52を所定の駆動信号で駆動してタッチ面40aを振動させて触覚を刺激する。これにより、触感呈示装置1は、押しボタンスイッチ(プッシュ式ボタンスイッチ)のようなボタンスイッチが押下された際に得られるのと同様なクリック触感を、操作者に呈示することができる。したがって、操作者は、タッチセンサに描画されたバーチャルな押しボタンスイッチであっても、実際の押しボタンスイッチを操作した場合と同様のリアルなクリック触感を得ながら、タッチセンサ40に対する操作を行うことができるので、違和感を覚えることがない。また、操作者は、タッチセンサ40を「押した」という意識との連動で操作を行うことができるので、単なる接触による入力ミスも防止することができる。
 上述したクリック触感を呈示する際の駆動信号、すなわち触覚を刺激する一定周波数、周期(波長)、波形、振幅は、呈示するクリック触感に応じて適宜設定することができる。例えば、携帯端末に使用されているメタルドームスイッチに代表されるクリック触感を呈示する場合、例えば、170Hzの一定周波数のSin波からなる1周期分の駆動信号により触感呈示部50を駆動する。このような駆動信号により触感呈示部50を駆動させて、タッチ面40aを、所定の基準を満たす押圧荷重が加わった状態で、約15μm振動させる。これにより、実際のキーをクリックした場合のような、リアルなクリック触感を操作者に呈示することができる。
 また、ステップS15において押圧荷重が所定の基準を満たしていない場合、触感制御部14は、タッチセンサ40のタッチ面に対する押圧が弱まることにより、荷重検出部60により検出される押圧荷重がゼロになったか否かを判定する(ステップS17)。ステップS17において荷重検出部60により検出される押圧荷重がまだゼロになっていない場合は、タッチセンサ40に対する操作者の操作が解除(リリース)されていないため、触感制御部14はステップS15に戻って処理を続行する。一方、ステップS17において荷重検出部60により検出される押圧荷重がゼロになった場合は、操作者がタッチセンサ40に対する操作を解除(リリース)していると判定できるため、触感制御部14は、図4に示す動作を終了する。なお、ステップS17における動作は、荷重検出部60により検出される押圧荷重がゼロになったか否かを判定する動作に代えて、タッチパネル40に対する接触がまだ検知されているか否かを判定する動作とすることもできる。
 一方、ステップS13において、接触の位置がオブジェクトの画像が表示された位置に対応しない場合、アプリケーション実行部20は、図4に示す動作を終了する。すなわち、キー等のオブジェクトに対する入力が検知されない場合、または検知された入力がキー等のオブジェクトに対するものでない場合、アプリケーション実行部20は、オブジェクトの表示画像を変更せずに図4に示す動作に係る処理を終了する。さらに、この場合、入力制御部16は、触感制御部14に触感を呈示する旨の指示を出さずに処理を終了する。このように、触感呈示装置1は、キー等のオブジェクト以外の位置に対する接触が検知された場合、オブジェクトに対する入力は検知されていないことを、触感を呈示しないことによって操作者に認識させることができる。
 このように、本実施の形態によれば、所定の動作を実行するオブジェクトに対して入力が検知され、かつ、所定の荷重基準を満たす押圧荷重が検出された場合に、アプリケーションにより供給され当該オブジェクトに設定された触感を呈示する。また、本実施の形態によれば、アプリケーションに触感の呈示に関連する情報を付加することにより各オブジェクトに適切な触感を設定することができ、さらに触感の呈示に係る動作はアプリケーション実行部20の関与を必要とせずに行うことができる。したがって、本実施の形態による触感呈示装置1によれば、入力を検知した際、オブジェクトに応じた触感を呈示することができるとともに、UIを構成する既存のアプリケーションを、触感の呈示に関連する情報を付加することで流用することができる。また、本実施の形態による触感呈示装置1は、キー等のオブジェクトに対して押圧(プッシュ)する操作により、当該オブジェクトに対する入力が正しく認識されたことを、リアルなクリック触覚によって操作者に認識させることができる。
 次に、触感呈示装置1が操作者の接触を検知した状態で基準を満たす押圧荷重を検出することによりクリック触感を呈示した後、さらにリリース触感を呈示する際の動作について説明する。
 通常の機械式の押しボタンスイッチに対して押圧操作が行われた場合、その後スイッチに対する押圧力が弱まることにより、メタルドームスイッチなどが元の押下されていない状態に戻る触感(以下、リリース触感という)が呈示される。本実施の形態による触感呈示装置1は、押圧操作に応じてリアルなクリック触感を呈示することができるため、その後、タッチセンサに対する押圧が解除(リリース)される途中で、リアルなリリース触感を呈示する方が、全体として一連の自然な操作感を提供できる。
 図5は、本実施の形態による触感呈示装置1の動作を示すフローチャートである。図5に示す動作は、図4において説明したクリック触感を呈示する動作(ステップS16)の後から開始する。本動作が開始すると、触感制御部14は、操作者のタッチパネル40に対する操作の押圧力が弱まることにより、荷重検出部60が検出する押圧荷重が所定の基準以上から当該所定の基準未満に変化したか否かを判定する(ステップS31)。なお、ここで「所定の基準以上から当該所定の基準未満に変化」とは、押圧のリリース時において、押圧荷重が所定の基準を超えている(または所定の基準以上の)状態から当該所定の基準を下回る(または所定の基準未満の)状態になることを意味する。
 ステップS31において押圧荷重が所定の基準以上から当該所定の基準未満に変化したと判定された場合、触感制御部14は、アプリケーションにより設定されたリリース触感を呈示するように触感呈示部50を制御する(ステップS32)。
 ここで、リリース触感を呈示する荷重基準は、押圧時にクリック触感を呈示する上記の荷重基準と同じに設定することもできるが、好ましくは、押圧時にクリック触感を呈示する荷重基準よりも50%~80%低い値に設定する。このようにすれば、同一位置(オブジェクト)を連続して押圧(つまりキーを連打)する場合に、順次の押圧および当該押圧の解除と触感呈示タイミングとが良好に合致し、違和感のないリアルな操作感を呈示することができる。すなわち、リリース時に触感を呈示する基準の荷重を、押圧時に触感を呈示する基準の荷重よりも小さくすることにより、違和感のない触感を呈示することができる。この場合、リリース時に触感を呈示する基準の荷重を、押圧時に触感を呈示する基準の荷重のおよそ50%以上とすることにより、連続する押圧操作時の操作性を格段に向上できる。また、リリース時に触感を呈示する基準の荷重を、押圧時に触感を呈示する基準の荷重のおよそ80%以下とすることにより、連続する押圧操作時のホールド状態での微小な荷重変化にも対応できる。なお、このような荷重基準の設定も、触感の呈示に関連する情報として、予めアプリケーションに付加しておく。
 ステップS32においてリリース触感が呈示されたら、入力制御部16は、タッチセンサ40が接触を検知しなくなったか否かを判定する(ステップS33)。タッチセンサ40が接触を検知しなくなった場合、入力制御部16は、接触が解除された旨をアプリケーション実行部20に通知する。そして、アプリケーション実行部20は、アプリケーションに基づく設定に従ってオブジェクトの画像を変更するための表示データを表示制御部12に供給する。この表示データを受け取ったら、表示制御部12は、表示されるオブジェクトの画像を変更するように表示部30を制御する(ステップS34)。すなわち、表示制御部12は、キー等のオブジェクトから接触がリリースされたら、当該オブジェクトの表示画像を変更する。オブジェクトの表示画像を変更する際、例えば既に選択されているオブジェクトが選択される前に戻るような表示をしたり、またオブジェクトの色または輝度などを変化させたりすることができる。このような表示の変更により、キー等に対する接触がリリースされたことを操作者が視認できるようにするのが好適である。
 以上のような動作により、押下時に「カッ」、リリース時に「チッ」と操作者に感じられるような、よりリアルな触感を呈示することができる。勿論、リリース触感は、クリック触感と同一の駆動信号を用いることもできるが、本実施の形態においては、クリック触感とは別の態様のリリース触感を設定することができる。
 このように、本実施の形態による触感呈示装置1は、触感の呈示に関連する情報を付加されたアプリケーションに基づいて、各オブジェクトに対する入力に応じて呈示する触感を、オブジェクトごとに設定することができる。したがって、触感呈示装置1は、既存のアプリケーションに若干の改変を施すことにより、オブジェクトごとに適切な触感を呈示することができる。また、本実施の形態による触感呈示装置1は、オブジェクトに対する入力に応じて、クリック触感、リリース触感などの種々の触感を呈示することができる。このため、触感呈示装置1は、既存のアプリケーションリソースを無駄にすることなく活用することができ、さらに、現実の押しボタンスイッチを操作する際に得られるようなリアルな操作感を提供することができる。
 なお、本発明は、上記実施の形態にのみ限定されるものではなく、幾多の変形または変更が可能である。例えば、本発明による触感呈示装置のハードウェアの構成は、図1に示したブロック図のような構成に限定されるものではなく、種々の変形例または変更例を想定することができる。すなわち、例えば図6に示すように、タッチセンサ40に対する接触の位置を、入力制御部16からアプリケーション実行部20に通知する経路を設けずに、常に触感制御部14を介して通知するような構成も想定できる。このように構成することにより、タッチセンサ40に対する接触の位置を通知する箇所を1箇所にして必要なインタフェースを削減するなど、ハードウェア的に設計し易い構成にすることもできる。
 また、例えば、上述した実施の形態では、制御部10に、表示制御部12と、触感制御部14と、入力制御部16とが含まれる構成について説明した。しかしながら、本発明による触感呈示装置は、このような構成に限定されるものではなく、設計の際の要求に応じて種々の構成を採ることができる。例えば、一の機能部が他の機能部を兼ねるように機能させることで、当該他の機能部を省略したり、または一の機能部を複数の機能部に細分化したりすることもできる。
 さらに、上述した実施の形態において、荷重検出部は、タッチセンサにおける接触の検出方式に応じて構成することができる。例えば、抵抗膜方式の場合には、接触面積による抵抗変化に基づく出力信号の変化から荷重が検出できれば、歪みゲージセンサを用いることなく構成することができる。あるいは、静電容量方式の場合には、静電容量の変化に基づく出力信号の変化から荷重が検出できる場合も、歪みゲージセンサを用いることなく構成することができる。
 なお、触感呈示部は、任意の個数の圧電振動子を用いて構成したり、タッチセンサの全面に透明圧電素子を設けて構成したり、触感を呈示する振動を表現できるのであれば、偏心モータを駆動信号の1周期で1回転させるようにして構成したり、することもできる。さらに、荷重検出部および触感呈示部は、圧電素子を用いて構成する場合は、圧電素子を共用して荷重検出部および触感呈示部を構成することもできる。
 上述した実施の形態においては、タッチセンサを表示部の上面に重ねて配置した構成を想定して説明した。しかしながら、本発明による触感呈示装置は、必ずしもこのような構成にする必要はなく、タッチセンサと表示部とを別の箇所に離間した構成にしてもよい。
 本発明は、タッチセンサがオン/オフ動作を行うタッチスイッチとして機能する入力装置にも有効に適用することができる。
 また、本発明に係る触感呈示装置は、圧電素子の出力に基づいて検出される押圧荷重が触感を呈示する荷重基準を満たした際に、当該圧電素子を駆動する。ここで、圧電素子の出力に基づいて検出される押圧荷重が触感を呈示する荷重基準を満たした際とは、検出される押圧荷重が触感を呈示する基準値に達した際であってもよいし、検出される押圧荷重が触感を呈示する基準値を超えた際でもよいし、圧電素子の出力に基づいて触感を呈示する基準値が検出された際でもよい。
 また、本実施形態の説明における「表示部」及び「タッチセンサ」は、表示部とタッチセンサとの両機能を共通の基板に持たせる等により、一体化した装置によって構成されるようにしてもよい。このような表示部とタッチセンサとの両機能を一体化した装置の構成の一例としては、液晶パネルが有するマトリクス状配列の画素電極群に、フォトダイオード等の複数の光電変換素子を規則的に混在させたものがある。この装置は、液晶パネル構造によって画像を表示する一方で、パネル表面の所望位置をタッチ入力するペンの先端で液晶表示用のバックライトの光を反射し、この反射光を周辺の光電変換素子が受光することにより、タッチ位置を検出することができる。
 1 触感呈示装置
 10 制御部
 12 表示制御部
 14 触感制御部
 16 入力制御部
 20 アプリケーション実行部
 30 表示部
 40 タッチセンサ
 40a タッチ面
 50 触感呈示部
 52 圧電振動子
 60 荷重検出部
 61 筐体
 62 インシュレータ
 63 アッパカバー
 64 インシュレータ
 

Claims (4)

  1.  タッチセンサと、
     前記タッチセンサのタッチ面を振動させる触感呈示部と、
     表示部と、
     アプリケーションソフトウェアから供給された触感を示す情報に基づいて、前記表示部に表示するオブジェクトに対して前記触感呈示部が呈示する触感を設定するとともに、前記オブジェクトに対する入力を検知すると、前記タッチ面を押圧している押圧対象に対して、当該オブジェクトに対して設定した触感を呈示するように前記触感呈示部を制御する制御部と、
     を備えることを特徴とする触感呈示装置。
  2.  前記制御部は、前記アプリケーションソフトウェアによって表示に関連する情報とともに出力される触感の呈示に関連する指示に基づいて、前記オブジェクトに対して前記触感呈示部が呈示する触感を設定する、請求項1に記載の触感呈示装置。
  3.  前記タッチセンサのタッチ面に対する押圧荷重を検出する荷重検出部をさらに備え、
     前記制御部は、前記オブジェクトに対する入力を検知している状態で、前記荷重検出部が触感を呈示する荷重基準を満たす押圧荷重を検出すると、前記押圧対象に対して触感を呈示するように前記触感呈示部を制御する、請求項1または2に記載の触感呈示装置。
  4.  タッチセンサと、
     前記タッチセンサのタッチ面を振動させる触感呈示部と、
     表示部と、を備える触感呈示装置の制御方法において、
     アプリケーションソフトウェアから供給された触感を示す情報に基づいて、前記表示部に表示するオブジェクトに対して前記触感呈示部が呈示する触感を設定するとともに、前記オブジェクトに対する入力を検知すると、前記タッチ面を押圧している押圧対象に対して、当該オブジェクトに対して設定した触感を呈示するように前記触感呈示部を制御することを特徴とする触感呈示装置の制御方法。
     
PCT/JP2010/007344 2009-12-21 2010-12-17 触感呈示装置および触感呈示装置の制御方法 WO2011077687A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/517,918 US9880622B2 (en) 2009-12-21 2010-12-17 Tactile sensation providing apparatus and control method for tactile sensation providing apparatus when using an application that does not support operation of tactile sensation
JP2011547289A JPWO2011077687A1 (ja) 2009-12-21 2010-12-17 触感呈示装置および触感呈示装置の制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2009289359 2009-12-21
JP2009-289359 2009-12-21

Publications (1)

Publication Number Publication Date
WO2011077687A1 true WO2011077687A1 (ja) 2011-06-30

Family

ID=44195241

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/007344 WO2011077687A1 (ja) 2009-12-21 2010-12-17 触感呈示装置および触感呈示装置の制御方法

Country Status (3)

Country Link
US (1) US9880622B2 (ja)
JP (1) JPWO2011077687A1 (ja)
WO (1) WO2011077687A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014044722A (ja) * 2012-08-24 2014-03-13 Immersion Corp コンテキスト依存ハプティック確認システム
JPWO2013046670A1 (ja) * 2011-09-27 2015-03-26 京セラ株式会社 触感呈示装置
JP2022096634A (ja) * 2020-12-17 2022-06-29 ディズニー エンタープライゼス インコーポレイテッド 触覚コンテンツの提示及び実施

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017111462A (ja) * 2015-11-27 2017-06-22 京セラ株式会社 触感呈示装置及び触感呈示方法
US10671167B2 (en) * 2016-09-01 2020-06-02 Apple Inc. Electronic device including sensed location based driving of haptic actuators and related methods

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212725A (ja) * 1998-01-26 1999-08-06 Idec Izumi Corp 情報表示装置および操作入力装置
JP2005031918A (ja) * 2003-07-10 2005-02-03 Ntt Docomo Inc タッチパネルディスプレイ装置
JP2007212975A (ja) * 2006-02-13 2007-08-23 Denso Corp 経路表示装置及びプログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030040361A1 (en) * 1994-09-21 2003-02-27 Craig Thorner Method and apparatus for generating tactile feedback via relatively low-burden and/or zero burden telemetry
JP2003288158A (ja) 2002-01-28 2003-10-10 Sony Corp タクタイル・フィードバック機能を持つ携帯型機器
WO2007030603A2 (en) * 2005-09-08 2007-03-15 Wms Gaming Inc. Gaming machine having display with sensory feedback
TW200821900A (en) 2006-05-08 2008-05-16 Sunrise Telecom Inc Tactile display locking and marker system
JP4968515B2 (ja) 2006-11-15 2012-07-04 ソニー株式会社 基板支持振動構造、触覚機能付きの入力装置及び電子機器
JP2008130055A (ja) 2006-11-27 2008-06-05 Sony Corp タッチパネルディスプレイ装置および駆動方法並びに電子機器
US8120584B2 (en) 2006-12-21 2012-02-21 Cypress Semiconductor Corporation Feedback mechanism for user detection of reference location on a sensing device
KR101424259B1 (ko) * 2007-08-22 2014-07-31 삼성전자주식회사 휴대단말에서 입력 피드백 제공 방법 및 장치
US20090102805A1 (en) 2007-10-18 2009-04-23 Microsoft Corporation Three-dimensional object simulation using audio, visual, and tactile feedback
US20100310136A1 (en) * 2009-06-09 2010-12-09 Sony Ericsson Mobile Communications Ab Distinguishing right-hand input and left-hand input based on finger recognition
TW201101137A (en) 2009-06-29 2011-01-01 J Touch Corp Touch panel with matrix type tactile feedback
US20100328229A1 (en) * 2009-06-30 2010-12-30 Research In Motion Limited Method and apparatus for providing tactile feedback
EP2270627A1 (en) 2009-06-30 2011-01-05 Research In Motion Limited Method and apparatus for providing tactile feedback
US8633916B2 (en) * 2009-12-10 2014-01-21 Apple, Inc. Touch pad with force sensors and actuator feedback
TWI530818B (zh) * 2011-01-20 2016-04-21 宏達國際電子股份有限公司 具有觸覺回饋之電子裝置及提供觸覺回饋之方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11212725A (ja) * 1998-01-26 1999-08-06 Idec Izumi Corp 情報表示装置および操作入力装置
JP2005031918A (ja) * 2003-07-10 2005-02-03 Ntt Docomo Inc タッチパネルディスプレイ装置
JP2007212975A (ja) * 2006-02-13 2007-08-23 Denso Corp 経路表示装置及びプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013046670A1 (ja) * 2011-09-27 2015-03-26 京セラ株式会社 触感呈示装置
US9448629B2 (en) 2011-09-27 2016-09-20 Kyocera Corporation Multi-mode tactile sensation providing device
JP2014044722A (ja) * 2012-08-24 2014-03-13 Immersion Corp コンテキスト依存ハプティック確認システム
JP2022096634A (ja) * 2020-12-17 2022-06-29 ディズニー エンタープライゼス インコーポレイテッド 触覚コンテンツの提示及び実施
JP7350831B2 (ja) 2020-12-17 2023-09-26 ディズニー エンタープライゼス インコーポレイテッド 触覚コンテンツの提示及び実施

Also Published As

Publication number Publication date
JPWO2011077687A1 (ja) 2013-05-02
US9880622B2 (en) 2018-01-30
US20120262404A1 (en) 2012-10-18

Similar Documents

Publication Publication Date Title
JP5529663B2 (ja) 入力装置
EP2472364B1 (en) Input device
WO2011093045A1 (ja) 触感呈示装置および触感呈示方法
WO2012108203A1 (ja) 電子機器及び電子機器の制御方法
JP5718475B2 (ja) 触感呈示装置
WO2013046670A1 (ja) 触感呈示装置
JP5555612B2 (ja) 触感呈示装置
US8982071B2 (en) Tactile sensation providing apparatus
JP5766398B2 (ja) 触感呈示装置
WO2011077687A1 (ja) 触感呈示装置および触感呈示装置の制御方法
JP5243379B2 (ja) 入力装置
US9804674B2 (en) Tactile sensation providing apparatus
TWI444867B (zh) 觸感顯示裝置以及觸感顯示裝置的控制方法
JP5292244B2 (ja) 入力装置
JP5706676B2 (ja) 触感呈示装置
JP2011095925A (ja) 入力装置
JP2011095928A (ja) 入力装置
JP2011048833A (ja) 入力装置
JP2011095926A (ja) 入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10838927

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011547289

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13517918

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10838927

Country of ref document: EP

Kind code of ref document: A1