WO2014103085A1 - タッチパネルデバイスとタッチパネルデバイスの制御方法 - Google Patents

タッチパネルデバイスとタッチパネルデバイスの制御方法 Download PDF

Info

Publication number
WO2014103085A1
WO2014103085A1 PCT/JP2013/002076 JP2013002076W WO2014103085A1 WO 2014103085 A1 WO2014103085 A1 WO 2014103085A1 JP 2013002076 W JP2013002076 W JP 2013002076W WO 2014103085 A1 WO2014103085 A1 WO 2014103085A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
vibration
positions
input
display
Prior art date
Application number
PCT/JP2013/002076
Other languages
English (en)
French (fr)
Inventor
荒木 昭一
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2014554060A priority Critical patent/JP6052743B2/ja
Priority to CN201380022753.6A priority patent/CN104285205B/zh
Publication of WO2014103085A1 publication Critical patent/WO2014103085A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention outputs the direction in which an object such as a GUI operated by touch input exists to the user by vibrating the touch panel.
  • an object such as a GUI operated by touch input exists to the user by vibrating the touch panel.
  • tactile input / output that presents the user with the direction in which an object such as a GUI exists Relates to the device.
  • touch panels and touch pads have been mounted on various devices such as smartphones, tablets, in-vehicle navigation devices, personal computers, game machines, ATMs, and ticket machines.
  • an object such as a GUI to be operated is displayed on a display, and the user operates the object by visually checking and touching the position of the GUI.
  • smartphones and tablets are equipped with a multi-touch panel that can simultaneously detect multiple touch positions with multiple fingers, and intuitive operations such as enlargement, reduction, and rotation of objects according to movement of multiple touch positions are practical. It has become.
  • a touch panel In a touch panel-equipped device such as that described above, a touch panel usually does not have a sense of operation as when a button switch is pressed when an object such as a GUI is operated unlike a mechanical button switch. For this reason, a technique has been put into practical use that allows the user to recognize the result of the operation being received by vibrating the touch panel when the object is operated.
  • the touch panel is displaced in a vertical and / or horizontal direction according to a predetermined vibration pattern, whereby a fingertip in a state of touching the touch panel is displayed at a predetermined button position.
  • the fingertip in a state of touching the touch panel is guided to a predetermined button position displayed on the display by displacing the touch panel vertically and / or horizontally with a predetermined vibration pattern.
  • a predetermined button position displayed on the display by displacing the touch panel vertically and / or horizontally with a predetermined vibration pattern.
  • Patent Document 1 is a method of guiding a finger to the position of a button by a vibration pattern that displaces the user's finger in the vertical and / or horizontal direction of the display, the finger is placed on the touch panel in the direction in which the GUI exists.
  • the direction of finger skin deformation when moving by tracing is reversed from the direction of finger skin deformation caused by vibration to guide the button to the position of the button.
  • the inventors have found a problem that the input operation to move is difficult.
  • the present invention presents vibration at a touch position close to the target GUI among a plurality of touch positions detected by the multi-touch panel without being displaced vertically and / or horizontally with respect to the display of the panel.
  • the direction in which the target GUI exists is based on the positional relationship between the touch position where vibration is presented and the touch position where vibration is not presented by not presenting vibration to other touch positions touched simultaneously.
  • a tactile input / output device that can present
  • the present invention for example, when the information of interest is moved outside the display area of the display by enlarging, reducing, or scrolling an object such as an electronic map or electronic document,
  • a haptic input / output device capable of presenting to a user in which direction outside a display display area.
  • a haptic input / output device includes a panel that receives a touch input by a user and outputs a result by vibration, and a plurality of actuators that are installed at different positions of the panel and vibrate the panel.
  • a touch information acquisition unit for acquiring touch positions simultaneously detected at a plurality of positions on the panel, and a moving direction and a movement distance of the touch positions based on time-series information on the plurality of touch positions simultaneously detected on the panel.
  • a moving input determination unit that calculates the content, a display unit that displays the content, a direction determination unit that determines in which direction the object existing on the content is outside the display area of the display unit, and the plurality of touch positions The position of the object is compared, and the touch position with the shortest distance from the object is the first touch position that presents vibration.
  • a vibration presentation position determination unit that determines and determines a touch position that is detected simultaneously other than the first touch position as a second touch position that does not present vibration, and the first determined by the vibration presentation position determination unit
  • a presentation vibration determination unit that determines a tactile sensation signal indicating vibration to be presented at the touch position based on the direction of presence of the object determined by the direction determination unit; a predetermined vibration at the first touch position; and Multiple points for calculating a drive signal of each actuator so as not to present the predetermined vibration at the second touch position, and driving the actuator by the calculated drive signal to simultaneously control the vibration of the panel for each touch position Based on the movement direction and movement distance of the touch position calculated by the simultaneous vibration control unit and the movement input determination unit, the content is scrolled to the display unit.
  • a content controller for executing Shimesuru control.
  • One of the effects of the haptic input / output device is to appropriately control the direction in which the target GUI exists by controlling which touch position the user is touching to present vibration. The user can be confirmed.
  • FIG. 1A is a block diagram showing a configuration of a haptic input / output device according to Embodiment 1 of the present invention.
  • FIG. 1B is a diagram showing the operation and display of the tablet device according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram showing the structure of the haptic input / output device according to Embodiment 1 of the present invention.
  • FIG. 3A is a diagram illustrating an example of touch input for operating the content and the object position and the vibration position of the panel.
  • FIG. 3B is a diagram illustrating an example of touch input for operating the content and the object position and the vibration position of the panel.
  • FIG. 3C is a diagram illustrating an example of touch input for operating the content and the object position and the vibration position of the panel.
  • FIG. 4A is a diagram illustrating an example of a tactile sensation signal.
  • FIG. 4B is a diagram illustrating an example of a tactile sensation signal.
  • FIG. 5 is a flowchart showing the operation of the haptic input / output device according to Embodiment 1 of the present invention.
  • FIG. 6 is a diagram illustrating an example of a content control pattern.
  • FIG. 7A is a diagram illustrating an example of direction presentation by three-point touch.
  • FIG. 7B is a diagram illustrating an example of 8-direction presentation with a three-point touch.
  • FIG. 8 is a block diagram illustrating an example of the configuration of the multipoint simultaneous vibration control unit according to Embodiment 1 of the present invention.
  • FIG. 9 is a diagram illustrating a path through which vibration propagates from the actuator to a certain position on the panel.
  • FIG. 10A is a diagram illustrating an example of a TSP.
  • FIG. 10B is a diagram illustrating an example of a TSP response.
  • FIG. 10C is a diagram illustrating an example of an inverse function of TSP.
  • FIG. 10D is a diagram illustrating an example of an impulse response calculated from a TSP response.
  • FIG. 11 is a flowchart illustrating the operation of the multipoint simultaneous vibration control unit according to Embodiment 1 of the present invention.
  • FIG. 12 is a diagram for explaining the processing operation of the multipoint simultaneous vibration control unit according to Embodiment 1 of the present invention.
  • FIG. 13 is a diagram illustrating an example of a filter.
  • FIG. 14 is a diagram illustrating an example of a drive signal.
  • FIG. 15 is a diagram illustrating experimental results of panel vibration at each touch position.
  • Patent Document 1 Since the technique disclosed in Patent Document 1 is a method of guiding a finger to the position of a button by a vibration pattern that displaces the user's finger in the vertical and / or horizontal direction of the display, the GUI is used.
  • the finger's skin deformation direction when moving the finger in the direction of the touch on the touch panel is opposite to the finger skin deformation direction due to vibration for guiding to the button's presence position. I found a problem that it was difficult to perform an input operation to move the finger smoothly.
  • the present disclosure presents vibration at a touch position close to a target GUI among a plurality of touch positions detected by the multi-touch panel without being displaced in the vertical and / or horizontal direction with respect to the display of the panel.
  • the direction in which the target GUI exists is based on the positional relationship between the touch position where vibration is presented and the touch position where vibration is not presented by not presenting vibration to other touch positions touched simultaneously.
  • a tactile input / output device that can present More specifically, when the object exists on the left side of the display area of the display, vibration by the first tactile sensation signal is presented to the touch position on the left side of the two touch positions, and the object exists on the right side.
  • the vibration caused by the first tactile sensation signal is presented to the touch position on the right side of the two touch positions, and the upper side of the two touch positions when the object is on the upper side of the display area of the display.
  • a vibration due to the second tactile sensation signal is presented at the touch position in the position, and the object is present on the lower side
  • the vibration due to the second tactile sensation signal is present at the touch position on the lower side of the two touch positions.
  • a haptic input / output device that presents the direction in which an object exists.
  • the present disclosure can be configured such that, for example, when an object such as an electronic map or an electronic document is enlarged, reduced, or scrolled, and the information that has been noticed goes out of the display area of the display, Touch panel device that can present to the user in which direction outside the display area of the display and its control method, tactile input / output device (A tactile / haptic feedback touch panel, or a tactile / haptic user interface) ), Tactile input / output device control method (A method of controlling a tactile / haptic feedback touch panel app aratus), to provide a vibration method for haptic input device (A method of vibrating a tactile / haptic feedback touch panel apparatus).
  • tactile input / output device A tactile / haptic feedback touch panel, or a tactile / haptic user interface
  • Tactile input / output device control method A method of controlling a tactile / haptic feedback touch panel app aratus
  • a method of vibrating a tactile / haptic feedback touch panel apparatus A method
  • the touch panel control method detects a plurality of inputs that are multi-touch input on or near the touch panel surface, and detects a plurality of input positions that are positions of the detected plurality of inputs. Displaying part or all of the content on the display, determining whether the object on the content is within the display area or outside the display area, and if the object is outside the display area, Among the input positions, the position vicinity corresponding to at least one position including the input position closest to the object is vibrated, and the position other than the position corresponding to the at least one position among the plurality of input positions is vibrated. Do not vibrate.
  • the touch panel control method changes the vibration method according to the distance between the object and the input position where the distance between the object is the closest.
  • a touch panel control method is a touch panel device control method in which the content is scrolled according to a user's tracing or tapping, and the object moves from outside the display area to within the display area. When touched, the touch panel is further vibrated.
  • the user can grasp by tactile sense that the user has entered the display area.
  • the touch panel control method includes a case where the object is outside the display area in the horizontal direction with respect to the display area and a case where the object is outside the display area in the vertical direction with respect to the display area.
  • the vibration method is different.
  • a touch panel device includes a touch panel configured to allow multi-touch input, a plurality of actuators, and a processor, and the processor performs multi-touch input on or near the touch panel surface. Detects a plurality of inputs, detects a plurality of input positions that are the positions of the detected plurality of inputs, displays all or part of the content on the display, and objects on the content are within the display area of the display If the object is outside the display area, it corresponds to at least one position including one closest to the object among the plurality of input positions. A position corresponding to the at least one position among the plurality of input positions by vibrating near the position Not to vibrate the other near, carry out the control.
  • the touch panel device changes the vibration method according to the distance between the object and the input position where the distance between the object is the closest.
  • the touch panel device is the touch panel device according to claim 1, wherein the content is scrolled according to a user's tracing or tapping, and the object is moved from outside the display area to inside the display area. When touched, the touch panel is further vibrated.
  • the user can grasp by tactile sense that the user has entered the display area.
  • the touch panel device includes a vibration method in which the object is outside the display area in the horizontal direction with respect to the display area, and the case where the object is outside the display area in the vertical direction with respect to the display area. Is different.
  • the touch panel device is an in-vehicle touch panel device in which the content is a map.
  • the content is a map, an electronic document, a bookmark, or a web page.
  • a haptic input / output device includes a panel that receives a touch input by a user and outputs a result by vibration, and a plurality of actuators that are installed at different positions of the panel and vibrate the panel.
  • a touch information acquisition unit for acquiring touch positions simultaneously detected at a plurality of positions on the panel, and a moving direction and a movement distance of the touch positions based on time-series information on the plurality of touch positions simultaneously detected on the panel.
  • a moving input determination unit that calculates the content, a display unit that displays the content, a direction determination unit that determines in which direction the object existing on the content is outside the display area of the display unit, and the plurality of touch positions The position of the object and (i) the first touch that presents the vibration with the touch position having the shortest distance from the object.
  • a vibration presentation position determination unit that determines a touch position detected at the same time other than the first touch position as a second touch position that does not present vibration, and the vibration presentation position determination unit
  • a presentation vibration determination unit that determines a tactile sensation signal indicating a vibration to be presented at the determined first touch position based on the direction of presence of the object determined by the direction determination unit; and a predetermined value at the first touch position.
  • a drive signal of each actuator is calculated so that vibration is presented and the predetermined vibration is not presented at the second touch position, and the actuator is driven by the calculated drive signal to detect the vibration of the panel at the touch position.
  • the content is scrolled based on the movement direction and movement distance of the touch position calculated by the multi-point simultaneous vibration control unit and the movement input determination unit which are simultaneously controlled.
  • a content control unit that performs control to display on the display unit by Le.
  • a haptic input / output method is a haptic input / output method that outputs a vibration by a plurality of actuators in response to a touch input from a user using a panel, and is detected simultaneously at a plurality of positions of the panel
  • An object existing on the content by acquiring the touched position, calculating the moving direction and moving distance of the touched position based on the time series information of the plurality of touched positions detected simultaneously on the panel, displaying the content, Is a first touch position that presents vibration, and determines a touch position having the shortest distance from the object among the plurality of touch positions.
  • a touch position that is detected at the same time other than the first touch position is determined as a second touch position that does not present vibration.
  • a tactile sensation signal indicating the vibration to be presented at the first touch position is determined based on the presence direction of the object determined by the direction determination unit, and a predetermined vibration is presented at the first touch position; and The actuator is driven so as not to present the predetermined vibration at the second touch position, and the content is scrolled and displayed on the display unit based on the calculated moving direction and moving distance.
  • a computer program detects a plurality of inputs that are multi-touch input on or near the touch panel surface, detects a plurality of input positions that are positions of the detected plurality of inputs, and content A part of or all of the content is displayed on the display, and it is determined whether the object on the content is within the display area of the display or outside the display area. If the object is outside the display area, the plurality of inputs Vibrate near the position corresponding to at least one position including the input position closest to the object among the positions, and vibrate other than the position corresponding to the at least one position among the plurality of input positions.
  • a computer program for causing a computer to execute a touch panel device control method That.
  • a computer program is a haptic input / output method for outputting by vibration by a plurality of actuators in response to a touch input from a user via a panel, and simultaneously detecting at a plurality of positions on the panel.
  • An object existing on the content by acquiring the touched position, calculating the moving direction and moving distance of the touched position based on the time series information of the plurality of touched positions detected simultaneously on the panel, displaying the content, Is a first touch position that presents vibration, and determines a touch position having the shortest distance from the object among the plurality of touch positions.
  • a touch position detected at the same time other than the first touch position is defined as a second touch position that does not present vibration.
  • a tactile sensation signal indicating a vibration to be determined and presented to the determined first touch position is determined based on the direction of presence of the object determined by the direction determination unit, and a predetermined vibration is applied to the first touch position.
  • a computer-readable storage medium is a computer-readable storage medium in which one or more programs are stored, and the one or more programs include one or more instructions.
  • a plurality of inputs that are multi-touch input on the surface of the touch panel or in the vicinity thereof, and a plurality of detected positions of the plurality of inputs when the electronic device having the touch panel is executed. Detect the input position, display part or all of the content on the display, determine whether the object on the content is inside or outside the display area of the display, and the object is outside the display area In this case, the distance from the object is the most among the plurality of input positions. Causing the electronic device to vibrate in the vicinity of a position corresponding to at least one position including an input position, and not vibrating the vicinity of the position corresponding to the at least one position among the plurality of input positions.
  • a computer-readable storage medium is a computer-readable storage medium in which one or more programs are stored, and the one or more programs include one or more instructions.
  • a computer-readable storage medium is a computer-readable storage medium storing one or more programs, wherein the one or more programs are one or more.
  • the touch position detected simultaneously at a plurality of positions of the panel inputted by a user is acquired at the same time when executed by an electronic device having a touch-inputable panel. Based on the time-series information of the detected multiple touch positions, the movement direction and distance of the touch position are calculated, the content is displayed, and the object existing on the content is in any direction outside the display area of the display unit. And (i) the distance from the object is the shortest among the plurality of touch positions.
  • multi-touch means a plurality of touches that are in contact with the panel at the same time.
  • multi-touch means a plurality of touches that are in contact with the panel at a certain time. That is, the multi-touch means a plurality of touches for a plurality of positions on the panel, and a plurality of touches that overlap in time. Therefore, the multi-touch includes not only a plurality of touches started at the same time but also a plurality of touches started at different times and detected at a certain time point at the same time. Specifically, when the second touch is started in a state where the first touch is continued after the first touch is started, the first touch and the second touch are multiple at the start time of the second touch. Corresponds to touch.
  • the haptic input / output device of the first embodiment presents vibrations at the touch position closest to the target GUI (icon, button, etc.) among a plurality of touch positions detected by the multi-touch panel, and is touched at the same time. Do not present vibration at other touch positions. As a result, the direction in which the target GUI exists can be presented.
  • a map is enlarged and displayed by moving the touched two touch positions so that the distance between the two touch positions is reduced.
  • the function of reducing the map display is realized.
  • the displayed object such as the destination (shown on the display with icons, buttons, etc.)
  • it is out of the display range of the display, and it is not clear in which direction the map can be scrolled to display the destination again in the display area of the display.
  • a display equipped with a multi-touch panel is equipped with GPS and displays a map based on the current location
  • icons and buttons indicating destinations and objects are displayed in the display display range. May be outside.
  • the position of an object that exists outside the display area is displayed at the touch position closest to the target object among a plurality of touch positions existing on the touch panel, and the other touched simultaneously. Does not present vibration at the touch position.
  • the direction in which the target object exists is presented to the user. Considering to present the direction in which the object exists so that the target object can be displayed again in the display area. More specifically, a case where there are two touch positions will be described.
  • the vibration caused by the first tactile signal is presented to the touch position on the left side of the two touch positions, and when the object exists on the right side, The vibration by the first tactile sensation signal is presented to the touch position on the right side of the two touch positions.
  • vibration due to the second tactile signal is presented at the upper touch position of the two touch positions, and conversely, the object exceeds the display area.
  • consideration is given to presenting the direction in which the object exists by presenting vibrations due to the second tactile signal at the lower touch position of the two touch positions.
  • FIG. 1A is a block diagram showing a configuration of a haptic input / output device according to an embodiment of the present invention.
  • the tactile input / output device 100 of this embodiment includes a panel 101, an actuator 102, a touch information acquisition unit 103, a direction determination unit 104, a vibration presentation position determination unit 105, a presentation vibration determination unit 106, a multipoint simultaneous vibration control unit 107, movement
  • An input determination unit 108, a content control unit 109, and a display unit 110 are provided.
  • a position measurement unit GPS module, gyro sensor, electronic compass, etc.
  • a communication unit and an antenna for reception by a mobile communication system such as a short-range wireless communication).
  • the map data may be stored in the memory.
  • Each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded on a recording medium such as a hard disk or a semiconductor memory.
  • Examples of the haptic input / output device include a car navigation system, a tablet device, a mobile phone device, a notebook computer, etc. incorporated in an automobile or externally attached.
  • FIG. 1B is a diagram illustrating an example in which the tactile input / output device is the tablet device 310 and the map data 320 is displayed.
  • the display area of the tablet device 310 cannot display the entire map data 320, particularly when the map is enlarged.
  • the map data in FIG. 1B is schematically shown to show the relationship between the display area and the display area, but the map outside the display area is not actually displayed.
  • the target point 321 as an object is a point set by the user as a target or automatically set by the tablet device 310. In FIG. 1B, the target point 321 is not displayed because it is outside the display area of the tablet device 310.
  • the finger 2 and the target point 321 are closer than the distance between the finger 1 and the target point 321, so the touch position corresponding to the finger 2 is based on the first tactile signal.
  • the vibration method such as the number of stimuli and amplitude
  • the method for determining the vibration position can be applied to the vibration method (such as the number of stimuli and amplitude) and the method for determining the vibration position.
  • map data can include a map of the entire world, or any size map data according to the needs and storage capacity of continents, countries, regions, etc.
  • the panel 101 is a member that transmits vibration, accepts a user's touch operation, and notifies the user that the touch operation has been accepted by vibrating.
  • a material that is durable to a user's touch operation such as glass, polycarbonate, acrylic, and ABS is preferable. However, it is not limited to these, and any member that can feed back vibration to the user may be used.
  • the shape, size, thickness, hardness, fixing method, and the like of the panel 101 need not be particularly limited. However, depending on the shape, size, thickness, hardness, and fixing method of the panel 101, the transmission characteristics of vibration from the actuator 102 to each position on the panel 101 (hereinafter also referred to as “point”) change. To do.
  • the actuator 102 vibrates the panel 101 and presents a tactile sensation to the user.
  • a piezoelectric element for example, a vibration motor, a voice coil, an artificial muscle, or the like can be used.
  • FIG. 2 shows an example of the arrangement of the actuator 102 on the panel 101.
  • the actuator 102 is fixed to the panel 101 with, for example, an adhesive (not shown. If the actuator 102 is a piezoelectric element, an epoxy adhesive may be used).
  • the number of actuators 102 is equal to or greater than the number of touch positions where the panel 101 is touch-operated.
  • M is an integer of 2 or more.
  • the number of actuators 102 is 4, and the number of touch positions is 2 (finger 1 and finger 2).
  • the arrangement position of the actuator 102 is not particularly limited.
  • the plurality of actuators 102 may be arranged so that the panel 101 can be vibrated efficiently.
  • the number of actuators 102 is four, the present invention is not limited to this.
  • the touch information acquisition unit 103 acquires a plurality of touch positions of the user with respect to the panel 101.
  • the two touch positions of finger 1 and finger 2 at time t are P1 (x1 (t ), Y1 (t)), P2 (x2 (t), y2 (t)).
  • the touch position is expressed using xy coordinates on a two-dimensional plane with the origin O as the upper left corner of the display unit 110 with respect to the paper surface.
  • a multi-touch panel such as a capacitance method or a resistance film method can be used.
  • the touch information acquisition unit 103 acquires a plurality of touch positions based on a change in capacitance due to multi-touch.
  • the touch information acquisition unit 103 is configured by a pressure-sensitive multi-touch panel, the touch information acquisition unit 103 acquires a plurality of touch positions based on a change in pressure due to multi-touch.
  • multi-touch detection need not be limited to a capacitive or pressure-sensitive multi-touch panel. Any type of multi-touch detection method may be used.
  • the position of the finger may be captured by a CCD or CMOS camera and acquired by image processing.
  • infrared light is incident from the side wall of the panel 101 using the panel 101 as a transparent acrylic member, infrared light is confined in the panel 101 due to the property of total reflection, but infrared light leaked due to distortion of the panel 101 due to touch operation.
  • an FTIR (Frustrated Total Internal Reflection) method or the like may be used.
  • the direction determination unit 104 determines in which direction the object 4 existing on the content (or content) 3 is located with respect to the display area (rectangular ABCD) of the display unit 110.
  • the direction determination unit 104 determines in which direction the object 4 existing on the content (or content) 3 is located with respect to the display area (rectangular ABCD) of the display unit 110.
  • FIG. 3A an O-XY coordinate system in which an o-xy coordinate system representing the touch positions P1 and P2 and a coordinate system (not shown) representing a two-dimensional position on the content 13 is integrated. The outline of the direction determination will be described.
  • the relationship between the xy coordinates of the two-dimensional plane with the origin o as the upper left corner of the display unit 110 and the integrated coordinate system O-XY is as follows.
  • the x axis is defined on the long side (long axis direction) of the display unit 110, and is parallel to the X axis of the integrated coordinate system.
  • the y axis is defined on the short side (short axis direction) of the display unit 110 and is parallel to the Y axis of the integrated coordinate system.
  • the coordinate value in the integrated coordinate system of the origin o which is the upper left corner of the display unit 110 with respect to the paper surface, is (R L , R T ), and the coordinate value of the lower right corner of the display unit 110 with respect to the paper surface is (R R , R B ).
  • the direction in which the object 4 (X O (t), Y O (t)) is present with respect to the display area (rectangular ABCD) of the display unit 110 is set to the upper end of the display area (rectangular ABCD) of the display unit 110. Is determined using the coordinate value R T , the coordinate value R B at the lower end, the coordinate value R L at the left end, and the coordinate value R R at the right end.
  • the coordinate values (X O (t), Y O (t)) of the object 4 are compared with R T , R B , R L , R R , and the object 4 is displayed on the paper surface.
  • upper direction from the upper end R T parts 110 and determines that exists in the right direction from the right edge R R of the display unit 110.
  • the content 13 may be a map
  • the object 4 may be a destination position display icon (hereinafter also referred to as a destination).
  • the content 13 and the object 4 are not limited to this, and can be an electronic document.
  • the content 13 can be a Web page
  • the object 4 can be a content such as a hyperlink position or an image.
  • the content 13 can be an electronic book
  • the object 4 can be a bookmark. That is, the present invention is particularly effective for electronic content displayed on the display unit 110, in which an object may appear outside the display area when the user performs page movement or scroll operation.
  • the vibration presentation position determination unit 105 compares the plurality of touch positions with the position of the object 4, determines the touch position with the shortest distance from the object 4 as the first touch position for presenting the vibration, and the first touch. A touch position detected at the same time other than the position is determined as a second touch position where vibration is not presented. For the shortest distance, the distance on the X-axis and the distance on the Y-axis are calculated, and the shorter distance is set as the shortest distance. In FIG.
  • the coordinate values of the touch positions P1 and P2 in the integrated coordinate system O-XY are (X1 (t), Y1 (t)), (X2 (t), Y2 (t)), and the object 4
  • the shortest distance on the X axis is X O (t) ⁇ X2 (t)
  • the shortest distance on the Y axis is Y O (t) ⁇ Y2 (t)
  • the first touch position that presents the vibration is P2, and other than the first touch position, in this case, the touch position P1 is vibrated. Is determined as the second touch position not presenting.
  • the user can check the touch position closest to the object 4 among the touched touch positions by the presence or absence of vibration.
  • vibration is presented to the right finger (touch position P2) with respect to the page, and vibration is not presented to the left finger (touch position P1).
  • the vibration is presented to the right finger (touch position P2) or the right finger is on the upper side with respect to the left finger. Therefore, it cannot be distinguished whether the vibration is presented to the upper finger (touch position P2). Therefore, in order to be able to distinguish these, the vibration to be presented to the user is determined by the presentation vibration determination unit.
  • the presentation vibration determination unit 106 determines a tactile sensation signal indicating the vibration to be presented at the first touch position determined by the vibration presentation position determination unit 105 based on the presence direction of the object 4 determined by the direction determination unit 104. .
  • the tactile sensation signal for example, when the object 4 exists in the left direction from the left end of the display unit 110 or the right direction from the right end with respect to the paper surface, the first tactile sensation signal is used.
  • the second tactile sensation signal is used when it exists in the direction above the upper end or the direction below the lower end.
  • signals that allow the user to identify the difference such as the number, frequency, and amplitude of vibration stimulation may be used.
  • the first tactile signal the one-time stimulation signal shown in FIG. 4A is used.
  • the double stimulation signal shown in FIG. 4B can be used.
  • the shortest distance between the position of the object 4 and the touch positions P1 and P2 is X O (t) ⁇ X2 (t) on the X axis.
  • the multi-point simultaneous vibration control unit 107 calculates a drive signal of each actuator so as to present the vibration indicated by the tactile sensation signal at the first touch position and not present vibration at the second touch position.
  • the actuator is driven by the driving signal, and the vibration of the panel is simultaneously controlled for each touch position.
  • the movement input determination unit 108 calculates the movement distance of the touch position based on the time series information of the plurality of touch positions acquired by the touch information acquisition unit 103.
  • the user recognizes the direction in which the object 4 exists based on the touch position where the vibration is presented by the multipoint simultaneous vibration control unit 107 and the type of tactile signal, and displays the object 4 in the display area of the display unit 110.
  • the content 13 is scrolled based on the calculated movement distance of the touch position.
  • the content control unit 109 scrolls and displays the content 13 on the display unit 110 based on the movement direction and movement distance of the touch position calculated by the movement input determination unit 108. Further, as a result of moving the content 13 based on the movement direction and the movement distance, the process is terminated if the object 4 enters the display area of the display unit 110, and if the object 4 does not enter the display area, the touch information acquisition unit 103 is completed. The touch position is acquired again, the direction determination unit 104 determines the presence direction of the object 4, and the multipoint simultaneous vibration control unit 107 presents the presence direction of the object by vibration.
  • a display such as an LCD, an organic EL, or electronic paper can be used.
  • FIG. 5 is a flowchart showing the operation of the haptic input / output device 100 according to the embodiment of the present invention. The operation of the haptic input / output device 100 according to the first embodiment will be described in detail based on this flowchart.
  • FIGS. 3A to 3C an example in which the haptic input / output device 100 is mounted on the electronic device 10 that performs scroll control of the content 13 displayed on the display unit 110 will be described.
  • the user is recognized by presenting vibration only at a touch position close to the object 4.
  • Step S101 Touch information acquisition
  • the touch information acquisition unit 103 acquires a plurality of touch positions of the user with respect to the panel 101.
  • the two touch positions of the finger 1 and the finger 2 at the time t are P1 (x1 (t), y1 (t )), P2 (x2 (t), y2 (t)).
  • the touch positions P1 and P2 are acquired as time series information at a sampling interval such as 10 ms.
  • Step S102 Object direction determination
  • the direction determination unit 104 determines in which direction the object 4 existing on the content 13 is located with respect to the display area (rectangular ABCD) of the display unit 110.
  • the display area rectangular ABCD
  • FIGS. 3A, 3B, and 3C an o-xy coordinate system that represents touch positions P1 and P2 on the panel 101 and a coordinate system that represents a two-dimensional position on the content 13 (not shown).
  • the outline of direction determination will be described using an O-XY coordinate system that integrates ().
  • the coordinates of the object 4 are represented by L O (X O (t), Y O (t)).
  • the relationship between the xy coordinates of the two-dimensional plane with the origin o as the upper left corner of the display unit 110 and the integrated coordinate system O-XY is as follows.
  • the x axis is defined on the long side of the display unit 110 and is parallel to the X axis of the integrated coordinate system.
  • the y axis is defined on the short side of the display unit 110 and is parallel to the Y axis of the integrated coordinate system.
  • the coordinate value in the integrated coordinate system of the origin o which is the upper left corner of the display unit 110 with respect to the paper surface, is (R L , R T )
  • the coordinate value of the lower right corner of the display unit 110 with respect to the paper surface is (R R , R B ).
  • the direction in which the object 4 having the coordinate value L O (X O (t), Y O (t)) exists in the display area (rectangular ABCD) of the display unit 110 is displayed on the display unit 110.
  • the determination is made using the upper end coordinate value R T , the lower end coordinate value R B , the left end coordinate value R L , and the right end coordinate value R R of the region (rectangular ABCD).
  • the coordinate value L O (X O (t), Y O (t)) of the object 4 is compared with R T , R B , R L , R R , and the object 4 is compared with the paper surface.
  • FIG. 3B is an example in which the touch positions P1 and P2 are moved and the content 13 is scrolled in the left direction with respect to the paper surface.
  • the coordinate value L O (X O (t), Y O (t)) of the object 4 is compared with R T , R B , R L , R R , and the object 4 is placed on the paper surface. against it, the upper direction from the upper end R T of the display unit 110 and judges that exists in the direction between the left R L and right R R of the display unit 110.
  • FIG. 3B is an example in which the touch positions P1 and P2 are moved and the content 13 is scrolled in the left direction with respect to the paper surface.
  • the coordinate value L O (X O (t), Y O (t)) of the object 4 is compared with R T , R B , R L , R R , and the object 4 is placed on the paper surface. against it, the upper direction from the upper end R T of the display unit 110 and judges that exists in the direction between the left
  • 3C is an example in which the touch positions P1 and P2 are moved and the content 13 is scrolled in the downward direction with respect to the paper surface.
  • the coordinate value L O (X O (t), Y O (t)) of the object 4 is compared with R T , R B , R L , R R , and the object 4 is in contrast, it is determined that exists between the upper end R T and the upper end R B of the display unit 110, and present between the left R L and right R R of the display unit 110. That is, in this case, it is determined that the object 4 is displayed in the display area (rectangular ABCD) of the display unit 110.
  • the content 13 may be a map
  • the object 4 may be a destination position display icon (hereinafter also referred to as a destination).
  • the content 13 and the object 4 are not limited to this, and can be an electronic document.
  • the content 13 can be a Web page
  • the object 4 can be a content such as a hyperlink position or an image.
  • the content 13 can be an electronic book
  • the object 4 can be a highlight or bookmark. That is, the present embodiment is particularly effective for electronic content displayed on the display unit 110, in which an object may appear outside the display area when the user performs a page movement or scroll operation. .
  • Step S103 vibration presentation position determination
  • the vibration presentation position determination unit 105 compares the plurality of touch positions with the position of the object 4, determines the touch position with the shortest distance from the object 4 as the first touch position for presenting the vibration, and the first touch. A touch position detected at the same time other than the position is determined as a second touch position where vibration is not presented. For the shortest distance, the distance on the X-axis and the distance on the Y-axis are calculated, and the shorter distance is set as the shortest distance. In FIG.
  • the coordinate values of the touch positions P1 and P2 in the integrated coordinate system O-XY are (X1 (t), Y1 (t)), (X2 (t), Y2 (t)), respectively, and the object 4 Compared to the coordinate values L O (X O (t), Y O (t)) of the above, the shortest distance on the X axis is X O (t) ⁇ X2 (t), and the shortest distance on the Y axis Is Y O (t) ⁇ Y2 (t). Regardless of which shortest distance is selected, the first touch position that presents vibration is P2, and in this case other than the first touch position, the touch position P1 Is determined as the second touch position where no vibration is presented.
  • the coordinate values of the touch positions P1 and P2 in the integrated coordinate system O-XY are (X1 (t), Y1 (t)), (X2 (t), Y2 (t)), respectively.
  • the shortest distance on the X axis is X O (t) ⁇ X2 (t).
  • the shortest distance is Y O (t) -Y2 (t), and regardless of which shortest distance is selected, the first touch position that presents vibration is P2, and in this case other than the first touch position
  • the touch position P1 is determined as the second touch position where no vibration is presented. That is, also in the case of FIG. 3B, vibration is presented to the finger 2 indicated by the oblique lines, and vibration is not presented to the finger 1. Similarly in the case of FIG.
  • the coordinate values of the touch positions P1 and P2 are (X1 (t), Y1 (t)), (X2 (t), Y2 (t)), respectively, and the coordinate value L of the object 4 Compared with O (X O (t), Y O (t)), the shortest distance on the X axis is X O (t) ⁇ X2 (t), and the shortest distance on the Y axis is Y O ( t) ⁇ Y2 (t), whichever the shortest distance is selected, the first touch position where the vibration is presented is P2, and other than the first touch position, in this case, the touch position P1 is presented as vibration. It determines as the 2nd touch position which does not. That is, also in the case of FIG. 3B, vibration is presented to the finger 2 indicated by the oblique lines, and vibration is not presented to the finger 1.
  • the user can confirm the touch position closest to the object 4 among the touched touch positions based on the presence or absence of vibration.
  • vibration is presented to the right finger (touch position P2) with respect to the page, and vibration is not presented to the left finger (touch position P1).
  • the user has the object 4 on the right side, the right finger 2 (touch position P1) on the right side, and the right finger 2 (touch position P2) closer to the object 4 vibrates. Since the right finger 2 (touch position P2) is on the upper side with respect to the left finger 1 (touch position P1), the object 4 is on the upper side and the distance to the object 4 is closer. It cannot be distinguished whether the vibration is presented to the finger 2 (touch position P2). In order to distinguish these, two types of vibration are used in this embodiment.
  • the presentation vibration determining unit 106 determines two vibrations to be presented to the user.
  • Step S104 Presentation vibration determination
  • the presentation vibration determination unit 106 determines a tactile sensation signal indicating the vibration to be presented at the first touch position determined by the vibration presentation position determination unit 105 based on the presence direction of the object 4 determined by the direction determination unit 104.
  • the tactile sensation signal for example, when the object 4 exists in the left direction from the left end of the display unit 110 or the right direction from the right end with respect to the paper surface, the first tactile sensation signal is used.
  • the second tactile sensation signal is used when it exists in the direction above the upper end or the direction below the lower end.
  • the coordinate values X O (t) and Y O (t) of the object 4 are both outside the range of [R L , R R ] and [R L , R R ]. 4 from becoming the shortest distance is the first tactile signal selection for the a right end R R, and the vibration to the finger 2 in the touch position P2 on the right side of the finger 2 the distance between the object 4 is the shortest And no vibration is presented at the touch position P1.
  • a user object 4 can confirm that the right than the right end R R of the display unit 110.
  • the user scrolls the object 4 notified to be on the right side of the display unit 110 in the direction of the left side with respect to the page of the content 13 to be within the display range of the display unit 110. Move to display. At this time, it is determined whether the coordinate values X O (t) and Y O (t) of the object 4 are within the ranges of [R L , R R ] and [R T , R B ], respectively, in the case of FIG. 3B.
  • Y O (t) is outside the range of [R T , R B ]
  • the shortest distance from the object 4 is R T , which is the upper end, so that the second tactile signal is selected, and
  • the vibration is presented to the finger 2 at the touch position P2 of the upper finger 2 having the shortest distance, and the vibration is not presented to the touch position P1.
  • the user can confirm that the object 4 is above the upper end RT of the display unit 110.
  • FIG. 3C the user scrolls the object 4 notified to be on the upper side of the display unit 110 in the lower direction with respect to the page of the content 13, and falls within the display range of the display unit 110. Move to display.
  • X O (t) and Y O (t) of the object 4 are within the ranges of [R L , R R ] and [R T , R B ], respectively, in the case of FIG. 3C.
  • X O (t) and Y O (t) are both ranges, and it is determined that the object 4 is displayed in the display area of the display unit 110.
  • the vibration of the panel 101 may be stopped, or the vibration may be continuously presented with the touch position having the shortest distance from the object 4 as the first touch position.
  • the first tactile sensation signal and the second tactile sensation signal a signal that allows the user to identify the difference such as the number of vibration stimuli, the frequency, the amplitude, and the length of time to be presented may be used.
  • the stimulation signal shown in FIG. 4A can be used, and the stimulation signal shown in FIG. 4B can be used as the second tactile sensation signal.
  • the tactile signal shown in FIG. 4A is generated by the following equation (1).
  • the tactile sensation signal is generated s (n) based on a signal of r periods of a sine wave having a frequency fc, and the sine wave is generated using a modulation frequency fm such that the r period is exactly a half period. Modulated.
  • Ts represents a sampling period.
  • the modulation frequency fm is 10 Hz.
  • the tactile sensation signal generated in this way can be used as a signal for presenting a tactile sensation as if a physical switch was clicked once (hereinafter, referred to as a single stimulation signal), whereby the user can It can be confirmed by tactile sense that the set value has increased or decreased by one.
  • FIG. 4B shows a sine wave modulated using a modulation frequency fm so that the r period is exactly one period, in order to present a tactile sensation as if a physical switch was clicked twice in succession.
  • Signal hereinafter referred to as a double stimulation signal.
  • the tactile sensation signal is not necessarily a signal generated as described above. For example, it is not necessary to perform modulation as shown in Equation (1). That is, a sine wave may be used as the tactile sensation signal, and the different tactile sensation signals may be used as the first tactile sensation signal and the second tactile sensation signal.
  • the frequency fc may be any frequency as long as it can be sensed by a human sense of touch.
  • the frequency fc may be determined based on the vibration characteristics of the panel 101.
  • the frequency fc may be determined so as to coincide with the resonance frequency of the panel 101.
  • the frequency fc may be determined so as to coincide with the resonance frequency of the panel 101.
  • Step S105 Multi-point simultaneous vibration control
  • the multipoint simultaneous vibration control unit 107 presents the vibration indicated by the first or second tactile sensation signal at the first touch position determined in step S103 and step 104, and the vibration at the second touch position.
  • the drive signal of each actuator is calculated so as not to present, and the actuator is driven by the calculated drive signal to simultaneously control the vibration of the panel for each touch position.
  • the first tactile sensation is displayed at the touch position on the left side of the two touch positions.
  • the vibration by the signal is presented and the object exists on the right side
  • the vibration by the first tactile sensation signal is presented to the touch position on the right side of the two touch positions.
  • vibration by the second tactile sensation signal is presented at the upper touch position of the two touch positions, and the object exists on the lower side. In such a case, vibration due to the second tactile sensation signal is presented to the touch position on the lower side of the two touch positions.
  • the multipoint simultaneous vibration control unit 107 may always vibrate the panel 101 at the timing when the touch positions P1 and P2 are detected by the touch information acquisition unit 103, or may present and stop the vibration at predetermined time intervals. It may be repeated.
  • the touch position is one point
  • the user does not vibrate, and only when the touch position is two points, the user wants to know the direction of the object while scrolling the content 13 with one finger by performing the vibration control that presents the direction.
  • direction information can be presented by vibration only at a necessary timing, and unnecessary panel vibration can be suppressed for the user and also in terms of power consumption.
  • An example of a specific configuration and operation of the multipoint simultaneous vibration control unit 107 will be described later.
  • Step S106 Movement input determination
  • the movement input determination unit 108 calculates the movement direction and movement distance of the touch position based on the time series information of the plurality of touch positions acquired by the touch information acquisition unit 103.
  • the user recognizes the direction in which the object 4 exists based on the touch position where the vibration is presented by the multipoint simultaneous vibration control unit 107 and the type of tactile signal, and displays the object 4 in the display area of the display unit 110.
  • the content 13 is scrolled based on the calculated moving direction and moving distance of the touch position.
  • the movement direction of the touch position is calculated as follows.
  • the moving direction when moving the touch position while the finger is touching the panel 101 is calculated from the time-series information of the touch position acquired in step S101.
  • the movement vector representing the movement direction of the touch position P1 at each sampling interval ⁇ t is v1 (x1 (t) ⁇ x1 (t ⁇ 1), y1 (t) ⁇ y1 (t ⁇ 1)), the touch position.
  • the movement vector of P2 is calculated by v2 (x2 (t) ⁇ x2 (t ⁇ 1), y2 (t) ⁇ y2 (t ⁇ 1)).
  • (t ⁇ 1) represents the time one sample before.
  • FIG. 3B shows an example of movement input for scrolling the content 13.
  • 3B shows an example in which the content 13 is scrolled to the left side by moving the touch position to the left side with respect to the paper surface.
  • the fingers 1 and 2 are respectively At time (t ⁇ 1), the panel 101 is touched at the same time, and the touch positions P1 and P2 are X1 (t ⁇ 1) and X2 (t ⁇ 1), respectively.
  • FIG. 3C shows an example in which the content 13 is scrolled downward by moving the touch position downward with respect to the paper surface.
  • the position is initialized with P1 (X1 (0), Y1 (0)), and the touch position is shifted. Based on the time when it is determined that the touch has stopped, at each sampling interval ⁇ t, it is confirmed whether the touch is stationary at the same position where the movement of the touch position is stopped, and the rest time t1s is recorded and updated. Similarly, the moving distance d2 (t) of the touch position P2 is calculated by the equation (2), and the stationary time t2s of P2 is recorded and updated in the same manner.
  • Step S107 Content control
  • the content control unit 109 scrolls and displays the content 13 on the display unit 110 based on the movement direction and movement distance of the touch position calculated by the movement input determination unit 108 in step S106.
  • FIG. 6 shows an example of the control pattern of the content 13 based on the moving direction and moving distance of the touch position.
  • the control pattern [1] is a case where the number of touches detected by the touch information acquisition unit 103 is 1 and the touch position P1 is moving in the direction of the movement vector v1, and at this time, the expression (2) Display control for moving the content 13 by the calculated movement distance d1 is performed. Specifically, for example, the entire content 13 is moved by the movement vector v1.
  • the coordinate values (X O (t), Y O (t)) of the object 4 are (X O (t ⁇ 1) + (X1 (t) ⁇ X1 (t ⁇ 1)), Y O (t) -1) + (Y1 (t) -Y1 (t-1))).
  • (X O (t), Y O (t)) is (X O (t ⁇ 1) + (X1 (t) ⁇ X1 (t ⁇ 1)), Y O (t ⁇ ) 1)), and in the case of FIG. 3C, moves to (X O (t ⁇ 1), Y O (t ⁇ 1) + (Y1 (t) ⁇ Y1 (t ⁇ 1))).
  • the number of touches detected by the touch information acquisition unit 103 is 1, the touch position P1 moves in the direction of the movement vector v1, and the movement distance d1 calculated by Expression (2) is predetermined.
  • the threshold value D is equal to or greater than the threshold value D and the stationary time t1s of the touch position is equal to or greater than the predetermined threshold value Ts. Scroll continuously in the direction. Thereby, the coordinates of the object 4 are moved by L O + ⁇ v1 every predetermined time. Where ⁇ is a positive constant.
  • the movement distance d1 calculated by Expression (2) or Display control for moving the content 13 by d2 is performed. Specifically, the content 13 is scrolled in the direction of the movement vector v1 or v2. Thus, the coordinates of the object 4 are moved by (L O + v1) or (L O + v2). Where ⁇ is a positive constant.
  • the number of touches detected by the touch information acquisition unit 103 is 2, the movement directions v1 and v2 of the touch positions P1 and P2 are the same, and the movement distance d1 or d2 calculated by Expression (2).
  • display control is performed to continuously move the content 13. Specifically, the content 13 is continuously scrolled in the direction of the movement vector v1 or v2.
  • the coordinates of the object 4 are moved by (L O + ⁇ v1) or (L O + ⁇ v2) every predetermined time.
  • is a positive constant.
  • the identity of the movement directions of the touch positions P1 and P2 is determined to be the same when, for example, the value of cos of the angle ⁇ formed by the movement vectors v1 and v2 is smaller than a predetermined threshold value.
  • the movement vector for scrolling the content 13 may be arbitrarily selected from the movement vectors v1 and v2. For example, the movement vector having the larger movement distance calculated in the above procedure may be selected.
  • Step S108 Display determination
  • the content control unit 109 terminates the process if the object 4 enters the display area of the display unit 110, and if the object 4 does not enter the display area.
  • the touch information acquisition unit 103 acquires the touch position
  • the direction determination unit 104 determines the presence direction of the object 4
  • the vibration presentation position determination unit 105 determines the touch position where the vibration is presented
  • the tactile sensation signal to be presented is determined by the presentation vibration determination unit 106 and the presence direction of the object is presented by vibration by the multipoint simultaneous vibration control unit 107 until the object 4 enters the display area of the display unit 110.
  • the haptic input / output device 100 assigns the position of an object that exists outside the display area to the target object among a plurality of touch positions that exist on the touch panel. It presents vibration at close touch positions and does not present vibration at other touch positions that are touched at the same time. More specifically, when the object exists on the left side of the display area of the display, vibration by the first tactile sensation signal is presented to the touch position on the left side of the two touch positions, and the object exists on the right side. In the case, the vibration caused by the first tactile sensation signal is presented to the touch position on the right side of the two touch positions, and the upper side of the two touch positions when the object is on the upper side of the display area of the display.
  • the vibration due to the second tactile sensation signal is present at the touch position on the lower side of the two touch positions.
  • the direction in which the object exists is presented.
  • the direction in which the target object exists can be presented to the user, and the content moving operation for displaying the target object again in the display area can be efficiently achieved.
  • the object 4 has been described as an example.
  • the present invention is not limited to this.
  • the number of touches is set for a plurality of objects.
  • the object that presents the direction can be changed by the number of assignments and the number of touches.
  • the direction in which the document should be scrolled can be switched and presented depending on the number of touch positions.
  • the position double-tapped with two fingers or the position double-tapped with three fingers is registered as a destination associated with the number of touches, and the direction in which they exist is registered. It goes without saying that it can be presented by vibration according to the number of touches.
  • the touch position closest to the object is vibrated based on the positional relationship between the top and bottom or the left and right of the touch position and two types of tactile signals as to whether the object is above or below the display area.
  • the panel 101 is touched with three fingers as shown in FIG. 7A.
  • the vibration due to the first tactile sensation signal is presented only at the leftmost touch position (for example, the index finger), and the object 4 is present on the right side of the display unit 110.
  • vibration due to the first tactile sensation signal is presented only at the rightmost touch position (for example, the ring finger).
  • the presentation in the vertical direction it is shown that the object is present on the upper side by presenting the vibration by the first tactile signal only at the center touch position (for example, the middle finger) among the three touch positions, and the second tactile signal It may be shown that the object exists on the lower side by presenting the vibration according to.
  • the finger can be guided not only to the direction of the object outside the display range of the display but also to the button within the display range.
  • a direction with a destination can be determined in an outdoor environment. Needless to say, it can be presented by vibration.
  • FIG. 8 is a block diagram showing a more detailed configuration of the multipoint simultaneous vibration control unit.
  • the multipoint simultaneous vibration control unit 107 includes a transfer characteristic storage unit 201, a transfer characteristic acquisition unit 202, a filter calculation unit 203, a tactile signal storage unit 204, and a filter calculation unit 205.
  • a transfer characteristic storage unit 201 includes a transfer characteristic storage unit 201, a transfer characteristic acquisition unit 202, a filter calculation unit 203, a tactile signal storage unit 204, and a filter calculation unit 205.
  • the transfer characteristic storage unit 201 is, for example, a hard disk or a semiconductor memory.
  • the transfer characteristic storage unit 201 stores, for each point on the panel 101, the transfer characteristic from each actuator 102 to the point. That is, the transfer characteristic storage unit 201 stores transfer characteristics for a plurality of positions on the panel 101 and a plurality of actuators 102 in association with combinations of positions and actuators 102.
  • Transfer characteristics indicate the relationship between input and output in the system.
  • the actuator drive signal corresponds to the input
  • the vibration at one point on the panel corresponds to the output.
  • the transfer characteristic G ( ⁇ ) matches the output Y ( ⁇ ) (impulse response).
  • the transfer characteristic storage unit 201 stores, for each point on the panel 101, an impulse response from each actuator 102 to the point as a transfer characteristic.
  • the impulse response may be expressed in the time domain or in the frequency domain. That is, the transfer characteristic storage unit 201 may store a time waveform of an impulse response, or may store a spectrum of the impulse response.
  • each point on the panel 101 may be, for example, a representative point (for example, the center or the center of gravity) of each divided area on the panel 101.
  • the divided areas are obtained, for example, by dividing the area on the panel 101 into a grid pattern in units of 10 mm.
  • the shape of the divided regions is not necessarily rectangular, and may be other shapes.
  • the size of the divided areas does not have to be the same in all the divided areas. For example, the size of the divided area may be different depending on the position on the panel 101.
  • each divided area is smaller (that is, the number of divided areas is larger), the resolution of tactile sensation presentation can be improved, but the storage capacity for storing transfer characteristics increases. That is, since the resolution and the storage capacity are in a trade-off relationship, the size of each divided region may be determined based on the necessary resolution or the allowable storage capacity.
  • the transfer characteristic storage unit 201 stores N (N is an integer greater than or equal to 2) on the panel 101 from each of M (M is an integer greater than or equal to 2) actuators 102 (A1, A2,..., AM).
  • N is an integer greater than or equal to 2
  • M is an integer greater than or equal to 2
  • actuators 102 A1, A2,..., AM.
  • M M ⁇ N transfer characteristics up to each of (1) positions (P1 (x1, y1), P2 (x2, y2),..., PN (xN, yN)) are stored.
  • FIG. 9 shows a path through which vibration propagates from the actuator 102 to a certain position on the panel 101.
  • the vibration at the position Pi is a vibration that directly reaches the position Pi (xi, yi) from the actuator Aj, a vibration that is reflected by the edge of the panel 101 and reaches the position Pi (xi, yi), and the like.
  • the transfer characteristics include the propagation characteristics of all paths from the actuator Aj to a certain position Pi on the panel.
  • transfer characteristics may be expressed in the time domain or in the frequency domain.
  • the transfer characteristic expressed in the time domain and the transfer characteristic expressed in the frequency domain are equivalent as information and can be converted into each other.
  • the transfer characteristic from the actuator Aj to the position Pi (xi, yi) can be acquired by measuring, for example, vibration (impulse response) at the position Pi (xi, yi) when an impulse is input to the actuator Aj. .
  • the impulse response can completely represent the characteristics of the system from the actuator Aj to the position Pi (xi, yi). Therefore, in this embodiment, an impulse response is used as the transfer characteristic.
  • the impulse response may be measured using TSP (Time Stretched Pulse) instead of the impulse.
  • TSP Time Stretched Pulse
  • TSP is a signal whose time axis is extended more than the impulse by changing the phase of the impulse in proportion to the square of the frequency, as shown in Equation (3).
  • FIG. 10A shows an example of a TSP.
  • H (n) represents TSP in the frequency domain.
  • j represents an imaginary unit (the square root of ⁇ 1).
  • k is a constant and represents the degree of expansion and contraction.
  • n represents a discrete frequency unit.
  • H * represents a complex conjugate of H.
  • the actuator Aj is driven using a signal obtained by performing inverse Fourier transform on the TSP shown in Equation (3), and vibration at a position Pi (xi, yi) on the panel 101 (hereinafter referred to as “TSP response”). Is measured.
  • the measurement method need not be limited, but vibration (TSP response) is measured using, for example, a Doppler displacement meter.
  • FIG. 10B shows an example of a TSP response.
  • the impulse response is calculated using the measured TSP response. Specifically, an impulse response is calculated by performing a convolution operation using the inverse function of TSP shown in Expression (2).
  • H-1 (n) represents the inverse function of TSP.
  • FIG. 10C shows an example of the inverse function of TSP.
  • FIG. 10D shows an example of an impulse response calculated from the TSP response of FIG. 10B.
  • the impulse response from the actuator Aj to the position Pi (xi, yi) is measured using the TSP.
  • Such measurement is performed using M actuators 102 (A1, A2,..., AM) and N positions (P1 (x1, y1), P2 (x2, y2),..., PN (xN, By performing for all combinations with yN)), M ⁇ N transfer characteristics are obtained.
  • the M ⁇ N transfer characteristics obtained in this way are stored in the transfer characteristic storage unit 201.
  • the transfer characteristic measurement method is not limited to the method described above.
  • the transfer characteristic may be measured using an M-sequence signal.
  • the transfer characteristic may be measured using a Gaussian random number.
  • the transfer characteristic acquisition unit 202 acquires a transfer characteristic corresponding to each touch position acquired by the touch information acquisition unit 103 from a plurality of transfer characteristics stored in the transfer characteristic storage unit 201. That is, the transfer characteristic acquisition unit 202 reads the transfer characteristic from each actuator 102 to each touch position from the transfer characteristic storage unit 201.
  • the filter calculation unit 203 is an example of a filter acquisition unit.
  • the filter calculation unit 203 acquires a filter for generating a desired drive signal by performing filter processing on an arbitrary tactile signal.
  • the desired drive signal means that the panel 101 vibrates according to an arbitrary tactile signal at the first touch position where vibration is presented, and the panel 101 does not vibrate at the second touch position where vibration is not presented. This is a signal for driving the actuator 102.
  • the filter calculation unit 203 presents a tactile sensation only at the first touch position among the plurality of touch positions acquired by the touch information acquisition unit 103 using the transfer characteristic acquired by the transfer characteristic acquisition unit 202.
  • a filter for not presenting tactile sensation at the second touch position is calculated. A more specific filter calculation method will be described later.
  • the tactile signal storage unit 204 is, for example, a hard disk or a semiconductor memory.
  • the tactile sensation signal storage unit 204 stores the tactile sensation signal generated by the presentation vibration determination unit 108, and each of FIGS. 7A and 7B is an example of a tactile sensation signal.
  • the tactile sensation signal may be any signal as long as the tactile sensation can be presented to the user, but may be determined based on the vibration characteristics of the panel 101, for example.
  • the tactile sensation signal may be, for example, a signal having a resonance frequency of the panel 101 or a frequency in the vicinity thereof. Thereby, energy efficiency can be improved.
  • the tactile sensation signal is generated online by the presentation vibration determination unit 108 based on the setting value of the setting information, but the generated signal is stored in the tactile sensation signal storage unit 204 and the actuator 102 is driven.
  • the signal is generated by the filter processing unit 205.
  • the presentation vibration determination unit 108 conversely stores the tactile sensation signals corresponding to the setting values of the setting information as shown in FIG. 7A and FIG. 7B in advance in the tactile sensation signal storage unit 204 and based on the setting values.
  • the configuration may be selected.
  • the filter processing unit 205 uses the filter for each actuator 102 calculated by the filter calculation unit 203 to filter (filter) the tactile sensation signal stored in the tactile signal storage unit 204, thereby A drive signal for driving is generated.
  • Each actuator 102 vibrates the panel 101 according to the drive signal generated by the filter processing unit 205 in this way.
  • vibration based on the tactile sensation signal is generated only at the first touch position among the plurality of touch positions, and vibration is suppressed at the second touch position where no vibration is presented.
  • the multipoint simultaneous vibration control unit 107 can present a tactile sensation to the user at the vibration presenting position and not present a tactile sensation at the second touch position where no vibration is presented.
  • FIG. 11 is a flowchart showing the processing operation of the haptic input / output device 100 according to the first embodiment.
  • FIG. 12 is a diagram for explaining the processing operation of the haptic input / output device 100 according to the first embodiment.
  • the transfer characteristic acquisition unit 202 acquires transfer characteristics corresponding to the first touch position and the second touch position determined by the vibration presentation position determination unit 107 from the transfer characteristic storage unit 201.
  • the transfer characteristic acquisition unit 202 includes transfer characteristics g11, g12, g13, and g14 from the actuators A1, A2, A3, and A4 to the touch position P1, and actuators A1, A2, and A3.
  • A4 to the touch position P2 and transfer characteristics g21, g22, g23, and g24 are read from the transfer characteristic storage unit 201.
  • the first touch position (presentation position) is P1
  • the second touch position (non-presentation position) is P2.
  • Step S202 Calculate filter
  • the filter calculation unit 203 calculates a filter for presenting the tactile sensation at the presentation position and not presenting the tactile sensation at the non-presentation position. Specifically, the filter calculation unit 203 calculates a filter using the transfer characteristics from each actuator 102 to the presentation position and the transfer characteristics from each actuator 102 to the non-presentation position. For example, the filter calculation unit 203 uses a transfer characteristic g11, g12, g13, g14, g21, g22, g23, and g24 as a filter for presenting a tactile sensation at the touch position P1 and not presenting a tactile sensation at the touch position P2. calculate.
  • the transfer characteristic (impulse response) gij from the actuator Aj to the touch position Pi is expressed as in Expression (5).
  • a filter hj for generating a drive signal for the actuator Aj is expressed as in Expression (6).
  • the response (output) di at the touch position Pi with respect to the inputs to all the actuators A1 to AM is expressed as in Expression (7).
  • Lg represents the length of the impulse response.
  • L represents a filter length (filter length). The longer the filter length, the finer control is possible.
  • a response at one touch position Pi with respect to an input to one actuator Aj is calculated by a convolution operation of the filter hj and the transfer characteristic gij. Then, by superimposing responses at one touch position Pi for an input to one actuator Aj for all actuators A1 to AM, a response di at one touch position Pi for inputs to all actuators A1 to AM is calculated. can do. That is, the response di can be expressed as in Expression (8) using the filter hj and the transfer characteristic gij.
  • responses d1 to dN at the touch positions P1 to PN with respect to inputs to the actuators A1 to AM include transfer characteristics gij from the actuators Aj to the touch positions Pi, a filter hj to be calculated, and It is expressed as the sum of the results of the convolution operation.
  • the filter calculation unit 203 indicates that the sum of the transfer characteristic from each actuator 102 to the presentation position and the convolution calculation result in the time domain of the filter indicates an impulse, and the transfer characteristic and filter from each actuator 102 to the non-presentation position.
  • the filter is calculated so that the sum of the results of the convolution operation in the time domain is zero.
  • the filter can be calculated as shown in Equation (9) by calculating the general inverse matrix G * of G. That is, H indicating the desired filter can be calculated from the general inverse matrix G * of G and D indicating the impulse.
  • Equation (9) can be solved.
  • Equation (9) it is desirable that the transfer characteristics gij from the plurality of actuators 102 do not have the same zero point at each position.
  • the transfer characteristics at two arbitrary points are different.
  • An actuator 102 can be arranged.
  • the zero point is a frequency at which the level of transfer characteristics is 0 or close to 0 in the frequency domain. In other words, even if the input includes a zero point frequency component, the output hardly includes the frequency component.
  • the panel 101 does not vibrate at that frequency at that position no matter what signal is input. That is, the vibration cannot be controlled at a specific frequency. Therefore, it is desirable that the transfer characteristic from at least one actuator 102 has a characteristic that is not a zero point at each frequency to be controlled.
  • FIG. 13 shows an example of a filter. Specifically, FIG. 13 shows a filter calculated when the touch position P1 is determined as the presentation position in FIG.
  • Step S203 Filter the tactile signal
  • the filter processing unit 205 drives the actuators 102 by performing filter processing on the tactile sensation signal stored in the tactile sensation signal storage unit 204 using the filter calculated in step S202.
  • a drive signal is generated.
  • the filter processing unit 205 generates a drive signal for the actuator Aj by performing a convolution operation between the tactile sensation signal S (n) and the filter hj (n).
  • the tactile sensation signal S (n) the tactile sensation signal shown in FIG. 7A to be presented at the touch position P1 determined according to the set value by the presentation vibration determining unit 108 and stored in the tactile sensation signal storage unit 204 is used.
  • An example of filtering will be described.
  • the filter processing unit 205 generates a drive signal uj (n) for driving the actuator Aj as shown in Expression (10). That is, the filter processing unit 205 performs a convolution operation between the tactile sensation signal s (n) and the filter hj (n) calculated by the filter calculation unit 203 to generate the drive signal uj (n).
  • FIG. 14 shows an example of the drive signal. That is, FIG. 14 shows an example of the drive signal generated by the filter processing unit 205 according to Expression (10). More specifically, FIG. 14 shows a drive signal generated by processing the tactile sensation signal shown in FIG. 7A using the filter shown in FIG.
  • Step S204 Drive the actuator
  • the actuator Aj is driven using the drive signal uj (n) generated in step S203. That is, the actuator Aj vibrates the panel 101 according to the drive signal uj (n).
  • the actuator 102 may include an amplifier for amplifying the drive signal.
  • FIG. 15 shows an experimental result of vibration of the panel 101 at each touch position. Specifically, FIG. 15 shows the vibration of the panel 101 at the touch positions P1 and P2 when the actuator 102 is driven using the drive signal shown in FIG.
  • the difference between the vibration peaks (hereinafter referred to as “amplitude intensity”) is about 30 ⁇ m, indicating that the vibration is strong.
  • the amplitude intensity is about 1 ⁇ m, and it can be seen that it vibrates only to the extent that humans cannot sense it.
  • FIG. 15 the vibration characteristics at the touch positions P1 and P2 are shown. However, vibrations are also generated at positions other than the touch positions P1 and P2. However, since positions other than the touch positions P1 and P2 are positions not touched by the user, no tactile sensation is presented to the user regardless of any vibrations.
  • tactile sensation is presented at the first touch position where vibration is presented, and tactile sensation is presented at the second touch position where vibration is not presented. Can not present. Therefore, a tactile sensation can be presented only for a touch input that requires a tactile sensation among a plurality of touch positions.
  • the filter is calculated in the time domain in the first embodiment, but it goes without saying that the processing load can be reduced by calculating this in the frequency domain. . It goes without saying that the processing load can be further reduced by limiting the processing to a frequency band that humans feel as a tactile sensation.
  • the processing load can be reduced by performing the processing until calculating the filter offline instead of online.
  • driving signals are calculated and stored in advance for all the combination patterns of a plurality of touch positions, and further selected by selecting according to the combination pattern of touch positions. Needless to say, the processing load can be reduced, and even different computing resources can present different vibrations for each touch position.
  • the actuator 102 is driven by a drive signal obtained by adding the signal 1 and the vibration signal of FIG. 4B with P2 as the first touch position and the drive signal 2 for not presenting the vibration of FIG. 4B with P1 as the second touch position. It goes without saying that by driving, the vibration of FIG. 4A can be presented to P1 and the vibration of FIG. 4B can be presented to P2 simultaneously.
  • the panel may be composed of a flexible display and may include an actuator that locally vibrates the surface.
  • the user can scroll the content 13 such as a map or a document with one or more fingers while allowing the user to grasp the direction of the object outside the display area by vibration.
  • another vibration is applied to the touch position when the object enters the display area from the outside of the display area (or when a touch operation after entering the object is performed).
  • the actuator 102 can be driven by a drive signal that gives a vibration having a larger amplitude.
  • vibration may be applied to all touching fingers, or the number of stimuli may be increased.
  • the user can scroll the content 13 such as a map or a document with one or more fingers while allowing the user to grasp the direction of the object outside the display area by vibration.
  • the magnitude or type of vibration is changed according to the distance between the object and the display area boundary (or touch position).
  • the user can grasp the distance between the object and the display area by tactile sense by increasing the vibration (or vice versa) or increasing the number of vibration stimuli (or vice versa) as the display area is approached.
  • the user can grasp not only the direction of the object but also the sense of distance from the display area through the sense of touch, so that the user can prepare to stop the scrolling operation.
  • the haptic input / output device of the first embodiment the content in which the target object can be presented to the user and the target object is displayed again in the display area. Can be efficiently achieved.
  • the driving of the actuator 102 is stopped and the panel 101 is not vibrated.
  • the input state or the state of the device may be fed back by vibration after the touch position is released.
  • the detection order, the moving direction, and the spatial order are calculated based on the time-series information of the touch position.
  • the present invention is not limited to this, for example, the number of touches notified from the touch panel driver to the operating system, You may calculate using touch events, such as a touch number, a touch start event, a touch continuation event, and a touch end event, together.
  • vibration is presented when the touch position is detected, when the touch position is moved, and when the touch position is stopped after the movement of the touch position.
  • the present invention is not limited to this.
  • vibration may be presented when the contact area of the finger at the touch position is greater than or equal to a predetermined threshold or when another multi-touch gesture is detected.
  • the haptic input / output device can operate a device by touch input without setting the device to look at the touch panel or touch pad to be input, the content of the display is watched.
  • the present invention can be applied to an in-vehicle system such as a car navigation system in which it is desired to operate without gazing at the remote control or to operate the display without gazing as much as possible.
  • the user can easily confirm the setting item received by the device by touch, so touch It can be applied to the operation of various devices with input devices.
  • tactile input / output devices such as tablet terminals, game consoles, TV remote controls, digital cameras, movies, personal computers, personal digital assistants, mobile phones, electronic blackboards and digital signage displays operated by touch input such as touch panels and touchpads It can be applied to.
  • tactile input / output devices for home appliances equipped with touch panels such as washing machines and microwave ovens
  • tactile input / output devices for devices equipped with touch panels such as mobile phones and tablet terminals that control home appliances Can be applied.
  • the tactile input / output device can be applied to operations of various devices provided with a touch input device in addition to a car navigation system.
  • tactile input / output devices such as tablet terminals, game consoles, TV remote controls, digital cameras, movies, personal computers, personal digital assistants, mobile phones, electronic blackboards and digital signage displays operated by touch input such as touch panels and touchpads Is available.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

パネル(101)と、パネル(101)を振動させるための複数のアクチュエータ(102)と、パネル(101)の複数の位置で検出されるタッチ入力の複数のタッチ位置の時系列情報から、タッチ位置の移動方向および移動距離を算出する移動入力判定部(108)と、コンテントを表示する表示部(110)と、コンテント上のオブジェクトの表示部(110)に対する存在方向を判定する方向判定部(104)と、オブジェクトとの距離が最短である第1のタッチ位置と、同時に検出されている第2のタッチ位置とを決定する振動提示位置決定部(105)と、第1のタッチ位置に提示する振動を示す触感信号を、存在方向から決定する提示振動決定部(106)と、第1のタッチ位置に所定の振動を提示し、かつ第2のタッチ位置に当該振動を提示しない制御を行う多点同時振動制御部(107)と、タッチ位置の移動方向と移動距離に基づいて、コンテントをスクロールして表示させるコンテント制御部(109)とを備える。

Description

タッチパネルデバイスとタッチパネルデバイスの制御方法
 本発明は、タッチ入力により操作するGUIなどのオブジェクトが存在する方向を、タッチパネルを振動させることによりユーザに出力するものである。特に、複数の指による複数のタッチ位置を同時に検出できるマルチタッチパネルを用いて、複数の指おのおのに同時に異なる振動を提示することにより、GUIなどのオブジェクトが存在する方向をユーザに提示する触覚入出力装置に関する。
 近年、スマートフォン、タブレット、車載用ナビゲーション機器、パソコン、ゲーム機、ATM、券売機など様々な機器に、タッチパネルやタッチパッドが搭載されている。これらタッチパネルを搭載した機器においては、操作するGUIなどのオブジェクトをディスプレイに表示し、ユーザは目視によりGUIの位置を確認してタッチすることによりオブジェクトを操作する。
 また、スマートフォンやタブレットなどには、複数の指による複数のタッチ位置を同時に検出できるマルチタッチパネルが搭載され、複数のタッチ位置の移動に応じてオブジェクトの拡大、縮小、回転など直感的な操作が実用化されている。
 上記のようなタッチパネル搭載機器においては、通常、タッチパネルは機械的なボタンスイッチとは異なり、GUIなどのオブジェクトを操作したときには、ボタンスイッチを押したときのような操作した感覚が得られない。このため、オブジェクトを操作したときにタッチパネルを振動させることにより、操作が受け付けられた結果をユーザに認識させる技術が実用化されている。
 しかしながら、上記の振動により操作結果を確認させる技術では、次に操作されるべきGUIがどこに存在するのかを提示することができないという課題があった。
 上記の課題に対し、特許文献1では、タッチパネルをディスプレイの縦および/または横方向に所定の振動パターンにより変位させることにより、タッチパネルに触れた状態の指先をディスプレイに表示されている所定のボタン位置まで誘導することが開示されている。
日本国特許第3888099号公報
 特許文献1の技術では、タッチパネルをディスプレイの縦および/または横方向に所定の振動パターにより変位させることにより、タッチパネルに触れた状態の指先をディスプレイに表示されている所定のボタン位置まで誘導することにより、例えば、次に操作されるべきボタンの情報をユーザに知らせることができる。
 しかしながら、特許文献1の技術は、ユーザの指をディスプレイの縦および/または横方向に変位させる振動パターンにより、指をボタンの位置まで誘導する方式であるため、GUIの存在方向へ指をタッチパネル上でなぞって移動させる際の指の皮膚の変形方向と、ボタンの存在位置へ誘導するための振動による指の皮膚の変形方向とが逆になるため、指の移動を妨げるなど、指をスムーズに移動させる入力操作がしづらいという課題を、発明者らは発見した。
 そこで、本発明は、パネルのディスプレイに対して縦および/または横方向に変位させることなく、マルチタッチパネルで検出される複数のタッチ位置のうち、目的とするGUIに近いタッチ位置に振動を提示し、同時にタッチされているその他のタッチ位置に振動を提示しないことにより、振動が提示されているタッチ位置と振動が提示されていないタッチ位置の位置関係に基づいて、目的とするGUIが存在する方向の提示を可能とする触覚入出力装置を提供する。また、本発明は、例えば、電子地図や電子ドキュメントなどのオブジェクトを拡大、縮小、スクロールさせることによって、注目していた情報が、ディスプレイの表示領域外に出た場合に、注目していた情報がディスプレイ表示領域外のどの方向に存在するのかを、ユーザに提示することができる触覚入出力装置を提供する。
 本発明の一態様に係る触覚入出力装置は、ユーザによるタッチ入力を受け付けて結果を振動により出力するパネルと、前記パネルの互いに異なる位置に設置され、前記パネルを振動させるための複数のアクチュエータと、前記パネルの複数の位置で同時に検出されるタッチ位置を取得するタッチ情報取得部と、前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出する移動入力判定部と、コンテントを表示する表示部と、コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定する方向判定部と、前記複数のタッチ位置とオブジェクトの位置を比較し、オブジェクトとの距離が最短であるタッチ位置を振動を提示する第1のタッチ位置として決定し、第1のタッチ位置以外の同時に検出されているタッチ位置を振動を提示しない第2のタッチ位置として決定する振動提示位置決定部と、前記振動提示位置決定部で決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定する提示振動決定部と、前記第1のタッチ位置に所定の振動を提示し、かつ前記第2のタッチ位置に前記所定の振動を提示しないように各アクチュエータの駆動信号を算出し、算出した前記駆動信号により前記アクチュエータを駆動して前記パネルの振動をタッチ位置別に同時に制御する多点同時振動制御部と、前記移動入力判定部で算出されたタッチ位置の移動方向と移動距離に基づいて、コンテントをスクロールして表示部に表示する制御を実行するコンテント制御部とを備える。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明の一態様に係る触覚入出力装置の効果の一つは、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、目的とするGUIが存在する方向を適切にユーザに確認させることができる。
図1Aは、本発明の実施の形態1における触覚入出力装置の構成を示すブロック図である。 図1Bは、本発明の実施の形態1におけるタブレット機器の動作及び表示を示す図である。 図2は、本発明の実施の形態1における触覚入出力装置の構造を示す図である。 図3Aは、コンテントとオブジェクト位置を操作するタッチ入力とパネルの振動位置の一例を示す図である。 図3Bは、コンテントとオブジェクト位置を操作するタッチ入力とパネルの振動位置の一例を示す図である。 図3Cは、コンテントとオブジェクト位置を操作するタッチ入力とパネルの振動位置の一例を示す図である。 図4Aは、触感信号の一例を示す図である。 図4Bは、触感信号の一例を示す図である。 図5は、本発明の実施の形態1における触覚入出力装置の動作を示すフローチャートである。 図6は、コンテント制御パターンの一例を示す図である。 図7Aは、3点タッチでの方向提示の一例を示す図である。 図7Bは、3点タッチでの8方向提示の一例を示す図である。 図8は、本発明の実施の形態1における多点同時振動制御部の構成の一例を示すブロック図である。 図9は、アクチュエータからパネル上のある位置に振動が伝播する経路を示す図である。 図10Aは、TSPの一例を示す図である。 図10Bは、TSP応答の一例を示す図である。 図10Cは、TSPの逆関数の一例を示す図である。 図10Dは、TSP応答から算出されるインパルス応答の一例を示す図である。 図11は、本発明の実施の形態1における多点同時振動制御部の動作を示すフローチャートである。 図12は、本発明の実施の形態1における多点同時振動制御部の処理動作を説明するための図である。 図13は、フィルタの一例を示す図である。 図14は、駆動信号の一例を示す図である。 図15は、各タッチ位置におけるパネルの振動の実験結果を示す図である。
 (本発明の基礎となった知見)
 本発明者らは、特許文献1に開示されている技術は、ユーザの指をディスプレイの縦および/または横方向に変位させる振動パターンにより、指をボタンの位置まで誘導する方式であるため、GUIの存在方向へ指をタッチパネル上でなぞって移動させる際の指の皮膚の変形方向と、ボタンの存在位置へ誘導するための振動による指の皮膚の変形方向とが逆になるため、指の移動を妨げるなど、指をスムーズに移動させる入力操作がしづらいという課題を発見した。
 そこで、本開示は、パネルのディスプレイに対して縦および/または横方向に変位させることなく、マルチタッチパネルで検出される複数のタッチ位置のうち、目的とするGUIに近いタッチ位置に振動を提示し、同時にタッチされているその他のタッチ位置に振動を提示しないことにより、振動が提示されているタッチ位置と振動が提示されていないタッチ位置の位置関係に基づいて、目的とするGUIが存在する方向の提示を可能とする触覚入出力装置を提供する。より具体的には、オブジェクトがディスプレイの表示領域の左側に存在する場合には、2つのタッチ位置のうち左側にあるタッチ位置に第1の触感信号による振動を提示し、オブジェクトが右側に存在する場合には、2つのタッチ位置のうち右側にあるタッチ位置に第1の触感信号による振動を提示し、また、オブジェクトがディスプレイの表示領域の上側にある場合には、2つのタッチ位置のうち上側にあるタッチ位置に第2の触感信号による振動を提示し、逆にオブジェクトが下側に存在する場合には、2つのタッチ位置のうち下側にあるタッチ位置に第2の触感信号による振動を提示することにより、オブジェクトの存在方向を提示する触覚入出力装置を提供する。
 また、本開示は、例えば、電子地図や電子ドキュメントなどのオブジェクトを拡大、縮小、スクロールさせることによって、注目していた情報が、ディスプレイの表示領域外に出た場合に、注目していた情報がディスプレイの表示領域外のどの方向に存在するのかを、ユーザに提示することができるタッチパネルデバイスとその制御方法、触覚入出力装置(A tactile/haptic feedback touch panel apparatus, or a tactile/haptic user interface apparatus)、触覚入出力装置の制御方法(A method of controlling a tactile/haptic feedback touch panel apparatus)、触覚入出力装置の振動方法(A method of vibrating a tactile/haptic feedback touch panel apparatus)を提供する。
 本発明の一態様に係るタッチパネルの制御方法は、タッチパネル表面またはその近傍にマルチタッチ入力された、複数の入力を検出し、検出された前記複数の入力の位置である複数の入力位置を検出し、コンテントの一部又は全てをディスプレイに表示し、前記コンテント上のオブジェクトが前記ディスプレイの表示領域内にあるか表示領域外にあるか決定し、前記オブジェクトが表示領域外にある場合は、前記複数の入力位置のうち、前記オブジェクトとの距離が最も近い入力位置を含む少なくとも1つの位置に対応する位置近傍を振動させ、前記複数の入力位置のうち、前記少なくとも1つの位置に対応する位置近傍以外を振動させない。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。
 本発明の別の一態様に係るタッチパネルの制御方法は、前記オブジェクトと前記オブジェクトとの距離が最も近い入力位置との距離に応じて振動方法を変更する。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。
 本発明の別の一態様に係るタッチパネルの制御方法は、ユーザのなぞり又はタップに応じて前記コンテントをスクロールさせる、タッチパネルデバイスの制御方法であって、前記オブジェクトが表示領域外から表示領域内となったときに、さらに前記タッチパネルを振動させる。
 この構成によれば、ユーザがオブジェクトが表示領域に入ったことを触覚によりユーザが把握できる。
 本発明の別の一態様に係るタッチパネルの制御方法は、前記オブジェクトが表示領域について左右方向の表示領域外にある場合と、前記オブジェクトが表示領域について上下方向の表示領域外にある場合とで、振動方法が異なる。
 この構成によれば、オブジェクトが上下方向か左右方向かどちらの方向に存在するかを適切にユーザに知らせることができる。
 本発明の一態様に係るタッチパネルデバイスは、マルチタッチが入力できるように構成されたタッチパネルと、複数のアクチュエータと、プロセッサを有し、前記プロセッサは、タッチパネル表面またはその近傍にマルチタッチ入力された、複数の入力を検出し、検出された前記複数の入力の位置である複数の入力位置を検出し、コンテントの全て又は一部をディスプレイに表示し、前記コンテント上のオブジェクトが前記ディスプレイの表示領域内にあるか表示領域外にあるか決定し、前記オブジェクトが表示領域外にある場合は、前記複数の入力位置のうち、前記オブジェクトとの距離が最も近い1つを含む少なくとも1つの位置に対応する位置近傍を振動させ、前記複数の入力位置のうち、前記少なくとも1つの位置に対応する位置近傍以外を振動させない、制御を行なう。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。
 本発明の別の一態様に係るタッチパネルデバイスは、前記オブジェクトと前記オブジェクトとの距離が最も近い入力位置との距離に応じて振動方法を変更する。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。
 本発明の別の一態様に係るタッチパネルデバイスは、ユーザのなぞり又はタップに応じて前記コンテントをスクロールさせる、請求項1記載のタッチパネルデバイスであって、前記オブジェクトが表示領域外から表示領域内となったときに、さらに前記タッチパネルを振動させる。
 この構成によれば、ユーザがオブジェクトが表示領域に入ったことを触覚によりユーザが把握できる。
 本発明の別の一態様に係るタッチパネルデバイスは、前記オブジェクトが表示領域について左右方向の表示領域外にある場合と、前記オブジェクトが表示領域について上下方向の表示領域外にある場合とで、振動方法が異なる。
 この構成によれば、オブジェクトが上下方向か左右方向かどちらの方向に存在するかを適切にユーザに知らせることができる。
 本発明の別の一態様に係るタッチパネルデバイスは、前記コンテントは地図である、車載用タッチパネルデバイスである。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、地図上のオブジェクトが存在する方向を適切にユーザに知らせることができる。
 本発明の別の一態様に係るタッチパネルデバイスは、前記コンテントは地図、電子ドキュメント、ブックマーク、又はWebページである。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、地図、電子ドキュメント、ブックマーク、又はWebページ上のオブジェクトが存在する方向を適切にユーザに知らせることができる。
 本発明の一態様に係る触覚入出力装置は、ユーザによるタッチ入力を受け付けて結果を振動により出力するパネルと、前記パネルの互いに異なる位置に設置され、前記パネルを振動させるための複数のアクチュエータと、前記パネルの複数の位置で同時に検出されるタッチ位置を取得するタッチ情報取得部と、前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出する移動入力判定部と、コンテントを表示する表示部と、コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定する方向判定部と、前記複数のタッチ位置とオブジェクトの位置を比較し、(i)オブジェクトとの距離が最短であるタッチ位置を、振動を提示する第1のタッチ位置として決定し、(ii)第1のタッチ位置以外の同時に検出されているタッチ位置を、振動を提示しない第2のタッチ位置として決定する振動提示位置決定部と、前記振動提示位置決定部で決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定する提示振動決定部と、前記第1のタッチ位置に所定の振動を提示し、かつ前記第2のタッチ位置に前記所定の振動を提示しないように各アクチュエータの駆動信号を算出し、算出した前記駆動信号により前記アクチュエータを駆動して前記パネルの振動をタッチ位置別に同時に制御する多点同時振動制御部と前記移動入力判定部で算出されたタッチ位置の移動方向と移動距離に基づいて、コンテントをスクロールして表示部に表示する制御を実行するコンテント制御部とを備える。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。また、目的とするオブジェクトを表示領域内に再度表示させるコンテントの移動操作を効率よく達成することができる。
 本発明の一態様に係る触覚入出力方法は、パネルによりユーザからのタッチ入力に応答して、複数のアクチュエータによる振動により出力する触覚入出力方法であって、前記パネルの複数の位置で同時に検出されるタッチ位置を取得し、前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出し、コンテントを表示し、コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定し、前記複数のタッチ位置のうち、(i)オブジェクトとの距離が最短であるタッチ位置を、振動を提示する第1のタッチ位置として決定し、(ii)第1のタッチ位置以外の同時に検出されているタッチ位置を、振動を提示しない第2のタッチ位置として決定し、決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定し、前記第1のタッチ位置に所定の振動を提示し、かつ前記第2のタッチ位置に前記所定の振動を提示しないようにアクチュエータを駆動し、算出された移動方向と移動距離に基づいて、前記コンテントをスクロールして表示部に表示する。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。また、目的とするオブジェクトを表示領域内に再度表示させるコンテントの移動操作を効率よく達成することができる。
 本発明の一態様に係るコンピュータプログラムは、タッチパネル表面またはその近傍にマルチタッチ入力された、複数の入力を検出し、検出された前記複数の入力の位置である複数の入力位置を検出し、コンテントの一部又は全てをディスプレイに表示し、前記コンテント上のオブジェクトが前記ディスプレイの表示領域内にあるか表示領域外にあるか決定し、前記オブジェクトが表示領域外にある場合は、前記複数の入力位置のうち、前記オブジェクトとの距離が最も近い入力位置を含む少なくとも1つの位置に対応する位置近傍を振動させ、前記複数の入力位置のうち、前記少なくとも1つの位置に対応する位置近傍以外を振動させない、タッチパネルデバイスの制御方法をコンピュータに実行させるためのコンピュータプログラムである。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。
 本発明の別の一態様に係るコンピュータプログラムは、パネルによりユーザからのタッチ入力に応答して、複数のアクチュエータによる振動により出力する触覚入出力方法であって、前記パネルの複数の位置で同時に検出されるタッチ位置を取得し、前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出し、コンテントを表示し、コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定し、前記複数のタッチ位置のうち、(i)オブジェクトとの距離が最短であるタッチ位置を、振動を提示する第1のタッチ位置として決定し、(ii)第1のタッチ位置以外の同時に検出されているタッチ位置を、振動を提示しない第2のタッチ位置として決定し、決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定し、前記第1のタッチ位置に所定の振動を提示し、かつ前記第2のタッチ位置に前記所定の振動を提示しないようにアクチュエータを駆動し、算出された移動方向と移動距離に基づいて、前記コンテントをスクロールして表示部に表示する、触覚入出力方法をコンピュータに実行させるためのコンピュータプログラムである。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。また、目的とするオブジェクトを表示領域内に再度表示させるコンテントの移動操作を効率よく達成することができる。
 本発明の一態様に係るコンピュータ読み取り可能なストレージメディアは、1つ又は複数のプログラムが格納されたコンピュータ読み取り可能なストレージメディアであって、前記1つ又は複数のプログラムは、1つ又は複数のインストラクションを有しており、タッチパネルを有する電子機器によって実行される際に、タッチパネル表面またはその近傍にマルチタッチ入力された、複数の入力を検出し、検出された前記複数の入力の位置である複数の入力位置を検出し、コンテントの一部又は全てをディスプレイに表示し、前記コンテント上のオブジェクトが前記ディスプレイの表示領域内にあるか表示領域外にあるか決定し、前記オブジェクトが表示領域外にある場合は、前記複数の入力位置のうち、前記オブジェクトとの距離が最も近い入力位置を含む少なくとも1つの位置に対応する位置近傍を振動させ、前記複数の入力位置のうち、前記少なくとも1つの位置に対応する位置近傍以外を振動させない、ように前記電子機器に実行させる、コンピュータ読み取り可能なストレージメディアである。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。
 本発明の別の一態様に係るコンピュータ読み取り可能なストレージメディアは、1つ又は複数のプログラムが格納されたコンピュータ読み取り可能なストレージメディアであって、前記1つ又は複数のプログラムは、1つ又は複数のインストラクションを有しており、タッチ入力可能なパネルを有する電子機器によって実行される際に、ユーザから入力された前記パネルの複数の位置で同時に検出されるタッチ位置を取得し、前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出し、コンテントを表示し、コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定し、前記複数のタッチ位置のうち、(i)オブジェクトとの距離が最短であるタッチ位置を、振動を提示する第1のタッチ位置として決定し、(ii)第1のタッチ位置以外の同時に検出されているタッチ位置を、振動を提示しない第2のタッチ位置として決定し、決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定し、前記第1のタッチ位置に所定の振動を提示し、かつ前記第2のタッチ位置に前記所定の振動を提示しないようにアクチュエータを駆動し、算出された移動方向と移動距離に基づいて、前記コンテントをスクロールして表示部に表示するように前記電子機器に実行させる、コンピュータ読み取り可能なストレージメディアである。
 この構成によれば、ユーザがタッチしているどのタッチ位置に振動を提示させるかを制御することにより、オブジェクトが存在する方向を適切にユーザに知らせることができる。また、目的とするオブジェクトを表示領域内に再度表示させるコンテントの移動操作を効率よく達成することができる。
 本明細書において、マルチタッチとは、パネルに同時に接触している状態を有する複数のタッチを意味する。換言すれば、マルチタッチとは、ある時点においてパネルに接触している複数のタッチを意味する。つまり、マルチタッチとは、パネル上の複数の位置に対する複数のタッチであって、時間的に重複する複数のタッチを意味する。したがって、マルチタッチは、同時に開始された複数のタッチだけではなく、異なる時刻に開始され、ある時点において同時に検出される複数のタッチを含む。具体的には、第1タッチが開始された後に、第1タッチが継続された状態で第2タッチが開始された場合、第2タッチの開始時点において、第1タッチと第2タッチとはマルチタッチに相当する。
 以下本発明の実施の形態について、図面を参照しながら説明する。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、請求の範囲を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 実施の形態1の触覚入出力装置は、マルチタッチパネルで検出される複数のタッチ位置のうち、目的とするGUI(アイコン、ボタン等)に最も近いタッチ位置に振動を提示し、同時にタッチされているその他のタッチ位置に振動を提示しない。これにより目的とするGUIが存在する方向を提示することができる。
 例えば、マルチタッチパネルを備えたディスプレイでは、タッチした2つのタッチ位置の距離が離れるように移動させることにより、例えば地図を拡大表示させ、逆に2つのタッチ位置の距離が短くなるように移動させることにより、地図を縮小表示する機能が実現されている。地図を拡大、縮小、または任意方向へスクロールすることにより、目的地周辺の情報を参照する際に、表示されていた目的地などの対象物(アイコンやボタンなどでディスプレイ上に図示される)が、ディスプレイの表示範囲外にでてしまい、地図をどの方向にスクロールすれば、目的地を再度ディスプレイの表示領域内に表示できるのかわからなくなる場合がある。また、マルチタッチパネルを備えたディスプレイがGPSを搭載して現在地に基づいて地図を表示する場合、ディスプレイ装置の移動に伴い地図表示を更新すると、目的地や対象物を示すアイコンやボタンがディスプレイ表示範囲外となることがある。
 実施の形態1では、表示領域外に存在するオブジェクトの位置を、タッチパネル上に存在する複数のタッチ位置のうち、目的とするオブジェクトに最も近いタッチ位置に振動を提示し、同時にタッチされているその他のタッチ位置に振動を提示しない。これにより、上記のようにオブジェクトが表示範囲外にある場合において、目的とするオブジェクトが存在する方向をユーザに提示する。目的とするオブジェクトを表示領域内に再度表示できるよう、オブジェクトの存在する方向を提示するように考慮したものである。より具体的に、2つのタッチ位置があった場合について説明する。オブジェクトがディスプレイの表示領域を越えた左側に存在する場合には、2つのタッチ位置のうち左側にあるタッチ位置に第1の触感信号による振動を提示し、オブジェクトが右側に存在する場合には、2つのタッチ位置のうち右側にあるタッチ位置に第1の触感信号による振動を提示する。また、オブジェクトがディスプレイの表示領域を越えた上側にある場合には、2つのタッチ位置のうち上側にあるタッチ位置に第2の触感信号による振動を提示し、逆にオブジェクトが表示領域を越えた下側に存在する場合には、2つのタッチ位置のうち下側にあるタッチ位置に第2の触感信号による振動を提示することにより、オブジェクトの存在方向を提示するように考慮したものである。
 図1Aは、本発明の実施の形態における触覚入出力装置の構成を示すブロック図である。
 本実施形態の触覚入出力装置100は、パネル101、アクチュエータ102、タッチ情報取得部103、方向判定部104、振動提示位置決定部105、提示振動決定部106、多点同時振動制御部107、移動入力判定部108、コンテント制御部109、表示部110を備える。これに加えて、図示しないが、触覚入出力装置の位置を測定するための位置測定部(GPSモジュール、ジャイロセンサ、電子コンパス等)や地図データを通信(無線LAN、W-CDMA/UMTSやLTEなどの移動通信方式、近距離無線等)によって受信するための通信部及びアンテナを具備することもできる。なお、地図データはメモリに記憶されていてもよい。各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 本発明の実施の形態における触覚入出力装置の例としては、自動車に組み込まれた、あるいは、外付けによる車ナビゲーションシステム、タブレット機器、携帯電話機器、ノート型コンピュータ等である。
 <地図データを表示するタブレット機器の例>
 図1Bは、本触覚入出力装置がタブレット機器310であり、地図データ320を表示する例について説明した図である。タブレット機器310の表示領域は、特に地図を拡大した場合など、地図データ320全体を表示することができない。図1Bにおける地図データは表示領域外と表示領域内の関係を表すために模式的に示されているが、表示領域外の地図が実際に表示されない。オブジェクトとしてのターゲット地点321は、ユーザがターゲットとして設定した、あるいは、タブレット機器310が自動的に設定した地点である。図1Bにおいて、ターゲット地点321はタブレット機器310の表示領域外にあるため、表示されない。ユーザが指1及び指2によってマルチタッチした場合、指2とターゲット地点321の方が指1とターゲット地点321との距離よりも近いため、指2に対応するタッチ位置に第1の触感信号による振動を提示する。言い換えると、ターゲット地点321は画面外の右側にあるため、マルチタッチされた複数の位置のうち、より右側にある指2に対応するタッチ位置に対して振動を提示することになる。振動方法(刺激数や振幅など)、振動位置の決定方法は本明細書に記載されたどの方法も適用できる。
 なお、地図データは世界全体の地図を含むこともできるし、大陸、国、地域などニーズや記憶容量に応じていかなる大きさ地図データでもよい。
 以下、各構成要素について説明する。
 <パネル101>
 パネル101は振動を伝達する部材であり、ユーザのタッチ操作を受け付け、振動することによりタッチ操作が受け付けられたことをユーザに通知する。パネルの材質としては、ガラス、ポリカ、アクリル、ABSなどユーザのタッチ操作に対して耐久性のあるものが好ましい。しかしながらこれらに限定されるものではなく、ユーザに振動がフィードバックできる部材であればよい。
 なお、パネル101の形状、大きさ、厚さ、硬さおよび固定方法などは、特に限定される必要はない。ただし、パネル101の形状、大きさ、厚さ、硬さおよび固定方法などに依存して、アクチュエータ102からパネル101上の各位置(以後、「点」とも呼ぶ)までの振動の伝達特性は変化する。
 <アクチュエータ102>
 アクチュエータ102は、パネル101を振動させ、ユーザに触覚を提示する。アクチュエータ102として、例えば、圧電素子、振動モータ、ボイスコイル、人工筋肉などを用いることができる。
 図2は、アクチュエータ102のパネル101への配置の一例である。アクチュエータ102は、例えば、接着剤など(図示しない。アクチュエータ102が圧電素子の場合、エポキシ系の接着剤などを用いればよい。)でパネル101に固定する。
 本実施の形態では、アクチュエータ102の数を、パネル101をタッチ操作するタッチ位置の数以上とする例で説明する。これにより、アクチュエータ102の数M(Mは2以上の整数)と同数の同時に検出されるタッチ位置に対して、互いに異なる振動を提示することができる。本実施の形態においては、図2に示すように、アクチュエータ102の数は4、タッチ位置の数は2(指1および指2)とした。
 アクチュエータ102の配置位置は、特に限定される必要はない。例えば、複数のアクチュエータ102は、パネル101を効率良く振動させることができるように配置されればよい。また、アクチュエータ102の数を4としたが、これに限るものではない。
 <タッチ情報取得部103>
 タッチ情報取得部103は、パネル101に対するユーザの複数のタッチ位置を取得する。
 説明の便宜上、図2に示すように、例えば2本の指、指1および指2でタッチ操作されている場合、時刻tにおける指1および指2の2つのタッチ位置をそれぞれP1(x1(t)、y1(t))、P2(x2(t)、y2(t))で表す。図2では、紙面に対して表示部110の左上隅を原点Oとする2次元平面のxy座標を用いてタッチ位置を表す。
 タッチ情報取得部103としては、例えば静電容量方式や抵抗膜方式などのマルチタッチパネルを用いることができる。例えば、タッチ情報取得部103が静電容量方式のマルチタッチパネルで構成される場合、タッチ情報取得部103は、マルチタッチによる静電容量の変化に基づいて複数のタッチ位置を取得する。また例えば、タッチ情報取得部103が感圧方式のマルチタッチパネルで構成される場合、タッチ情報取得部103は、マルチタッチによる圧力の変化に基づいて、複数のタッチ位置を取得する。
 なお、マルチタッチの検出は、静電容量方式あるいは感圧方式のマルチタッチパネルに限定される必要はない。どのような方式のマルチタッチ検出方式であっても構わない。例えば、指の位置をCCDやCMOSカメラで撮影して画像処理により取得してもよい。あるいはパネル101を透明のアクリル部材としてパネル101の側壁から赤外光を入射すると全反射の性質によりパネル101内に赤外光が閉じ込められるが、タッチ操作によるパネル101のひずみにより漏れた赤外光を、赤外フィルタを備えたカメラにより検出するFTIR(Frustrated Total Internal Reflection)方式などを用いてもよい。
 <方向判定部104>
 方向判定部104は、図3Aに示すように、コンテント(又はコンテンツ)3上に存在するオブジェクト4が、表示部110の表示領域(矩形ABCD)に対してどの方向にあるかを判定する。ここでは、説明の便宜上、図3Aにおいては、タッチ位置P1、P2を表すo-xy座標系と、コンテント13上の2次元位置を表す座標系(図示しない)を統合したO-XY座標系を用いて、方向判定の概要を説明する。紙面に対して表示部110の左上隅を原点oとする2次元平面のxy座標と、統合座標系O-XYの関係は次の通りである。x軸は表示部110の長辺上(長軸方向)で定義し、統合座標系のX軸と平行とする。また、y軸は表示部110の短辺上(短軸方向)で定義し、統合座標系のY軸と平行とする。また、紙面に対して表示部110の左上隅である原点oの統合座標系における座標値を(R,R)とし、紙面に対して表示部110の右下隅の座標値を(R,R)とする。このとき、表示部110の表示領域(矩形ABCD)に対して、オブジェクト4(X(t)、Y(t))が存在する方向を、表示部110の表示領域(矩形ABCD)の上端の座標値R、下端の座標値R、左端の座標値R、右端の座標値Rを用いて判定する。図3Aの例では、オブジェクト4の座標値(X(t)、Y(t))とR、R、R、Rを比較し、オブジェクト4は、紙面に対して、表示部110の上端Rより上側の方向、かつ、表示部110の右端Rより右側の方向に存在すると判定する。
 例えばコンテント13としては地図、オブジェクト4としては目的地位置の表示アイコン(以下、目的地とも呼ぶ)とすることができる。なお、コンテント13およびオブジェクト4としては、これに限らず、電子的なドキュメントとすることができる。電子的なドキュメントとしては、例えばコンテント13はWebページ、オブジェクト4はハイパーリンクの位置や画像などのコンテントとすることができる。また、コンテント13を電子ブック、オブジェクト4はブックマークとすることができる。すなわち、表示部110に表示する電子コンテントであって、ユーザがページ移動やスクロール操作をすることにより、オブジェクトが表示領域外にでることがあるものに対して、特に本発明は有効である。
 <振動提示位置決定部105>
 振動提示位置決定部105は、複数のタッチ位置とオブジェクト4の位置を比較し、オブジェクト4との距離が最短であるタッチ位置を振動を提示する第1のタッチ位置として決定し、第1のタッチ位置以外の同時に検出されているタッチ位置を振動を提示しない第2のタッチ位置として決定する。最短距離は、X軸上での距離、Y軸上での距離をそれぞれ算出し、より短いほうの距離を最短距離とする。図3Aにおいて、タッチ位置P1、P2の統合座標系O-XYでの座標値はそれぞれ(X1(t)、Y1(t))、(X2(t)、Y2(t))であり、オブジェクト4の座標値(X(t)、Y(t))と比較すると、X軸上での最短距離はX(t)-X2(t)であり、Y軸上での最短距離はY(t)-Y2(t)であり、どちらの最短距離を選択しても、振動を提示する第1のタッチ位置はP2となり、第1のタッチ位置以外、この場合、タッチ位置P1を振動を提示しない第2のタッチ位置として決定する。
 これによりユーザは、タッチしている複数のタッチ位置のうち、オブジェクト4に最も近いタッチ位置を振動の有無により確認することができる。図3Aの例においては、紙面に対して右側の指(タッチ位置P2)に振動が提示され、左側の指(タッチ位置P1)には振動が提示されないことになる。このとき、ユーザは、右側にオブジェクト4があるから右側の指(タッチ位置P2)に振動が提示されているのか、右側の指は左側の指に対して上側にあるので、オブジェクト4が上側にあるから上側の指(タッチ位置P2)に対して振動が提示されているのかは区別できない。そのため、これらを区別できるようにするため、提示振動決定部で、ユーザに提示する振動を決定する。
 なお、単純にタッチ位置P1,P2のそれぞれとオブジェクト4との直線距離を算出し、より短いほうの距離を最短距離として、最短距離となるタッチ位置を振動を提示するタッチ位置として決定してもよい。
 <提示振動決定部106>
 提示振動決定部106は、振動提示位置決定部105で決定された第1のタッチ位置に提示する振動を示す触感信号を、方向判定部104により決定されたオブジェクト4の存在方向に基づいて決定する。触感信号としては、例えば、オブジェクト4が、紙面に対して表示部110の左端より左の方向または右端より右の方向に存在するときは第1の触感信号を用い、紙面に対して表示部110の上端より上の方向または下端より下の方向に存在するときは第2の触感信号を用いる。第1および第2の信号としては、振動刺激の回数、周波数、振幅などユーザが違いを識別できる信号を用いればよく、例えば、第1の触感信号としては、図4Aに示す1回刺激信号を用い、第2の触感信号としては、図4Bに示す2回刺激信号を用いることができる。
 例えば図3Aの場合、オブジェクト4の位置とタッチ位置P1,P2との最短距離は、X軸上での最短距離はX(t)-X2(t)となるので、図4Aに示す1回刺激信号を提示することにより、ユーザは右側にオブジェクト4が存在することを確認することができる。
 <多点同時振動制御部107>
 多点同時振動制御部107は、前記第1のタッチ位置に前記触感信号が示す振動を提示し、かつ前記第2のタッチ位置に振動を提示しないように各アクチュエータの駆動信号を算出し、算出した前記駆動信号により前記アクチュエータを駆動して前記パネルの振動をタッチ位置別に同時に制御する。
 <移動入力判定部108>
 移動入力判定部108は、タッチ情報取得部103により取得される複数タッチ位置の時系列情報に基づいて、タッチ位置の移動距離を算出する。ユーザは多点同時振動制御部107により振動が提示されるタッチ位置と触感信号の種類に基づいて、オブジェクト4が存在する方向を認識し、表示部110の表示領域内にオブジェクト4を表示させるため、算出したタッチ位置の移動距離に基づいてコンテント13をスクロールする。
 <コンテント制御部109>
 コンテント制御部109は、移動入力判定部108で算出されたタッチ位置の移動方向と移動距離に基づいて、コンテント13をスクロールして表示部110に表示する。さらに、コンテント13を前記移動方向と移動距離に基づいて移動させた結果、オブジェクト4が表示部110の表示領域内に入れば処理を終了し、表示領域内に入らなければ、タッチ情報取得部103に戻ってタッチ位置を取得して、方向判定部104によりオブジェクト4の存在方向を判定して、多点同時振動制御部107によりオブジェクトの存在方向を振動により提示することを繰り返す。表示部110としてはLCD、有機EL、電子ペーパなどのディスプレイを用いることができる。
 <動作>
 上記のように構成された本実施の形態1の触覚入出力装置100の動作を図3から図15に基づいて説明する。
 図5は本発明の実施の形態における触覚入出力装置100の動作を示すフローチャートであり、これに基づいて本実施の形態1における触覚入出力装置100の動作を詳細に説明する。
 本実施の形態1では、図3Aから図3Cに示すように、表示部110に表示されたコンテント13をスクロール制御する電子機器10に触覚入出力装置100を搭載した例で説明する。例えば、表示部110の表示領域外に存在するスクロール操作可能なコンテント13(例えば地図)上のオブジェクト4(例えば目的地を示す表示アイコン)の方向を、パネル101にタッチしている複数のタッチ位置のうち、オブジェクト4に近いタッチ位置にのみ振動を提示することによりユーザに認識させる例で説明する。
 (ステップS101:タッチ情報取得)
 タッチ情報取得部103は、パネル101に対するユーザの複数のタッチ位置を取得する。
 図3Aの例では、例えば2本の指、指1および指2でタッチ操作されている場合、時刻tにおける指1および指2の2つのタッチ位置をそれぞれP1(x1(t)、y1(t))、P2(x2(t)、y2(t))を取得する。タッチ位置P1,P2は例えば10msなどのサンプリング間隔で時系列情報として取得する。
 (ステップS102:オブジェクト方向判定)
 方向判定部104は、図3A、図3B、図3Cに示すように、コンテント13上に存在するオブジェクト4が、表示部110の表示領域(矩形ABCD)に対してどの方向にあるかを判定する。ここでは、説明の便宜上、図3A、図3B、図3Cにおいては、パネル101上のタッチ位置P1、P2を表すo-xy座標系と、コンテント13上の2次元位置を表す座標系(図示しない)を統合したO-XY座標系を用いて、方向判定の概要を説明する。オブジェクト4の座標をL(X(t)、Y(t))で表す。紙面に対して表示部110の左上隅を原点oとする2次元平面のxy座標と、統合座標系O-XYの関係は次の通りである。x軸は表示部110の長辺上で定義し、統合座標系のX軸と平行とする。また、y軸は表示部110の短辺上で定義し、統合座標系のY軸と平行とする。また、紙面に対して表示部110の左上隅である原点oの統合座標系における座標値を(R,R)とし、紙面に対して表示部110の右下隅の座標値を(R,R)とする。このとき、表示部110の表示領域(矩形ABCD)に対して、座標値がL(X(t)、Y(t))であるオブジェクト4が存在する方向を、表示部110の表示領域(矩形ABCD)の上端の座標値R、下端の座標値R、左端の座標値R、右端の座標値Rを用いて判定する。図3Aの例では、オブジェクト4の座標値L(X(t)、Y(t))とR、R、R、Rを比較し、オブジェクト4は、紙面に対して、表示部110の上端Rより上側の方向、かつ、表示部110の右端Rより右側の方向に存在すると判定する。図3Bの例は、タッチ位置P1,P2を移動させて紙面に対して左側の方向へコンテント13をスクロールした例である。図3Bの場合も同様に、オブジェクト4の座標値L(X(t)、Y(t))とR、R、R、Rを比較し、オブジェクト4は、紙面に対して、表示部110の上端Rより上側の方向、かつ、表示部110の左端Rと右端Rの間の方向に存在すると判定する。図3Cの例は、タッチ位置P1,P2を移動させて紙面に対して下側の方向へコンテント13をスクロールした例である。図3Cの場合も同様に、オブジェクト4の座標値L(X(t)、Y(t))とR、R、R、Rを比較し、オブジェクト4は、紙面に対して、表示部110の上端Rと上端Rの間に存在し、かつ、表示部110の左端Rと右端Rの間に存在すると判定する。すなわちこの場合は、表示部110の表示領域(矩形ABCD)にオブジェクト4が表示されたと判定する。
 例えばコンテント13としては地図、オブジェクト4としては目的地位置の表示アイコン(以下、目的地とも呼ぶ)とすることができる。なお、コンテント13およびオブジェクト4としては、これに限らず、電子的なドキュメントとすることができる。電子的なドキュメントとしては、例えばコンテント13はWebページ、オブジェクト4はハイパーリンクの位置や画像などのコンテントとすることができる。また、コンテント13を電子ブック、オブジェクト4はハイライトやブックマークとすることができる。すなわち、表示部110に表示する電子コンテントであって、ユーザがページ移動やスクロール操作をすることにより、オブジェクトが表示領域外にでることがあるものに対して、特に本実施の形態は有効である。
 (ステップS103:振動提示位置決定)
 振動提示位置決定部105は、複数のタッチ位置とオブジェクト4の位置を比較し、オブジェクト4との距離が最短であるタッチ位置を振動を提示する第1のタッチ位置として決定し、第1のタッチ位置以外の同時に検出されているタッチ位置を振動を提示しない第2のタッチ位置として決定する。最短距離は、X軸上での距離、Y軸上での距離をそれぞれ算出し、より短いほうの距離を最短距離とする。図3Aにおいて、統合座標系O-XYでのタッチ位置P1、P2の座標値はそれぞれ(X1(t)、Y1(t))、(X2(t)、Y2(t))であり、オブジェクト4の座標値L(X(t)、Y(t))と比較すると、X軸上での最短距離はX(t)-X2(t)であり、Y軸上での最短距離はY(t)-Y2(t)であり、どちらの最短距離を選択しても、振動を提示する第1のタッチ位置はP2となり、第1のタッチ位置以外、この場合、タッチ位置P1を振動を提示しない第2のタッチ位置として決定する。すなわち、図3Aの場合、斜線で示される指2に振動が提示され、指1には振動を提示しない。図3Bの場合も同様に、統合座標系O-XYでのタッチ位置P1、P2の座標値はそれぞれ(X1(t)、Y1(t))、(X2(t)、Y2(t))であり、オブジェクト4の座標値L(X(t)、Y(t))と比較すると、X軸上での最短距離はX(t)-X2(t)であり、Y軸上での最短距離はY(t)-Y2(t)であり、どちらの最短距離を選択しても、振動を提示する第1のタッチ位置はP2となり、第1のタッチ位置以外、この場合、タッチ位置P1を振動を提示しない第2のタッチ位置として決定する。すなわち、図3Bの場合も、斜線で示される指2に振動が提示され、指1には振動を提示しない。図3Cの場合も同様に、タッチ位置P1、P2の座標値はそれぞれ(X1(t)、Y1(t))、(X2(t)、Y2(t))であり、オブジェクト4の座標値L(X(t)、Y(t))と比較すると、X軸上での最短距離はX(t)-X2(t)であり、Y軸上での最短距離はY(t)-Y2(t)であり、どちらの最短距離を選択しても、振動を提示する第1のタッチ位置はP2となり、第1のタッチ位置以外、この場合、タッチ位置P1を振動を提示しない第2のタッチ位置として決定する。すなわち、図3Bの場合も、斜線で示される指2に振動が提示され、指1には振動を提示しない。
 上記の振動提示位置の決定により、ユーザは、タッチしている複数のタッチ位置のうち、オブジェクト4に最も近いタッチ位置を振動の有無により確認することができる。図3Aの例においては、紙面に対して右側の指(タッチ位置P2)に振動が提示され、左側の指(タッチ位置P1)には振動が提示されない。このとき、ユーザは、右側にオブジェクト4が存在し、左側の指1(タッチ位置P1)より右側にあって、よりオブジェクト4に対して距離が近い右側の指2(タッチ位置P2)に振動が提示されているのか、右側の指2(タッチ位置P2)は左側の指1(タッチ位置P1)に対して上側にあるので、オブジェクト4が上側にあって、よりオブジェクト4への距離が近くなる指2(タッチ位置P2)に対して振動が提示されているのかは区別できない。これらを区別できるようにするため、本実施の形態では2種類の振動を用いる。次のステップS104で、提示振動決定部106により、ユーザに提示する2つの振動を決定する。
 なお、単純にタッチ位置P1,P2のそれぞれとオブジェクト4との直線距離を算出し、より短いほうの距離を最短距離として、最短距離となるタッチ位置を振動を提示するタッチ位置として決定してもよい。
 (ステップS104:提示振動決定)
 提示振動決定部106は、振動提示位置決定部105で決定された第1のタッチ位置に提示する振動を示す触感信号を、方向判定部104により決定されたオブジェクト4の存在方向に基づいて決定する。触感信号としては、例えば、オブジェクト4が、紙面に対して表示部110の左端より左の方向または右端より右の方向に存在するときは第1の触感信号を用い、紙面に対して表示部110の上端より上の方向または下端より下の方向に存在するときは第2の触感信号を用いる。
 より具体的には、オブジェクト4の座標値X(t),Y(t)がそれぞれ[R,R]、[R,R]の範囲内であるかを判定し、X(t),Y(t)の少なくとも一方が範囲外の場合、範囲外であるオブジェクトの座標値について、最短の距離となるR、R、R、Rを選択して、RまたはRが選択されたときは第1の触感信号を用い、RまたはRが選択されたときは第2の触感信号を用いると決定する。
 例えば、図3Aの場合、オブジェクト4の座標値X(t),Y(t)はいずれも、それぞれ[R,R]、[R,R]の範囲外であり、オブジェクト4から最短距離となるのは右端であるRとなるため第1の触感信号選択がされ、かつ、オブジェクト4との距離が最短となる右側の指2のタッチ位置P2にある指2に振動を提示し、タッチ位置P1には振動を提示しない。これにより、図3Aの場合は、まず、ユーザは、オブジェクト4は表示部110の右端Rより右側にあることを確認できる。次に、ユーザは、図3Bに示すように、表示部110の右側にあると通知されたオブジェクト4を、コンテント13を紙面に対して左側の方向へスクロールし、表示部110の表示範囲内に表示するために移動させる。このとき、オブジェクト4の座標値X(t),Y(t)がそれぞれ[R,R]、[R,R]の範囲内であるかを判定し、図3Bの場合、Y(t)が[R,R]の範囲外であるため、オブジェクト4からの最短距離は上端であるRとなるため第2の触感信号が選択され、かつ、オブジェクト4との距離が最短となる上側の指2のタッチ位置P2にある指2に振動を提示し、タッチ位置P1には振動を提示しない。これにより、図3Bの場合、ユーザは、オブジェクト4は表示部110の上端Rより上側にあることを確認できる。次に、ユーザは、図3Cに示すように、表示部110の上側にあると通知されたオブジェクト4を、コンテント13を紙面に対して下側の方向へスクロールし、表示部110の表示範囲内に表示するために移動させる。このとき、オブジェクト4の座標値X(t),Y(t)がそれぞれ[R,R]、[R,R]の範囲内であるかを判定し、図3Cの場合、X(t),Y(t)がいずれも範囲であるため、オブジェクト4が表示部110の表示エリア内に表示されていると判定する。この場合、パネル101の振動は停止してもよいし、オブジェクト4と距離が最短であるタッチ位置を第1のタッチ位置として振動を提示し続けてもよい。
 上記第1触感信号および第2の触感信号としては、振動刺激の回数、周波数、振幅、提示する時間長などユーザが違いを識別できる信号を用いればよく、例えば、第1の触感信号としては、例えば、図4Aに示す刺激信号を用い、第2の触感信号としては、図4Bに示す刺激信号を用いることができる。図4Aに示す触感信号は以下の式(1)により生成したものである。図4Aは、周波数fcの正弦波のr周期分の信号に基づいて前記触感信号をs(n)生成しており、r周期がちょうど半周期になるような変調周波数fmを用いて正弦波を変調したものである。
Figure JPOXMLDOC01-appb-M000001
 ここで、Tsは、サンプリング周期を表す。図4Aの例では、fc=200Hz、r=10であるので、変調周波数fmは10Hzである。このように生成された触感信号は、物理的なスイッチを1回クリックしたような触感を提示するための信号(以下、1回刺激信号と呼ぶ。)として用いることができ、これにより、ユーザは前記設定値が1だけ増減したことを触覚により確認できる。
 同様に、図4Bはr周期がちょうど1周期になるような変調周波数fmを用いて正弦波を変調したものであり、物理的なスイッチを2回連続してクリックしたような触感を提示するための信号(以下、2回刺激信号と呼ぶ。)として用いることができる。
 なお、触感信号は、必ずしも上記のように生成された信号である必要はない。例えば、式(1)に示すような変調が行われる必要はない。つまり、触感信号として、正弦波を用い、その提示する時間長が異なるものを第1の触感信号および第2の触感信号としてもよい。
 なお、周波数fcは、人間が触覚により感知できる周波数であればどのような周波数であってもよい。例えば、周波数fcは、パネル101の振動特性に基づいて決定されればよい。
 例えば、周波数fcは、パネル101の共振周波数と一致するように決定されてもよい。周波数fcがこのように決定されることにより、アクチュエータ102によってパネル101に与えられた振動の減衰を少なくすることができ、効率良く触感を呈示することができる。
 (ステップS105:多点同時振動制御)
 多点同時振動制御部107は、ステップS103およびステップ104で決定された第1のタッチ位置に前記第1または第2の触感信号が示す振動を提示し、かつ前記第2のタッチ位置に前記振動を提示しないように各アクチュエータの駆動信号を算出し、算出した前記駆動信号により前記アクチュエータを駆動して前記パネルの振動をタッチ位置別に同時に制御する。
 具体的には、ステップ104で決定された触感信号に基づいて、オブジェクトが表示部110の表示領域の左側に存在する場合には、2つのタッチ位置のうち左側にあるタッチ位置に第1の触感信号による振動を提示し、オブジェクトが右側に存在する場合には、2つのタッチ位置のうち右側にあるタッチ位置に第1の触感信号による振動を提示する。また、オブジェクトが表示部110の表示領域の上側にある場合には、2つのタッチ位置のうち上側にあるタッチ位置に第2の触感信号による振動を提示し、逆にオブジェクトが下側に存在する場合には、2つのタッチ位置のうち下側にあるタッチ位置に第2の触感信号による振動を提示する。
 なお、多点同時振動制御部107は、タッチ位置P1,P2がタッチ情報取得部103により検出されたタイミングで常にパネル101を振動させてもよいし、所定の時間間隔で振動の提示と停止を繰り返してもよい。また、タッチ位置が1点のときは振動させず、2点のときのみ、方向を提示する振動制御を行うことにより、1本指でコンテント13をスクロールしながら、オブジェクトの方向を知りたくなったタイミングで2点目をタッチすることにより、必要なタイミングでのみ、振動により方向情報を提示でき、ユーザにとって、また消費電力的にも、不必要なパネル振動を抑制することができる。多点同時振動制御部107の具体的な構成と動作の一例については後述する。
 (ステップS106:移動入力判定)
 移動入力判定部108は、タッチ情報取得部103により取得される複数タッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出する。ユーザは多点同時振動制御部107により振動が提示されるタッチ位置と触感信号の種類に基づいて、オブジェクト4が存在する方向を認識し、表示部110の表示領域内にオブジェクト4を表示させるため、算出したタッチ位置の移動方向および移動距離に基づいてコンテント13をスクロールする。
 タッチ位置の移動方向は次のように算出する。ここでは、ステップS101で取得するタッチ位置の時系列情報により、指をパネル101上にタッチしたままタッチ位置を移動させるときの移動方向を算出する。具体的には、サンプリング間隔Δtごとのタッチ位置P1の移動方向を表す移動ベクトルはv1(x1(t)-x1(t-1),y1(t)-y1(t-1))、タッチ位置P2の移動ベクトルはv2(x2(t)-x2(t-1),y2(t)-y2(t-1))で算出する。ただし、(t-1)は1サンプル前の時刻を表す。図3Bにコンテント13をスクロールする移動入力の一例を示す。図3Bは、紙面に対して左側へタッチ位置を移動させることにより、コンテント13を左側へスクロールする例を示している。パネル101上のタッチ位置P1、P2を表すo-xy座標系と、コンテント13上の2次元位置を表す座標系(図示しない)を統合したO-XY座標系において、指1、指2はそれぞれ、時刻(t-1)において、同時にパネル101にタッチしており、タッチ位置P1,P2はそれぞれX1(t-1)、X2(t-1)である。指1、指2のタッチ位置P1,P2の移動方向はそれぞれ、v1=X1(t)-X1(t-1)、v2=X2(t)-X2(t-1)である。同様に、図3Cは、紙面に対して下側へタッチ位置を移動させることにより、コンテント13を下側へスクロールする例を示している。このとき、指1、指2のタッチ位置P1,P2の移動方向はそれぞれ、v1=Y1(t)-Y1(t-1)、v2=Y2(t)-Y2(t-1)である。
 タッチ位置の移動距離は次のように算出する。ユーザが指1でパネル101にタッチした時刻(t=0、移動開始位置P1(X1(0),Y1(0))から時刻t(タッチ位置P1(X1(t)、Y1(t)))までのタッチ位置の移動距離d1(t)を、式(2)により求める。ここで、時刻tで取得したタッチ位置P1(X1(t)、Y1(t))と、時刻(t-Δt)で取得したタッチ位置P1(X1(t-1)、Y1(t-1))が同じであるとき、あるいは、P1(X1(t)、Y1(t))とP1(X1(t-1)、Y1(t-1))の距離が所定の距離より小さいとき、指1のなぞりによるタッチ位置P1の移動は停止したと判定する。タッチ位置の移動が停止したと判定されたとき、移動開始位置をP1(X1(0),Y1(0))で初期化する。また、タッチ位置の移動が停止したと判定された時刻を基点として、サンプリング間隔Δtごとに、タッチ位置の移動が停止したのと同じ位置にタッチが静止しているかを確認し静止時間t1sを記録し更新する。指2によるタッチ位置P2の移動距離d2(t)も式(2)により同様に算出し、P2の静止時間t2sも同様に記録し、更新する。
Figure JPOXMLDOC01-appb-M000002
 (ステップS107:コンテント制御)
 コンテント制御部109は、ステップS106で移動入力判定部108で算出されたタッチ位置の移動方向と移動距離に基づいて、コンテント13をスクロールして表示部110に表示する。
 図6に、タッチ位置の移動方向と移動距離に基づくコンテント13の制御パターンの一例を示す。
 制御パターン[1]は、タッチ情報取得部103で検出されるタッチ数が1であり、かつタッチ位置P1が移動ベクトルv1の方向へ移動している場合であり、このとき、式(2)で算出される移動距離d1だけコンテント13を移動させる表示制御を行う。具体的には、例えば、コンテント13全体を移動ベクトルv1により移動させる。これにより、オブジェクト4の座標値(X(t)、Y(t))は、(X(t-1)+(X1(t)-X1(t-1)),Y(t-1)+(Y1(t)-Y1(t-1)))へ移動する。例えば、図3Bの場合、(X(t)、Y(t))は、(X(t-1)+(X1(t)-X1(t-1)),Y(t-1))に移動し、図3Cの場合、(X(t-1),Y(t-1)+(Y1(t)-Y1(t-1)))へ移動する。
 制御パターン[2]は、タッチ情報取得部103で検出されるタッチ数が1であり、かつタッチ位置P1が移動ベクトルv1の方向へ移動し、式(2)で算出される移動距離d1が所定の閾値D以上で、かつタッチ位置の静止時間t1sが所定の閾値Ts以上の場合であり、すなわち、タッチ位置が所定の距離だけ移動したあと静止を継続する場合に、コンテント13を移動ベクトルv1の方向へ連続的にスクロールする。これにより、オブジェクト4の座標を所定の時間ごとにL+αv1だけ移動させる。ただしαは正の定数である。
 制御パターン[3]は、タッチ情報取得部103で検出されるタッチ数が2、かつタッチ位置P1,P2の移動方向v1とv2が同一のとき、式(2)で算出される移動距離d1またはd2だけコンテント13を移動させる表示制御を行う。具体的には、コンテント13を移動ベクトルv1またはv2の方向へスクロールする。これにより、オブジェクト4の座標は(L+v1)または(L+v2)だけ移動される。ただしαは正の定数である。
 制御パターン[4]は、タッチ情報取得部103で検出されるタッチ数が2、かつタッチ位置P1,P2の移動方向v1とv2が同一、かつ式(2)で算出される移動距離d1またはd2が所定の閾値D以上、かつタッチ位置P1,P2の静止時間t1s、t2sのいずれも所定の閾値Ts以上の場合であり、すなわち、タッチ位置P1,P2が同一方向に所定の距離だけ移動したあと静止を継続する場合に、コンテント13を連続的に移動させる表示制御を行う。具体的には、コンテント13を移動ベクトルv1またはv2の方向へ連続的にスクロールする。これにより、オブジェクト4の座標を所定の時間ごとに(L+αv1)または(L+αv2)だけ移動させる。ただしαは正の定数である。
 タッチ位置P1,P2の移動方向の同一性は、例えば、移動ベクトルv1、v2のなす角θのcosの値が所定の閾値より小さいときに同一であると判定する。また、コンテント13をスクロールする移動ベクトルは、移動ベクトルv1、v2のうちいずれかを任意で選択すればよく、例えば、上記手順で算出した移動距離が大きいほうの移動ベクトルを選択すればよい。
 (ステップS108:表示判定)
 コンテント制御部109は、コンテント13を前記移動方向と移動距離に基づいて移動させた結果、オブジェクト4が表示部110の表示領域内に入れば処理を終了し、表示領域内に入らなければ、ステップS101に戻り、タッチ情報取得部103によりタッチ位置を取得して、方向判定部104によりオブジェクト4の存在方向を判定して、振動提示位置決定部105により、振動を提示するタッチ位置を決定し、提示振動決定部106により提示する触感信号を決定し、多点同時振動制御部107によりオブジェクトの存在方向を振動により提示することをオブジェクト4が表示部110の表示領域に入るまで繰り返す。
 上記の構成と動作により、本実施の形態1にかかる触覚入出力装置100は、表示領域外に存在するオブジェクトの位置を、タッチパネル上に存在する複数のタッチ位置のうち、目的とするオブジェクトに最も近いタッチ位置に振動を提示し、同時にタッチされているその他のタッチ位置に振動を提示しない。より具体的には、オブジェクトがディスプレイの表示領域の左側に存在する場合には、2つのタッチ位置のうち左側にあるタッチ位置に第1の触感信号による振動を提示し、オブジェクトが右側に存在する場合には、2つのタッチ位置のうち右側にあるタッチ位置に第1の触感信号による振動を提示し、また、オブジェクトがディスプレイの表示領域の上側にある場合には、2つのタッチ位置のうち上側にあるタッチ位置に第2の触感信号による振動を提示し、逆にオブジェクトが下側に存在する場合には、2つのタッチ位置のうち下側にあるタッチ位置に第2の触感信号による振動を提示することにより、オブジェクトの存在方向を提示する。
 これにより、目的とするオブジェクトが存在する方向をユーザに提示することができ、目的とするオブジェクトを表示領域内に再度表示させるコンテントの移動操作を効率よく達成することができる。
 なお、上記の実施の形態1の説明では、オブジェクト4は1つの例で説明したが、これに限らず、第1の実施の形態の変形例として、例えば、複数のオブジェクトに対してタッチ数を割り当て、タッチ数によって、方向を提示するオブジェクトを変更できることはいうまでもない。これにより、電子ドキュメント上にマークした複数のハイライト部分を再表示する操作に対して、タッチ位置の数によって、ドキュメントをスクロールすべき方向を切り替えて提示することができる。また、Webコンテントなどのスクロールにおいても、例えば2本指でダブルタップした位置や、3本指でダブルタップした位置を、タッチ数と対応付けられた目的地として登録し、それらが存在する方向をタッチ数に応じて振動により提示できることはいうまでもない。
 なお、実施の形態1では、オブジェクトが表示領域の上下または左右のどちらにあるのかを、タッチ位置の上下または左右の位置関係と2種類の触感信号により、オブジェクトに最も近いタッチ位置を振動させ、その他のタッチ位置を振動させないことによりユーザに認識させる例で説明したが、これに限らず、第1の実施の形態の変形例として、図7Aに示すように、3つの指でパネル101にタッチする場合には、表示部110の左側にオブジェクト4が存在するときには最も左側のタッチ位置(例えば人差し指)にのみ第1の触感信号による振動を提示し、表示部110の右側にオブジェクト4が存在するときには最も右側のタッチ位置(例えば薬指)にのみ第1の触感信号による振動を提示する。上下方向の提示については、3つのタッチ位置のうち中央のタッチ位置(例えば中指)にのみ第1の触感信号による振動を提示することによりオブジェクトが上側に存在することを示し、第2の触感信号による振動を提示することによりオブジェクトが下側に存在することを示してもよい。
 また、第1の実施の形態の別の変形例として、図7Bに示すように、3つの指でパネル101にタッチする場合には、2つのタッチ位置を組みにして振動を提示することにより、上(領域[2])、下(領域[7])左(領域[4])右(領域[5])の方向だけでなく、斜め方向(領域[1]、領域[3]、領域[6]、領域[8]、)を振動により提示することができる。
 なお、実施の形態1の変形例として、ディスプレイの表示範囲外のオブジェクトの方向だけでなく、表示範囲内のボタンへ指を誘導できることはいうまでもない。
 なお、本実施の形態では、タッチパネル平面を含む2次元平面上でのオブジェクトの方向を提示する例で説明したが、さらにジャイロセンサやGPSと組み合わせることにより、屋外環境で、目的地のある方向を振動により提示できることはいうまでもない。
 <多点同時振動制御部107の構成と動作の一例の説明>
 ここで、ステップS106の動作にかかる、第1の実施の形態の構成要素である多点同時振動制御部107の構成と動作の一例を説明する。図8は多点同時振動制御部のより詳細な構成を表すブロック図を示す。本実施の形態の多点同時振動制御部107は、伝達特性記憶部201、伝達特性取得部202、フィルタ算出部203、触感信号記憶部204、フィルタ算出部205を備える。以下、各構成要素と動作について説明する。
 <伝達特性記憶部201>
 伝達特性記憶部201は、例えば、ハードディスクあるいは半導体メモリである。伝達特性記憶部201は、パネル101上の各点について、各アクチュエータ102から当該点までの伝達特性を記憶している。つまり、伝達特性記憶部201は、パネル101上の複数の位置および複数のアクチュエータ102について、位置とアクチュエータ102との組合せに対応付けて伝達特性を記憶している。
 伝達特性は、システムにおける入力と出力との関係を示す。ここでは、アクチュエータの駆動信号が入力に相当し、パネル上の1点における振動が出力に相当する。一般的に、伝達特性G(ω)は、系への入力X(ω)に対する系からの出力Y(ω)の比で表わされる(G(ω)=Y(ω)/X(ω))。例えば、入力X(ω)がインパルスである場合(X(ω)=1)、伝達特性G(ω)は、出力Y(ω)(インパルス応答)と一致する。
 そこで、本実施の形態では、伝達特性記憶部201は、パネル101上の各点について、各アクチュエータ102から当該点までのインパルス応答を伝達特性として記憶している。なお、インパルス応答は、時間領域で表されてもよいし、周波数領域で表わされてもよい。つまり、伝達特性記憶部201には、インパルス応答の時間波形が記憶されてもよいし、インパルス応答のスペクトルが記憶されてもよい。
 ここで、パネル101上の各点は、例えば、パネル101上の各分割領域の代表点(例えば、中心あるいは重心など)であればよい。分割領域は、例えば、パネル101上の領域を10mm単位で格子状に分割して得られる。なお、分割領域の形状は、必ずしも矩形状である必要はなく、その他の形状であっても構わない。また、分割領域の大きさはすべての分割領域で同一である必要はない。例えば、パネル101上の位置によって分割領域の大きさが異なってもよい。
 ここで、各分割領域が小さいほど(つまり、分割領域の数が多いほど)、触感呈示の分解能を向上させことができるが、伝達特性を記憶するための記憶容量は増大する。つまり、分解能と記憶容量とはトレードオフの関係にあるため、必要な分解能あるいは許容される記憶容量などに基づいて、各分割領域の大きさが決定されればよい。
 以下に、伝達特性記憶部201に記憶される伝達特性について、さらに詳細に説明する。
 ここでは、伝達特性記憶部201は、M(Mは2以上の整数)個のアクチュエータ102(A1、A2、・・・、AM)の各々から、パネル101上のN(Nは2以上の整数)個の位置(P1(x1,y1)、P2(x2,y2)、・・・、PN(xN,yN))の各々までのM×N個の伝達特性を記憶しているとして説明する。
 図9は、アクチュエータ102からパネル101上のある位置に振動が伝播する経路を示す。
 図9に示すように、位置Piにおける振動は、アクチュエータAjから位置Pi(xi,yi)に直接到達する振動、およびパネル101の端で反射して位置Pi(xi,yi)に到達する振動などが合成された振動である。したがって、伝達特性には、アクチュエータAjからパネル上のある位置Piまでのあらゆる経路の伝播の特性が含まれる。
 なお、伝達特性は、時間領域で表現されてもよいし、周波数領域で表現されてもよい。時間領域で表現された伝達特性と周波数領域で表現された伝達特性とは、情報としては等価であり、互いに変換することができる。
 アクチュエータAjから位置Pi(xi,yi)までの伝達特性は、例えば、アクチュエータAjにインパルスを入力したときの位置Pi(xi,yi)における振動(インパルス応答)を計測することで取得することができる。インパルス応答は、アクチュエータAjから位置Pi(xi,yi)までの系の特性を完全に表現することができる。そこで、本実施の形態では、伝達特性としてインパルス応答を用いる。
 なお、通常、インパルスが直接印加された場合、インパルスの継続時間が非常に短いために、インパルス応答のSN比が低くなるという傾向がある。そこで、インパルスの代わりにTSP(Time Stretched Pulse)を用いてインパルス応答が測定されてもよい。これにより、SN比が高いインパルス応答を伝達特性として得ることができる。以下に、TSPを用いてインパルス応答を測定する方法について説明する。
 TSPは、式(3)に示すように、インパルスの位相を周波数の2乗に比例して変化させることにより、インパルスよりも時間軸が引き伸ばされた信号である。図10Aは、TSPの一例を示す。
Figure JPOXMLDOC01-appb-M000003
 式(3)において、H(n)は、周波数領域におけるTSPを表す。jは、虚数単位(-1の平方根)を表す。kは、定数であり伸縮の度合いを表す。nは、離散化された周波数単位を表す。H*は、Hの複素共役を表す。
 式(3)に示すTSPを逆フーリエ変換して得られる信号を用いて、アクチュエータAjが駆動され、パネル101上の位置Pi(xi,yi)での振動(以降、「TSP応答」と呼ぶ)が計測される。計測方法は限定される必要はないが、例えばドップラー変位計などを用いて振動(TSP応答)が計測される。図10Bは、TSP応答の一例を示す。
 計測されたTSP応答を用いて、インパルス応答が算出される。具体的には、式(2)に示すTSPの逆関数を用いて畳み込み演算を行なうことにより、インパルス応答が算出される。
Figure JPOXMLDOC01-appb-M000004
 式(4)において、H-1(n)は、TSPの逆関数を表す。図10Cは、TSPの逆関数の一例を示す。また、図10Dは、図10BのTSP応答から算出されるインパルス応答の一例を示す。
 以上のように、TSPを用いて、アクチュエータAjから位置Pi(xi,yi)までのインパルス応答が計測される。このような計測を、M個のアクチュエータ102(A1、A2、・・・、AM)とN個の位置(P1(x1,y1)、P2(x2,y2)、・・・、PN(xN,yN))との全ての組合せについて行うことにより、M×N個の伝達特性が得られる。このようにして得られたM×N個の伝達特性が伝達特性記憶部201に記憶される。
 なお、伝達特性の計測方法は上述の方法に限るものではない。例えば、伝達特性は、M系列信号を用いて計測されてもよい。また例えば、伝達特性は、ガウス乱数を用いて計測されてもよい。
 <伝達特性取得部202>
 伝達特性取得部202は、伝達特性記憶部201に記憶されている複数の伝達特性の中から、タッチ情報取得部103により取得された各タッチ位置に対応する伝達特性を取得する。つまり、伝達特性取得部202は、各アクチュエータ102から各タッチ位置までの伝達特性を伝達特性記憶部201から読み出す。
 <フィルタ算出部203>
 フィルタ算出部203は、フィルタ取得部の一例である。フィルタ算出部203は、任意の触感信号に対するフィルタ処理によって所望の駆動信号を生成するためのフィルタを取得する。ここで、所望の駆動信号とは、振動を提示する第1のタッチ位置でパネル101が任意の触感信号に従って振動し、かつ振動を提示しない第2のタッチ位置でパネル101が振動しないように各アクチュエータ102を駆動するための信号である。
 つまり、フィルタ算出部203は、伝達特性取得部202により取得された伝達特性を用いて、タッチ情報取得部103が取得した複数のタッチ位置のうち、第1のタッチ位置にのみ触感を呈示し、第2のタッチ位置(振動を提示しないタッチ位置)に触感を呈示しないためのフィルタを算出する。より具体的なフィルタの算出方法については後述する。
 <触感信号記憶部204>
 触感信号記憶部204は、例えば、ハードディスクあるいは半導体メモリである。触感信号記憶部204は、提示振動決定部108により生成された触感信号を記憶しており、図7Aおよび図7Bの各々は、触感信号の一例である。
 触感信号は、ユーザに触感を呈示できればどのような信号であってもよいが、例えば、パネル101の振動特性に基づいて決定されてもよい。具体的には、触感信号は、例えば、パネル101の共振周波数あるいはその近傍の周波数の信号であってもよい。これにより、エネルギー効率を向上させることが可能となる。
 本実施の形態では、触感信号は、提示振動決定部108により、設定情報の設定値に基づいてオンラインで生成しているが、生成した信号を触感信号記憶部204に記憶し、アクチュエータ102の駆動信号をフィルタ処理部205により生成する。なお、提示振動決定部108は、逆に、触感信号記憶部204にあらかじめ図7Aおよび図7Bに示すような設定情報の設定値に応じた触感信号を記憶しておき、それらを設定値に基づいて選択する構成としてもよい。
 <フィルタ処理部205>
 フィルタ処理部205は、フィルタ算出部203により算出された各アクチュエータ102のためのフィルタを用いて、触感信号記憶部204に記憶されている触感信号をフィルタ処理(フィルタリング)することにより、各アクチュエータ102を駆動するための駆動信号を生成する。
 各アクチュエータ102は、このようにフィルタ処理部205により生成された駆動信号に従って、パネル101を振動させる。その結果、複数のタッチ位置のうち第1のタッチ位置においてのみ触感信号に基づく振動が発生し、振動を提示しない第2のタッチ位置において振動が抑制される。これにより、多点同時振動制御部107により、振動提示位置においてユーザに触感を呈示し、振動を提示しない第2のタッチ位置において触感を呈示しないことが可能となる。
 <動作>
 次に、以上のように構成された多点同時振動制御部107の各構成要素の動作に関して具体的に説明する。図11は、実施の形態1における触覚入出力装置100の処理動作を示すフローチャートである。図12は、実施の形態1における触覚入出力装置100の処理動作を説明するための図である。
 (ステップS201:伝達特性を取得)
 次に、伝達特性取得部202は、振動提示位置決定部107により決定された第1のタッチ位置および第2のタッチ位置に対応する伝達特性を伝達特性記憶部201から取得する。伝達特性取得部202は、例えば図12に一例を示すように、アクチュエータA1、A2、A3、A4の各々からタッチ位置P1までの伝達特性g11、g12、g13、g14と、アクチュエータA1、A2、A3、A4の各々からタッチ位置P2までの伝達特性g21、g22、g23、g24とを伝達特性記憶部201から読み出す。ここでは、例えば第1のタッチ位置(提示位置)をP1、第2のタッチ位置(非提示位置)をP2とする。
 (ステップS202:フィルタを算出)
 続いて、フィルタ算出部203は、提示位置において触感を提示し、かつ、非呈示位置において触感を提示しないためのフィルタを算出する。具体的には、フィルタ算出部203は、各アクチュエータ102から提示位置までの伝達特性と、各アクチュエータ102から非呈示位置までの伝達特性とを用いてフィルタを算出する。例えば、フィルタ算出部203は、タッチ位置P1において触感を提示し、タッチ位置P2において触感を提示しないためのフィルタを、伝達特性g11、g12、g13、g14、g21、g22、g23、g24を用いて算出する。
 以下に、より具体的なフィルタの算出方法の一例を示す。
 ここでは、アクチュエータAjからタッチ位置Piまでの伝達特性(インパルス応答)gijを、式(5)のように表す。また、アクチュエータAjのための駆動信号を生成するためのフィルタhjを、式(6)のように表す。また、すべてのアクチュエータA1~AMへの入力に対するタッチ位置Piにおける応答(出力)diを、式(7)のように表す。
Figure JPOXMLDOC01-appb-M000005
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 式(5)において、Lgは、インパルス応答の長さを示す。式(6)において、Lは、フィルタの長さ(フィルタ長)を示す。このフィルタ長が長いほど、より細かな制御が可能となる。
 ここで、アクチュエータA1~AMへの入力およびフィルタh1~hMと、1つのタッチ位置Piにおける応答diとの関係を考える。1つのアクチュエータAjへの入力に対する1つのタッチ位置Piにおける応答は、フィルタhjと伝達特性gijとの畳み込み演算によって算出される。そして、1つのアクチュエータAjへの入力に対する1つのタッチ位置Piにおける応答を全てのアクチュエータA1~AMについて重ね合わせることにより、すべてのアクチュエータA1~AMへの入力に対する1つのタッチ位置Piにおける応答diを算出することができる。つまり、応答diは、フィルタhjと伝達特性gijとを用いて式(8)のように表すことができる。
Figure JPOXMLDOC01-appb-M000008
 式(8)に示すように、アクチュエータA1~AMへの入力に対するタッチ位置P1~PNにおける応答d1~dNは、各アクチュエータAjから各タッチ位置Piまでの伝達特性gijと、算出すべきフィルタhjとの畳み込み演算結果の和で表される。
 ここで、複数のタッチ位置P1~PNのうち、タッチ位置Pk(0<k≦N)における応答dkのみがインパルス(dk(0)=1、dk(1)=0、dk(2)=0、・・・、dk(M)=0)となり、他のタッチ位置Pl(0<l≦N、l≠k)における応答が零(dl(0)=0、dl(1)=0、dl(2)=0、・・・、dl(M)=0)となるようなフィルタhjを算出できれば、所望のフィルタを得ることができる。つまり、このように算出されるフィルタhjを用いて任意の触感信号に対してフィルタ処理を行うことにより、タッチ位置Pkでのみ当該任意の触感信号に従って触感を呈示し、他のタッチ位置Pl(l≠k)では触感を呈示しないための駆動信号を生成することができる。
 そこで、フィルタ算出部203は、各アクチュエータ102から呈示位置までの伝達特性とフィルタとの時間領域における畳み込み演算結果の和がインパルスを示し、かつ、各アクチュエータ102から非呈示位置までの伝達特性とフィルタとの時間領域における畳み込み演算結果の和が零を示すように、フィルタを算出する。
 上述のようなフィルタの算出方法は特に限定するものではないが、Gの一般逆行列G*を算出することにより、式(9)のようにフィルタを算出することができる。つまり、Gの一般逆行列G*とインパルスを示すDとから、所望のフィルタを示すHを算出することができる。
Figure JPOXMLDOC01-appb-M000009
 一般に、アクチュエータの数(M)がタッチ位置の数(N)以上であれば、式(9)を解くことができる。なお、任意のタッチ位置の組合せに対して安定的に式(9)を解くためには、各位置において、複数のアクチュエータ102からの伝達特性gijが同じゼロ点を持たないようにすることが望ましい。例えば、タッチ位置の数が2つの場合は、図12に示すようにパネル101の長辺側の端部に2個ずつアクチュエータ102を配置することにより、任意の2点における伝達特性が異なるようにアクチュエータ102を配置することができる。
 なお、ゼロ点とは、周波数領域において、伝達特性のレベルが0または0に限りなく近くなる周波数のことである。つまり、入力にゼロ点の周波数成分が含まれていても、出力には、その周波数成分がほとんど含まれない。
 したがって、全てのアクチュエータ102からある位置までの伝達特性が同じ周波数でゼロ点を有する場合、どのような信号が入力されても、その位置においてその周波数ではパネル101は振動しない。つまり、特定の周波数において振動を制御することができなくなる。したがって、制御対象となる各周波数において、少なくとも1つのアクチュエータ102からの伝達特性が、ゼロ点ではない特性を有するようにしておくことが望ましい。
 図13は、フィルタの一例を示す。具体的には、図13は、図12において、タッチ位置P1が提示位置と決定された場合に算出されたフィルタを示す。
 (ステップS203:触感信号をフィルタ処理)
 次に、フィルタ処理部205は、触感信号記憶部204に記憶されている触感信号に対して、ステップS202において算出されたフィルタを用いてフィルタ処理を行なうことにより、各アクチュエータ102を駆動するための駆動信号を生成する。具体的には、フィルタ処理部205は、触感信号S(n)とフィルタhj(n)との畳み込み演算を行なうことにより、アクチュエータAjのための駆動信号を生成する。
 ここでは、触感信号S(n)としては、提示振動決定部108により設定値に応じて決定され、触感信号記憶部204に記憶されている、タッチ位置P1に提示する図7Aに示す触感信号をフィルタ処理する例で説明する。
 ここで、フィルタ処理についてより詳細に説明する。
 フィルタ処理部205は、式(10)に示すように、アクチュエータAjを駆動するための駆動信号uj(n)を生成する。つまり、フィルタ処理部205は、触感信号s(n)と、フィルタ算出部203により算出されたフィルタhj(n)との畳み込み演算を行うことにより、駆動信号uj(n)を生成する。
Figure JPOXMLDOC01-appb-M000010
 図14は、駆動信号の一例を示す。つまり、図14は、式(10)に従ってフィルタ処理部205によって生成された駆動信号の一例を示す。より具体的には、図14は、図13に示すフィルタを用いて、図7Aに示す触感信号を処理することにより生成された駆動信号を示す。
 (ステップS204:アクチュエータを駆動)
 次に、アクチュエータAjは、ステップS203で生成された駆動信号uj(n)を用いて駆動される。つまり、アクチュエータAjは、駆動信号uj(n)に従ってパネル101を振動させる。
 なお、アクチュエータの種類によっては、高電圧の駆動信号を必要とする場合がある。そのような場合には、アクチュエータ102は、駆動信号を増幅するためのアンプを備えてもよい。
 図15は、各タッチ位置におけるパネル101の振動の実験結果を示す。具体的には、図15は、図15に示す駆動信号を用いてアクチュエータ102が駆動された場合のタッチ位置P1およびP2におけるパネル101の振動を示す。
 タッチ位置P1では、振動のピーク間の差(以後、「振幅強度」と呼ぶ)が約30μmとなっており、強く振動していることが分かる。一方、タッチ位置P2では、振幅強度が約1μmとなっており、人が感知できない程度でしか振動していないことが分かる。
 なお、図15では、タッチ位置P1、P2における振動特性を示したが、タッチ位置P1、P2以外の位置でも振動が生じている。しかしながら、タッチ位置P1、P2以外の位置はユーザにタッチされていない位置であるので、どのような振動が生じていてもユーザに触感が提示されることがない。
 上記の構成と動作により、本実施の形態1における多点同時振動制御部107によれば、振動を提示する第1のタッチ位置に触感を提示し、振動を提示しない第2のタッチ位置において触感を提示しないことができる。したがって、複数のタッチ位置のうち、触感の提示が必要なタッチ入力に対してのみ触感を提示することができる。
 なお、多点同時振動制御部107の変形例1として、実施の形態1では、時間領域においてフィルタの算出を行ったが、これを周波数領域で算出することにより、処理負荷を低減できることは言うまでもない。また、人間が触覚として感じる周波数帯域に処理を限定することによりさらに処理負荷を低減できることもいうまでもない。
 また、多点同時振動制御部107の変形例2として、フィルタを算出するまでの処理を、オンラインではなくオフラインで実施することにより、処理負荷を低減できることはいうまでもない。
 なお、多点同時振動制御部107の変形例3として、あらかじめ複数のタッチ位置の組み合わせパターンのすべてについて、駆動信号を算出して記憶しておき、タッチ位置の組み合わせパターンによって選択することにより、さらに処理負荷を低減でき、より処理能力の低い計算資源でもタッチ位置ごとに異なる振動を提示できることはいうまでもない。
 さらに、多点同時振動制御部107の変形例4として、例えば、第1のタッチ位置P1に図4Aの振動を提示し、第2のタッチ位置P2には図4Aの振動を提示しないための駆動信号1と、P2を第1のタッチ位置として図4Bの振動を提示し、P1を第2のタッチ位置として図4Bの振動を提示しないための駆動信号2とを加算した駆動信号によりアクチュエータ102を駆動することで、P1に図4Aの振動を提示し、かつP2に図4Bの振動を同時に提示することができることはいうまでもない。
 なお、ここで説明した多点同時触感制御部109の構成と動作は一例であり、他の構成と動作とすることもできる。例えばパネルがフレキシブルなディスプレイで構成されており、その表面を局所的に振動させるアクチュエータを備えたものであってもよい。
 <変形された実施の形態1>
 上記説明したように、振動によって表示領域外にあるオブジェクトの方向をユーザに把握させながら、ユーザが指1本又は複数で地図や文書などのコンテント13をスクロールすることができる。このとき、本変形された実施の形態では、オブジェクトが表示領域外から表示領域内に入った際(あるいは入った後のタッチ動作が行なわれた際)に、別の振動をタッチ位置に加える。具体的には、より振幅の大きい振動を与える駆動信号によりアクチュエータ102を駆動することができる。あるいは、タッチしている全ての指に対して振動を加える、又は、刺激数を増加させることでもよい。これにより、ユーザが画面を注視せずにスクロール操作を行なう場合に、オブジェクトが表示領域に入ったことを触覚により把握できる。例えば、オブジェクトが一旦表示領域内に入った場合に、ユーザが気づかないことなどにより、ユーザがスクロール操作をやめずに再び表示領域外に行くことを防ぐことができる。
 <変形された実施の形態2>
 上記説明したように、振動によって表示領域外にあるオブジェクトの方向をユーザに把握させながら、ユーザが指1本又は複数で地図や文書などのコンテント13をスクロールすることができる。このとき、本変形された実施の形態では、オブジェクトと表示領域境界(あるいはタッチ位置)との距離に応じて振動の大きさあるいは種類を変更する。具体的には、表示領域に近づくほど振動を大きく(又はその逆)したり、振動刺激数をより多くする(又はその逆)ことで、オブジェクトと表示領域の距離をユーザが触覚により把握できる。これにより、ユーザがオブジェクトの方向だけでなく表示領域との距離感を触覚を通じて把握できるので、ユーザがスクロール動作を停止する準備を行なうことができる。以上のように、第1の実施の形態の触覚入出力装置によれば、目的とするオブジェクトが存在する方向をユーザに提示することができ、目的とするオブジェクトを表示領域内に再度表示させるコンテントの移動操作を効率よく達成することができる。
 なお、実施の形態1においては、タッチ位置が検出されない場合は、アクチュエータ102の駆動を停止し、パネル101を振動させないことが好ましい。ただし、タッチ位置が離れた後に、入力状態や機器の状態を振動によりフィードバックしてもよい。
 なお、実施の形態1においては、タッチ位置の時系列情報に基づいて、検出順序、移動方向、空間順序を算出したが、これに限らず、例えばタッチパネルドライバからオペレーティングシステムに通知されるタッチ数、タッチ番号、タッチ開始イベント、タッチ継続イベント、タッチ終了イベントなどのタッチイベントを併用して算出してもよい。
 また、実施の形態1では、タッチ位置の検出時、タッチ位置の移動時、タッチ位置の移動後の停止時に振動を提示する例で説明したが、これに限らず、タッチの押圧が所定の閾値以上のとき、タッチ位置での指の接触面積が所定の閾値以上のとき、あるいは他のマルチタッチジェスチャーが検出されたときに振動を提示してもよい。
 上記説明した実施の形態1に係る触覚入出力装置は、タッチ入力により機器を操作する際に、入力するタッチパネルやタッチパッドを注視することなく、機器の設定操作ができるので、ディスプレイのコンテントを注視しながら手元のタッチリモートコントローラを操作する際にはリモコンを注視することなく操作する、あるいはディスプレイをできるだけ注視しないで操作することが望まれるカーナビゲーションなどの車載システムに応用できる。また、設定項目とタッチ位置の空間順序を対応づけ、選択された設定項目に対応するタッチ位置のみを振動させることにより、機器に受け付けられた設定項目をユーザが触覚により容易に確認できるので、タッチ入力装置を供えたさまざまな機器の操作に応用できる。例えば、タッチパネルやタッチパッドなどタッチ入力で操作するタブレット端末、ゲーム機、TV用リモコン、デジタルカメラ、ムービー、パーソナルコンピュータ、携帯情報端末、携帯電話、電子黒板やデジタルサイネージ用ディスプレイなどの触覚入出力装置に応用できる。また、洗濯機、電子レンジなどのタッチパネルが搭載された家電機器の触覚入出力装置、また、家電機器を制御する携帯電話やタブレット端末などでタッチパネルが搭載されている機器の触覚入出力装置としても応用できる。
 以上、例示的な各実施の形態について説明したが、本願の請求の範囲は、これらの実施の形態に限定されるものではない。添付の請求の範囲に記載された主題の新規な教示および利点から逸脱することなく、上記各実施の形態においてさまざまな変形を施してもよく、上記各実施の形態の構成要素を任意に組み合わせて他の実施の形態を得てもよいことを、当業者であれば容易に理解するであろう。したがって、そのような変形例や他の実施の形態も本発明に含まれる。
 本発明にかかる触覚入出力装置は、カーナビゲーションシステムの他、タッチ入力装置を供えたさまざまな機器の操作に応用できる。例えば、タッチパネルやタッチパッドなどタッチ入力で操作するタブレット端末、ゲーム機、TV用リモコン、デジタルカメラ、ムービー、パーソナルコンピュータ、携帯情報端末、携帯電話、電子黒板やデジタルサイネージ用ディスプレイなどの触覚入出力装置に利用可能である。
 1   指
 2   指
 3   指
 10  電子機器
 13  コンテント
 100 触覚入出力装置
 101 パネル
 102 アクチュエータ
 103 タッチ情報取得部
 104 方向判定部
 105 振動提示位置決定部
 106 提示振動決定部
 107 多点同時振動制御部
 108 移動入力判定部
 109 コンテント制御部
 110 表示部
 190 プロセッサ
 201 伝達特性記憶部
 202 伝達特性取得部
 203 フィルタ算出部
 204 触感信号記憶部
 205 フィルタ処理部
 310 タブレット機器
 320 地図データ
 321 ターゲット地点

Claims (16)

  1.  タッチパネル表面またはその近傍にマルチタッチ入力された、複数の入力を検出し、
     検出された前記複数の入力の位置である複数の入力位置を検出し、
     コンテントの一部又は全てをディスプレイに表示し、
     前記コンテント上のオブジェクトが前記ディスプレイの表示領域内にあるか表示領域外にあるか決定し、
     前記オブジェクトが表示領域外にある場合は、
     前記複数の入力位置のうち、前記オブジェクトとの距離が最も近い入力位置を含む少なくとも1つの位置に対応する位置近傍を振動させ、
     前記複数の入力位置のうち、前記少なくとも1つの位置に対応する位置近傍以外を振動させない
     タッチパネルデバイスの制御方法。
  2.  前記オブジェクトと前記オブジェクトとの距離が最も近い入力位置との距離に応じて振動方法を変更する
     請求項1記載のタッチパネルデバイスの制御方法。
  3.  ユーザのなぞり又はタップに応じて前記コンテントをスクロールさせるタッチパネルデバイスの制御方法であって、
     前記オブジェクトが表示領域外から表示領域内となったときに、さらに前記タッチパネルを振動させる
     請求項1記載のタッチパネルデバイスの制御方法。
  4.  前記オブジェクトが表示領域について左右方向の表示領域外にある場合と、
     前記オブジェクトが表示領域について上下方向の表示領域外にある場合とで、
     振動方法が異なる
     請求項1記載のタッチパネルデバイスの制御方法。
  5.  マルチタッチが入力できるように構成されたタッチパネルと、
     複数のアクチュエータと、
     プロセッサを有し、
     前記プロセッサは、
     タッチパネル表面またはその近傍にマルチタッチ入力された、複数の入力を検出し、
     検出された前記複数の入力の位置である複数の入力位置を検出し、
     コンテントの全て又は一部をディスプレイに表示し、
     前記コンテント上のオブジェクトが前記ディスプレイの表示領域内にあるか表示領域外にあるか決定し、
     前記オブジェクトが表示領域外にある場合は、
     前記複数の入力位置のうち、前記オブジェクトとの距離が最も近い1つを含む少なくとも1つの位置に対応する位置近傍を振動させ、
     前記複数の入力位置のうち、前記少なくとも1つの位置に対応する位置近傍以外を振動させない制御を行う
     タッチパネルデバイス。
  6.  前記オブジェクトと前記オブジェクトとの距離が最も近い入力位置との距離に応じて振動方法を変更する
     請求項5記載のタッチパネルデバイス。
  7.  ユーザのなぞり又はタップに応じて前記コンテントをスクロールさせるタッチパネルデバイスであって、
     前記オブジェクトが表示領域外から表示領域内となったときに、さらに前記タッチパネルを振動させる
     請求項5記載のタッチパネルデバイス。
  8.  前記オブジェクトが表示領域について左右方向の表示領域外にある場合と、
     前記オブジェクトが表示領域について上下方向の表示領域外にある場合とで、
     振動方法が異なる
     請求項5記載のタッチパネルデバイス。
  9.  前記コンテントは、地図である
     請求項5から請求項7のいずれか1項に記載のタッチパネルデバイス。
  10.  前記コンテントは、地図、電子ドキュメント、ブックマーク、又はWebページである
     請求項5から請求項7のいずれか1項に記載のタッチパネルデバイス。
  11.  ユーザによるタッチ入力を受け付けて結果を振動により出力するパネルと、
     前記パネルの互いに異なる位置に設置され、前記パネルを振動させるための複数のアクチュエータと、
     前記パネルの複数の位置で同時に検出されるタッチ位置を取得するタッチ情報取得部と、
     前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出する移動入力判定部と、
     コンテントを表示する表示部と、
     前記コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定する方向判定部と、
     前記複数のタッチ位置とオブジェクトの位置を比較し、(i)オブジェクトとの距離が最短であるタッチ位置を、振動を提示する第1のタッチ位置として決定し、(ii)第1のタッチ位置以外の同時に検出されているタッチ位置を、振動を提示しない第2のタッチ位置として決定する振動提示位置決定部と、
     前記振動提示位置決定部で決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定する提示振動決定部と、
     前記第1のタッチ位置に所定の振動を提示し、かつ、前記第2のタッチ位置に前記所定の振動を提示しないように各アクチュエータの駆動信号を算出し、算出した前記駆動信号により前記アクチュエータを駆動して前記パネルの振動をタッチ位置別に同時に制御する多点同時振動制御部と、
     前記移動入力判定部で算出されたタッチ位置の移動方向と移動距離に基づいて、コンテントをスクロールして表示部に表示する制御を実行するコンテント制御部とを
     備える触覚入出力装置。
  12.  パネルによりユーザからのタッチ入力に応答して、複数のアクチュエータによる振動により出力する触覚入出力方法であって、
     前記パネルの複数の位置で同時に検出されるタッチ位置を取得し、
     前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出し、
     コンテントを表示し、
     コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定し、
     前記複数のタッチ位置のうち、(i)オブジェクトとの距離が最短であるタッチ位置を、振動を提示する第1のタッチ位置として決定し、(ii)第1のタッチ位置以外の同時に検出されているタッチ位置を、振動を提示しない第2のタッチ位置として決定し、
     決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定し、
     前記第1のタッチ位置に所定の振動を提示し、かつ、前記第2のタッチ位置に前記所定の振動を提示しないようにアクチュエータを駆動し、
     算出された移動方向と移動距離に基づいて、前記コンテントをスクロールして表示部に表示する
     触覚入出力方法。
  13.  タッチパネル表面またはその近傍にマルチタッチ入力された、複数の入力を検出し、
     検出された前記複数の入力の位置である複数の入力位置を検出し、
     コンテントの一部又は全てをディスプレイに表示し、
     前記コンテント上のオブジェクトが前記ディスプレイの表示領域内にあるか表示領域外にあるか決定し、
     前記オブジェクトが表示領域外にある場合は、
     前記複数の入力位置のうち、前記オブジェクトとの距離が最も近い入力位置を含む少なくとも1つの位置に対応する位置近傍を振動させ、
     前記複数の入力位置のうち、前記少なくとも1つの位置に対応する位置近傍以外を振動させない、
     タッチパネルデバイスの制御方法をコンピュータに実行させるためのコンピュータプログラム。
  14.  パネルによりユーザからのタッチ入力に応答して、複数のアクチュエータによる振動により出力する触覚入出力方法であって、
     前記パネルの複数の位置で同時に検出されるタッチ位置を取得し、
     前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出し、
     コンテントを表示し、
     コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定し、
     前記複数のタッチ位置のうち、(i)オブジェクトとの距離が最短であるタッチ位置を、振動を提示する第1のタッチ位置として決定し、(ii)第1のタッチ位置以外の同時に検出されているタッチ位置を、振動を提示しない第2のタッチ位置として決定し、
     決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定し、
     前記第1のタッチ位置に所定の振動を提示し、かつ前記第2のタッチ位置に前記所定の振動を提示しないようにアクチュエータを駆動し、
     算出された移動方向と移動距離に基づいて、前記コンテントをスクロールして表示部に表示する触覚入出力方法をコンピュータに実行させるためのコンピュータプログラム。
  15.  1つ又は複数のプログラムが格納されたコンピュータ読み取り可能なストレージメディアであって、
     前記1つ又は複数のプログラムは、
     1つ又は複数のインストラクションを有しており、
     タッチパネルを有する電子機器によって実行される際に、
     タッチパネル表面またはその近傍にマルチタッチ入力された、複数の入力を検出し、
     検出された前記複数の入力の位置である複数の入力位置を検出し、
     コンテントの一部又は全てをディスプレイに表示し、
     前記コンテント上のオブジェクトが前記ディスプレイの表示領域内にあるか表示領域外にあるか決定し、
     前記オブジェクトが表示領域外にある場合は、
     前記複数の入力位置のうち、前記オブジェクトとの距離が最も近い入力位置を含む少なくとも1つの位置に対応する位置近傍を振動させ、
     前記複数の入力位置のうち、前記少なくとも1つの位置に対応する位置近傍以外を振動させない、
     ように前記電子機器に実行させる
     コンピュータ読み取り可能なストレージメディア。
  16.  1つ又は複数のプログラムが格納されたコンピュータ読み取り可能なストレージメディアであって、
     前記1つ又は複数のプログラムは、
     1つ又は複数のインストラクションを有しており、
     タッチ入力可能なパネルを有する電子機器によって実行される際に、
     ユーザから入力された前記パネルの複数の位置で同時に検出されるタッチ位置を取得し、
     前記パネルで同時に検出される複数のタッチ位置の時系列情報に基づいて、タッチ位置の移動方向および移動距離を算出し、
     コンテントを表示し、
     コンテント上に存在するオブジェクトが、表示部の表示領域外のどの方向にあるかを判定し、
     前記複数のタッチ位置のうち、(i)オブジェクトとの距離が最短であるタッチ位置を、振動を提示する第1のタッチ位置として決定し、(ii)第1のタッチ位置以外の同時に検出されているタッチ位置を、振動を提示しない第2のタッチ位置として決定し、
     決定された第1のタッチ位置に提示する振動を示す触感信号を、前記方向判定部により決定されたオブジェクトの存在方向に基づいて決定し、
     前記第1のタッチ位置に所定の振動を提示し、かつ前記第2のタッチ位置に前記所定の振動を提示しないようにアクチュエータを駆動し、
     算出された移動方向と移動距離に基づいて、前記コンテントをスクロールして表示部に表示する、
     ように前記電子機器に実行させる
     コンピュータ読み取り可能なストレージメディア。
PCT/JP2013/002076 2012-12-26 2013-03-27 タッチパネルデバイスとタッチパネルデバイスの制御方法 WO2014103085A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014554060A JP6052743B2 (ja) 2012-12-26 2013-03-27 タッチパネルデバイスとタッチパネルデバイスの制御方法
CN201380022753.6A CN104285205B (zh) 2012-12-26 2013-03-27 触控面板器件和触控面板器件的控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201261745850P 2012-12-26 2012-12-26
US61/745,850 2012-12-26

Publications (1)

Publication Number Publication Date
WO2014103085A1 true WO2014103085A1 (ja) 2014-07-03

Family

ID=50974067

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/002076 WO2014103085A1 (ja) 2012-12-26 2013-03-27 タッチパネルデバイスとタッチパネルデバイスの制御方法

Country Status (4)

Country Link
US (1) US9285880B2 (ja)
JP (1) JP6052743B2 (ja)
CN (1) CN104285205B (ja)
WO (1) WO2014103085A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057858A (ja) * 2014-09-10 2016-04-21 三菱電機株式会社 触感制御システムおよび触感制御方法
JP2016219008A (ja) * 2015-05-15 2016-12-22 イマージョン コーポレーションImmersion Corporation ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法
JP2017045418A (ja) * 2015-08-28 2017-03-02 富士通テン株式会社 入力装置、表示装置、及びプログラム
JPWO2016147287A1 (ja) * 2015-03-16 2017-07-13 三菱電機株式会社 地図表示制御装置および地図スクロールの操作感触制御方法
US10096214B2 (en) 2016-09-29 2018-10-09 Tianma Japan, Ltd. Tactile presentation device and control method for the same
JP2018195216A (ja) * 2017-05-19 2018-12-06 ヤフー株式会社 情報表示プログラム、情報表示方法、情報表示装置、及び配信装置

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5862587B2 (ja) * 2013-03-25 2016-02-16 コニカミノルタ株式会社 ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム
JP5849061B2 (ja) * 2013-03-28 2016-01-27 京セラドキュメントソリューションズ株式会社 表示入力装置及びこれを備えた画像形成装置
JP6231774B2 (ja) * 2013-05-23 2017-11-15 キヤノン株式会社 電子機器およびその制御方法
JP6210855B2 (ja) * 2013-11-19 2017-10-11 オリンパス株式会社 操作装置
TWI502474B (zh) * 2013-11-28 2015-10-01 Acer Inc 使用者介面的操作方法與電子裝置
KR20150118813A (ko) * 2014-04-15 2015-10-23 삼성전자주식회사 햅틱 정보 운용 방법 및 이를 지원하는 전자 장치
EP3648072A1 (en) * 2014-07-28 2020-05-06 CK Materials Lab Co., Ltd. A method for providing haptic information
KR102096146B1 (ko) 2014-09-02 2020-04-28 애플 인크. 가변 햅틱 출력을 위한 시맨틱 프레임워크
FR3026866B1 (fr) * 2014-10-02 2019-09-06 Dav Dispositif et procede de commande pour vehicule automobile
FR3026867A1 (fr) * 2014-10-02 2016-04-08 Dav Dispositif et procede de commande pour vehicule automobile
CN105589594B (zh) * 2014-11-06 2019-12-31 天马微电子股份有限公司 电子装置和电子装置的操作控制方法
JP6402823B2 (ja) 2015-04-09 2018-10-10 富士通株式会社 駆動制御装置、電子機器、駆動制御プログラム、及び駆動制御方法
JP6696737B2 (ja) 2015-06-26 2020-05-20 シャープ株式会社 コンテンツ表示装置及びプログラム
CN105549777A (zh) * 2015-12-04 2016-05-04 联想(北京)有限公司 一种电子设备及控制方法
US9927887B2 (en) * 2015-12-31 2018-03-27 Synaptics Incorporated Localized haptics for two fingers
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
EP3291054B8 (en) * 2016-09-06 2019-07-24 Apple Inc. Devices, methods, and graphical user interfaces for haptic mixing
DK179278B1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, methods and graphical user interfaces for haptic mixing
JP6205043B1 (ja) * 2016-10-12 2017-09-27 レノボ・シンガポール・プライベート・リミテッド キーボード、情報処理装置、フィードバック方法、及びプログラム
CN110291492A (zh) * 2016-12-16 2019-09-27 森赛尔股份有限公司 用于人机接口连接的系统
US10678332B2 (en) * 2017-02-02 2020-06-09 International Business Machines Corporation Remotely guiding the positioning of a mobile device
JP2018133021A (ja) * 2017-02-17 2018-08-23 富士通コンポーネント株式会社 触感提示装置及びタッチパネル
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES
US10365719B2 (en) * 2017-07-26 2019-07-30 Google Llc Haptic feedback of user interface scrolling with synchronized visual animation components
US10977910B1 (en) * 2017-09-06 2021-04-13 Apple Inc. Tactile outputs for input structures of electronic devices
KR102462204B1 (ko) * 2017-11-21 2022-11-02 삼성전자주식회사 진동을 제공하기 위한 장치 및 방법
CN108762628B (zh) * 2018-04-23 2020-10-02 广州视源电子科技股份有限公司 页面元素移动显示方法、装置、终端设备及存储介质
CN109254652A (zh) * 2018-08-13 2019-01-22 瑞声科技(新加坡)有限公司 车辆触摸显示屏的触觉反馈方法、系统及控制装置
JP2020042625A (ja) * 2018-09-12 2020-03-19 株式会社東海理化電機製作所 触覚呈示装置及び触覚呈示方法
US10817063B2 (en) * 2019-02-11 2020-10-27 Volvo Car Corporation Facilitating interaction with a vehicle touchscreen using haptic feedback
US20200326779A1 (en) * 2019-04-11 2020-10-15 Apple Inc. Electronic Device Having a Haptic Device with an Actuation Member and a Restoration Mechanism
WO2021015051A1 (ja) * 2019-07-23 2021-01-28 ソニー株式会社 制御装置、制御方法、及び制御プログラム
CN111338527B (zh) * 2020-02-25 2021-11-30 维沃移动通信有限公司 一种方向提示方法及电子设备
WO2021183122A1 (en) * 2020-03-11 2021-09-16 Google Llc Controlling haptic response to contact
CN111427504A (zh) * 2020-04-02 2020-07-17 北京达佳互联信息技术有限公司 内容获取方法、装置、电子设备及存储介质
KR20230124086A (ko) * 2020-12-31 2023-08-24 스냅 인코포레이티드 햅틱 피드백 응답을 갖는 전자 통신 인터페이스
EP4272060A1 (en) 2020-12-31 2023-11-08 Snap Inc. Real-time video communication interface with haptic feedback
WO2022147451A1 (en) 2020-12-31 2022-07-07 Snap Inc. Media content items with haptic feedback augmentations

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105129A (ja) * 1998-09-30 2000-04-11 Sharp Corp 登録地点報知装置
JP2002236543A (ja) * 2001-02-08 2002-08-23 Sony Corp 入力装置
JP2004309962A (ja) * 2003-04-10 2004-11-04 Denso Corp タッチパネル付き表示装置
US20090167704A1 (en) * 2007-12-31 2009-07-02 Apple Inc. Multi-touch display screen with localized tactile feedback
JP2010541071A (ja) * 2007-09-28 2010-12-24 イマージョン コーポレーション 動的な触覚効果を有するマルチタッチデバイス

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3888099B2 (ja) 2001-08-17 2007-02-28 富士ゼロックス株式会社 タッチパネル装置
JP4030437B2 (ja) * 2003-01-23 2008-01-09 アルプス電気株式会社 画像情報表示装置
US7843427B2 (en) * 2006-09-06 2010-11-30 Apple Inc. Methods for determining a cursor position from a finger contact with a touch screen display
US9041653B2 (en) * 2008-07-18 2015-05-26 Htc Corporation Electronic device, controlling method thereof and computer program product
TWI428812B (zh) * 2008-07-18 2014-03-01 Htc Corp 操控應用程式的方法、其電子裝置、儲存媒體,及使用此方法之電腦程式產品
US8686952B2 (en) * 2008-12-23 2014-04-01 Apple Inc. Multi touch with multi haptics
KR101553842B1 (ko) * 2009-04-21 2015-09-17 엘지전자 주식회사 멀티 햅틱 효과를 제공하는 휴대 단말기 및 그 제어방법
KR101629645B1 (ko) * 2009-09-18 2016-06-21 엘지전자 주식회사 휴대 단말기 및 그 동작방법
US8665227B2 (en) * 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
JP2011150467A (ja) 2010-01-20 2011-08-04 Sony Corp タッチパネル組立体及びその駆動方法
US20110285666A1 (en) * 2010-05-21 2011-11-24 Ivan Poupyrev Electrovibration for touch surfaces
US9720586B2 (en) * 2012-08-21 2017-08-01 Nokia Technologies Oy Apparatus and method for providing for interaction with content within a digital bezel
KR101958779B1 (ko) * 2012-09-28 2019-03-15 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
KR102047689B1 (ko) * 2012-12-17 2019-11-22 엘지전자 주식회사 택타일 사용자 인터페이스의 미니-맵을 제공하는 터치 센서티브 디바이스 및 제어 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000105129A (ja) * 1998-09-30 2000-04-11 Sharp Corp 登録地点報知装置
JP2002236543A (ja) * 2001-02-08 2002-08-23 Sony Corp 入力装置
JP2004309962A (ja) * 2003-04-10 2004-11-04 Denso Corp タッチパネル付き表示装置
JP2010541071A (ja) * 2007-09-28 2010-12-24 イマージョン コーポレーション 動的な触覚効果を有するマルチタッチデバイス
US20090167704A1 (en) * 2007-12-31 2009-07-02 Apple Inc. Multi-touch display screen with localized tactile feedback

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057858A (ja) * 2014-09-10 2016-04-21 三菱電機株式会社 触感制御システムおよび触感制御方法
JPWO2016147287A1 (ja) * 2015-03-16 2017-07-13 三菱電機株式会社 地図表示制御装置および地図スクロールの操作感触制御方法
US10365119B2 (en) 2015-03-16 2019-07-30 Mitsubishi Electric Corporation Map display control device and method for controlling operating feel aroused by map scrolling
JP2016219008A (ja) * 2015-05-15 2016-12-22 イマージョン コーポレーションImmersion Corporation ユーザ・インターフェースと対話するユーザに触覚効果を与えるためのシステムおよび方法
JP2017045418A (ja) * 2015-08-28 2017-03-02 富士通テン株式会社 入力装置、表示装置、及びプログラム
US10096214B2 (en) 2016-09-29 2018-10-09 Tianma Japan, Ltd. Tactile presentation device and control method for the same
JP2018195216A (ja) * 2017-05-19 2018-12-06 ヤフー株式会社 情報表示プログラム、情報表示方法、情報表示装置、及び配信装置
JP6990991B2 (ja) 2017-05-19 2022-01-12 ヤフー株式会社 情報表示プログラム、情報表示方法、及び情報表示装置

Also Published As

Publication number Publication date
US9285880B2 (en) 2016-03-15
JPWO2014103085A1 (ja) 2017-01-12
CN104285205B (zh) 2018-02-23
JP6052743B2 (ja) 2016-12-27
CN104285205A (zh) 2015-01-14
US20140176455A1 (en) 2014-06-26

Similar Documents

Publication Publication Date Title
JP6052743B2 (ja) タッチパネルデバイスとタッチパネルデバイスの制御方法
US8933892B2 (en) Touchpad combined with a display and having proximity and touch sensing capabilities to enable different functions or interfaces to be displayed
US8004501B2 (en) Hand-held device with touchscreen and digital tactile pixels
US9448714B2 (en) Touch and non touch based interaction of a user with a device
EP2077490A2 (en) Selective rejection of touch contacts in an edge region of a touch surface
US20090167719A1 (en) Gesture commands performed in proximity but without making physical contact with a touchpad
US9202350B2 (en) User interfaces and associated methods
EP2575007A1 (en) Scaling of gesture based input
JP2011503709A (ja) デジタイザのためのジェスチャ検出
US9170726B2 (en) Apparatus and method for providing GUI interacting according to recognized user approach
US8947378B2 (en) Portable electronic apparatus and touch sensing method
US20110242016A1 (en) Touch screen
CN102385449A (zh) 便携式电子设备和触摸控制方法
WO2011077448A1 (en) Improved touch based electronic device

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13867478

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014554060

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13867478

Country of ref document: EP

Kind code of ref document: A1