WO2012114760A1 - タッチセンサを備えた電子機器 - Google Patents

タッチセンサを備えた電子機器 Download PDF

Info

Publication number
WO2012114760A1
WO2012114760A1 PCT/JP2012/001248 JP2012001248W WO2012114760A1 WO 2012114760 A1 WO2012114760 A1 WO 2012114760A1 JP 2012001248 W JP2012001248 W JP 2012001248W WO 2012114760 A1 WO2012114760 A1 WO 2012114760A1
Authority
WO
WIPO (PCT)
Prior art keywords
application
pressure
touch sensor
predetermined
electronic device
Prior art date
Application number
PCT/JP2012/001248
Other languages
English (en)
French (fr)
Inventor
薫人 富安
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US14/001,152 priority Critical patent/US9727177B2/en
Priority to JP2013500904A priority patent/JP5654114B2/ja
Publication of WO2012114760A1 publication Critical patent/WO2012114760A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Definitions

  • the present invention relates to an electronic device including a touch sensor, and more particularly to an electronic device that controls application software (hereinafter, abbreviated as “application” as appropriate) in response to an operation on the touch sensor.
  • application application software
  • an input device including a touch sensor such as a touch panel or a touch switch as an input device such as an operation unit or a switch that receives an operation by an operator.
  • input devices equipped with touch sensors are widely used in information devices such as calculators and ticket machines, household appliances such as microwave ovens, televisions, and lighting equipment, and industrial equipment (FA devices). .
  • a touch sensor For such a touch sensor, various systems such as a resistive film system, a capacitance system, and an optical system are known.
  • a small electronic device such as a mobile phone is often provided with a touch panel that displays, for example, a key such as a numeric keypad or an icon as an object on a display unit and detects an operator's contact with the object using a touch sensor. .
  • An electronic device equipped with such a touch panel can be configured with various user interfaces by displaying objects according to the application to be activated. Therefore, since the operation is easy for the operator to understand and easy to use, electronic devices equipped with a touch panel are rapidly spreading.
  • Patent Document 1 a technique for preventing malfunction of the touch panel by preventing a pressing error
  • Patent Document 2 and Patent Document 3 a technique for adjusting the sensitivity of the touch panel, and a suitable material
  • Patent Document 4 a technique for saving a job when switching applications using a touch panel
  • Patent Document 5 a technique for displaying shortcut keys on a touch panel has been proposed.
  • an electronic device as described above can usually install a plurality of various applications.
  • Such an electronic device can use one electronic device for various purposes by installing a plurality of applications.
  • FIGS. 10A and 10B schematically show screens displayed on the display unit of the electronic device when these applications are executed.
  • FIG. 10A illustrates a schedule management application being executed in the foreground in the electronic device
  • FIG. 10B is an electronic mail function application being executed in the foreground in the electronic device. It shows how it is.
  • most of applications constitute a user interface in which one application occupies one screen.
  • the operator wants to use the e-mail function in order to confirm the convenience of the schedule to another person when the schedule management application is executed in the foreground.
  • the following scene is assumed.
  • the operator wants to use the schedule management function again after executing the e-mail application in FIG. 10B in the foreground and confirming the convenience of the schedule with the e-mail. Cases are also envisaged.
  • the schedule management application and the electronic mail function application can be executed simultaneously. That is, when switching between applications, the operator does not need to end an application that is already being executed.
  • the operator wishes to start the application by pressing a menu key (MENU), for example. Must be selected and run in the foreground.
  • the electronic device illustrated in FIG. 10C is assumed to be an electronic device including keys and buttons such as a numeric keypad formed using a mechanical switch.
  • the operator must perform an operation of selecting an application desired to be activated.
  • FIG. 10D shows a state in which an icon for starting each application is displayed on the screen in a mobile terminal including a touch panel.
  • the operator in order to switch the application, the operator performs an operation during execution of the application to display a selection screen as shown in FIG. 10D and then selects an icon. Therefore, it is necessary to switch to a desired application.
  • the operation for switching the application is generally time-consuming for the operator in both cases of a single-task electronic device and a multi-task electronic device.
  • Such operations can be quite stressful, especially when applications must be switched frequently.
  • a situation in which an operation of alternately switching between applications as shown in FIGS. 10A and 10B must be frequently performed is also assumed. In such a case, it is very troublesome for the operator to repeatedly perform the same operation of switching applications.
  • an object of the present invention made in view of such circumstances is to provide an electronic device including a touch sensor that can control application software being executed in the background.
  • the invention of the electronic device is as follows: A touch sensor; A pressure detection unit for detecting pressure on the touch sensor; A control unit that controls to switch any of the application software running in the background to the one running in the foreground when detecting data based on pressure that satisfies a predetermined criterion; Is provided.
  • control unit detects data based on a pressure satisfying a predetermined criterion
  • the control unit detects any application software being executed in the background.
  • control is performed so as to sequentially switch to those being executed in the foreground.
  • the invention according to a third aspect is the electronic device according to the first aspect, wherein when the control unit detects data based on a pressure that satisfies a predetermined stage criterion, the predetermined software out of the application software being executed in the background The one corresponding to the criteria of the stage is controlled to be switched to the one running in the foreground.
  • the invention of the electronic device is A touch sensor; A pressure detection unit for detecting pressure on the touch sensor; When detecting data based on pressure satisfying a predetermined criterion, a control unit that controls so that any of the application software running in the background executes a predetermined process; Is provided.
  • the invention according to a fifth aspect is the electronic device according to the fourth aspect, wherein when the control unit detects data based on a pressure that satisfies a predetermined stage criterion, the predetermined software out of the application software being executed in the background Those corresponding to the criteria of the stage are controlled so as to execute predetermined processing.
  • the invention of the electronic device for achieving the above object is as follows: A touch sensor; A pressure detection unit for detecting pressure on the touch sensor; A controller that controls to activate any of the inactive application software upon detecting data based on pressure that meets a predetermined criterion; Is provided.
  • the invention according to a seventh aspect is the electronic device according to the sixth aspect, wherein each time the control unit detects data based on a pressure satisfying a predetermined criterion, the application software is inactive in a predetermined order.
  • the control is performed so as to activate sequentially according to the above.
  • the invention according to an eighth aspect is the electronic device according to the sixth aspect, wherein when the control unit detects data based on a pressure that satisfies a predetermined step criterion, the predetermined step criterion among inactive application software It controls to activate the one corresponding to.
  • the invention of the electronic device is A touch sensor; A pressure detection unit for detecting pressure on the touch sensor; When detecting data based on a pressure satisfying a predetermined criterion, a control unit that controls so that any of the inactive application software executes a predetermined process; Is provided.
  • the invention according to a tenth aspect is the electronic device according to the ninth aspect, wherein when the control unit detects data based on a pressure that satisfies a predetermined step criterion, the predetermined step criterion among inactive application software The one corresponding to the above is controlled so as to execute a predetermined process.
  • an electronic device equipped with a touch sensor that can control application software running in the background. Therefore, the electronic device of the present invention can greatly improve the convenience of the operator who operates the electronic device.
  • FIG. 1 is a functional block diagram showing a schematic configuration of an electronic device including a touch sensor according to the first embodiment of the present invention.
  • Electronic devices according to the present embodiment include, for example, mobile phones, PDAs (Personal Digital Assistants), smart phones, tablet electronic devices, portable terminals such as game machines, ATMs installed in banks, and ticket sales installed in stations. It can be a terminal device used for the machine. That is, this embodiment can be applied to any electronic device as long as it accepts an operator's touch operation by a touch sensor.
  • the electronic device 1 includes a touch sensor 11, a press detection unit 12, a tactile sensation presentation unit 13, a display unit 14, a control unit 15, and a storage unit 16.
  • the touch sensor 11 is a sensor having a touch surface, and detects that an operator's finger or the like has touched (touched) the touch surface.
  • the touch sensor 11 is configured by a system such as a resistive film system, a capacitance system, and an optical system, for example. Further, the touch sensor 11 is made to be a transmissive type and is disposed on the front surface of the display unit 14, and is also used as a sensor for detecting that an operator touches an object such as a key or button displayed on the display unit 14. (So-called touch panel).
  • the pressure detection unit 12 detects pressure on the touch sensor 11, for example, an element such as a strain gauge sensor or a piezoelectric element whose physical or electrical characteristics (distortion, resistance, voltage, etc.) change according to the pressure. Etc. are used.
  • the press detection unit 12 is configured using, for example, a piezoelectric element or the like, the piezoelectric element of the press detection unit 12 has a magnitude (or load (force) of a load (force) related to the press on the touch sensor 11.
  • the voltage magnitude (voltage value) which is an electrical characteristic, changes according to the speed (acceleration) at which the magnitude changes.
  • the pressure detection unit 12 notifies the control unit 15 of the magnitude of the voltage (voltage value (hereinafter simply referred to as data)).
  • the control unit 15 acquires (detects) the data when the press detection unit 12 notifies the control unit 15 of the data, or when the control unit 15 detects data related to the piezoelectric element of the press detection unit 12. To do. That is, the control unit 15 acquires (detects) data based on the pressure applied to the touch sensor 11. That is, the control unit 15 acquires (detects) data based on the pressure from the pressure detection unit 12.
  • the tactile sensation providing unit 13 vibrates the touch sensor 11.
  • the tactile sensation providing unit 13 is configured using, for example, a piezoelectric vibrator.
  • the display unit 14 draws and displays an object such as an input button such as a push button switch (push button switch).
  • the display unit 14 is configured using, for example, a liquid crystal display panel, an organic EL display panel, or the like.
  • the display unit 14 not only displays such a user interface, but also displays various information to be presented to the operator (that is, a display screen configuring the application) according to each application.
  • the control unit 15 controls the entire electronic device 1.
  • the control unit 15 performs various controls including control for each function unit in accordance with various installed applications. For example, when a web browser application is started, various processes related to the function as a web browser are performed. Note that the control unit of the electronic device performs various processes according to the application.
  • the storage unit 16 can be composed of a memory or the like, and stores various applications and various input information, and also functions as a work memory. In particular, in the present embodiment, the storage unit 16 stores (installs) various applications to be executed in the electronic device 1 in advance.
  • FIG. 2 is a diagram showing an example of a mounting structure of the electronic device 1 shown in FIG. 2A is a cross-sectional view of the main part
  • FIG. 2B is a plan view of the main part.
  • the display unit 14 is housed and held in the housing 21.
  • the touch sensor 11 is held on the display unit 14 via an insulator 22 made of an elastic member.
  • display unit 14 and touch sensor 11 are rectangular in plan view.
  • the touch sensor 11 is held on the display unit 14 via the insulators 22 arranged at the four corners deviated from the display area A of the display unit 14 indicated by virtual lines in FIG. .
  • the casing 21 is provided with an upper cover 23 so as to cover the surface area of the touch sensor 11 deviated from the display area of the display unit 14, and an elastic member is provided between the upper cover 23 and the touch sensor 11.
  • An insulator 24 is provided.
  • the front surface member having the touch surface 11a is made of, for example, a transparent film or glass, and the back surface member is made of glass or acrylic.
  • the touch sensor 11 has a structure in which when the touch surface 11a is pressed, the pressed portion is slightly bent (distorted) according to the pressing force, or the structure itself is bent slightly.
  • a strain gauge sensor 31 for detecting a pressure (pressing force) applied to the touch sensor 11 is provided in the vicinity of each side covered with the upper cover 23 by adhesion or the like.
  • a piezoelectric vibrator 32 for vibrating the touch sensor 11 is provided in the vicinity of two opposing sides by adhesion or the like. That is, in the electronic device 1 shown in FIG. 2, the press detection unit 12 shown in FIG. 1 is configured using four strain gauge sensors 31, and the tactile sensation providing unit 13 is configured using two piezoelectric vibrators 32. Has been. And the touch surface 11a is vibrated by vibrating the touch sensor 11 by the tactile sensation providing unit 13.
  • FIG. 2B the casing 21, the upper cover 23, and the insulator 24 shown in FIG. 2A are not shown.
  • FIG. 3 and 4 are flowcharts for explaining application control in accordance with an operation on the electronic apparatus 1 according to the first embodiment.
  • the electronic device 1 according to the present embodiment is executing in the background if it detects data based on a pressure that satisfies a predetermined criterion for the touch sensor 11 while receiving a normal operation by a touch operation on the touch sensor 11. Switch any of these applications to those running in the foreground.
  • the electronic device 1 when the position where the touch operation is detected in the touch sensor 11 is a position corresponding to an icon or the like (object) for starting an application, the electronic device 1 normally starts the application. It is explained including the processing of. In starting the process shown in FIG. 3, it is assumed that the electronic device 1 has already started some application in the foreground.
  • the application to be activated here may be arbitrary, such as the above-described schedule management application or e-mail function application.
  • an icon or the like for starting an application is performed on the display unit 14 of the electronic device 1.
  • An object such as a key is displayed.
  • the object in the present embodiment can be an image that suggests to the operator the position (area) at which a touch operation is accepted. For example, an image representing a state in which numbers and characters are drawn on the key top is displayed on the display unit 14 as an object image.
  • the object in the present embodiment can be an image that suggests to the operator the position (region) for detecting contact for performing an operation on the application being executed in the foreground.
  • an icon image indicating an application to be activated is displayed on the display unit 14 as an object image. At this time, what kind of object is displayed on the display unit 14 depends on the application being executed in the foreground at that time.
  • step S11 when the processing of the electronic device 1 according to the present embodiment starts, the control unit 15 monitors the presence or absence of contact with the touch sensor 11 and also monitors data based on the pressure on the touch sensor 11 (step S11).
  • step S11 when the touch sensor 11 detects contact (touch operation) by a pressing target (pressed object) such as an operator's finger or stylus pen, the process proceeds to step S12.
  • step S12 the control unit 15 determines whether or not the data based on the pressure applied to the touch sensor 11 satisfies a predetermined standard while increasing due to the operator pressing the touch sensor 11.
  • the control part 15 can make the average value of the output of the four strain gauge sensors 31 of the press detection part 12 into the data based on a press, for example.
  • the data based on the pressure satisfying a predetermined standard is set so that a value such as a slightly higher standard is set in advance based on the pressure when the operator performs a normal pressing operation, and the setting can be changed thereafter. Is preferable.
  • the predetermined standard is an excessively low value so that the data based on the pressure is not determined to satisfy the predetermined standard. Do not set. Further, in order to give the operator a pressure sensation for realistic tactile sensation, which will be described later, the predetermined standard is excessively determined by taking into consideration the normal pressing (for example, an average value) based on the operator's intention. Do not set a low value for.
  • step S13 Even if the touch sensor 11 detects contact in step S11, if the control unit 15 has not detected data based on a pressure that satisfies a predetermined standard in step S12, the process proceeds to step S13.
  • step S ⁇ b> 13 the control unit 15 determines whether or not the contact position detected by the touch sensor 11 corresponds to the position of the object displayed on the display unit 14. If the contact position detected by the touch sensor 11 does not correspond to the position of the object in step S13, the operator does not touch the position where the predetermined control by the application is performed, and the control unit 15 returns to step S11. To continue processing. On the other hand, when the position of the contact detected by the touch sensor 11 in step S13 corresponds to the position of the object, the control unit 15 determines whether or not the touch sensor 11 stops detecting the contact (step S14).
  • step S14 If the contact has not yet been released in step S14 (that is, if the operator has continued to touch the touch sensor 11), the control unit 15 returns to step S11 and continues the process.
  • the control unit 15 performs a process corresponding to the object at the position where the contact was detected. Is performed (step S15).
  • the process at this time is defined by the application being executed in the foreground at that time. For example, when contact cancellation is detected at the position of an object that accepts an operation related to input of numbers, characters, etc. during execution of an e-mail application, processing for displaying the numbers, characters, etc. on the display unit 14 is performed. Further, for example, when contact release is detected at the position of the object of the icon that activates the application, processing for activating the application is performed.
  • the electronic device 1 detects a contact release with respect to the touch sensor 11 at the position of the object displayed on the display unit 14 (detects a tap), thereby processing corresponding to the object. It can be performed.
  • step S11 when the touch sensor 11 detects contact in step S11, if the control unit 15 detects data based on a pressure satisfying a predetermined standard in step S12, the process proceeds to step S16.
  • step S ⁇ b> 16 the control unit 15 drives the tactile sensation providing unit 13 with a predetermined drive signal in order to notify the operator that an operation by pressing based on the operator's intention, which is different from a normal touch operation, is detected. Then, the touch sensor 11 is vibrated with a predetermined vibration pattern set in advance to present a first tactile sensation.
  • the control unit 15 presents a tactile sensation to the pressed object pressing the touch surface.
  • the drive of the tactile sensation providing unit 13 is controlled.
  • the tactile sensation providing unit 13 drives the two piezoelectric vibrators 32 in the same phase, for example.
  • step S16 in order to present a realistic tactile sensation to the operator, the electronic device 1 stimulates the tactile sensation in a state in which the pressure sensation of the operator is stimulated by performing the following processing. That is, the electronic device 1 stimulates the pressure sense until the data based on the pressure on the touch sensor 11 satisfies the standard for presenting the tactile sensation. It is driven by a predetermined drive signal to vibrate the touch surface 11a to stimulate the sense of touch. Thereby, the electronic device 1 can present to the operator a tactile sensation similar to that obtained when a button switch such as a push button switch (push button switch) is pressed.
  • a button switch such as a push button switch (push button switch) is pressed.
  • the operator performs an input operation on the touch sensor 11 while obtaining the same realistic tactile sensation as when the actual push button switch is operated. be able to. Further, since the operation can be performed in conjunction with the consciousness that the touch sensor 11 is “pressed”, an operation error can be prevented.
  • the driving signal when presenting the tactile sensation described above that is, the constant frequency, period (wavelength), waveform, and amplitude for stimulating the tactile sensation can be appropriately set according to the tactile sensation to be presented.
  • the tactile sensation providing unit 13 is driven by a drive signal for one cycle consisting of a sine wave having a constant frequency of 170 Hz. To do.
  • the tactile sensation providing unit 13 is driven by such a drive signal, and the touch surface 11a is vibrated by about 15 ⁇ m with the reference pressure Pth applied. As a result, it is possible to present a realistic tactile sensation to the operator as if an actual key was pressed.
  • FIG. 4 is a flowchart illustrating details of the application control process in step S17 in FIG.
  • the control unit 15 first determines whether there is an application running in the background in addition to the application running in the foreground (step S21). ).
  • step S21 If there is no application executing in the background in step S21, there is no application to be switched to the foreground execution. In this case, the control unit 15 notifies the operator to that effect, for example, by displaying on the display unit 14 a display indicating that “an application that is executing the background does not exist” (step S22). At this time, the control unit 15 drives the tactile sensation providing unit 13 to present a tactile sensation different from the tactile sensation when the above-described button is pressed. You may make it notify a person. Thus, in step S22, after notifying the operator that there is no application being executed in the background, the control unit 15 ends the application control process in step S17.
  • step S21 if there is an application being executed in the background in step S21, the control unit 15 shifts the application currently being executed in the foreground to execution in the background (step S23). Next, the control unit 15 switches the application being executed in the background to execution in the foreground (step S24), and then ends the application control process in step S17.
  • step S24 the control unit 15 controls to switch any of the applications running in the background to those running in the foreground.
  • the application that switches to the one running in the foreground is naturally identified.
  • the control unit 15 must specify which of them should be switched to the one running in the foreground.
  • various methods can be envisaged as a method for identifying the application to be executed in the foreground among the plurality of applications being executed in the background.
  • step S17 For example, while a specific application is being executed in the foreground, one application that is highly likely to be linked (or used simultaneously) with the application is specified in advance, and the specified application is specified in the process of step S17.
  • the application can be run in the foreground.
  • the order of shifting to the foreground during execution in the background can be defined in advance as a predetermined order. In this case, every time the process of step S17 occurs, the control unit 15 performs control so as to sequentially switch to the one being executed in the foreground according to this order.
  • the control unit 15 detects data based on a pressure that satisfies a predetermined standard in step S12
  • the data based on the pressure can be detected step by step. That is, for example, for data based on pressure that satisfies a predetermined standard, a predetermined standard that is gradually set higher, such as a first standard, a second standard, and a third standard, is specified in advance. deep.
  • a predetermined standard that is gradually set higher, such as a first standard, a second standard, and a third standard, is specified in advance. deep.
  • the data level based on the pressure is detected after a predetermined short period (for example, 1 second) after the data based on the pressure meets a predetermined standard. Measures can be taken to confirm
  • a corresponding application is defined in advance for each of these predetermined stage criteria.
  • the schedule management application corresponds to the data standard based on the pressure in the first stage
  • the e-mail function application corresponds to the second stage standard
  • the music player application corresponds to the third stage standard
  • the control unit 15 detects data based on the pressure satisfying a predetermined level in step S12, in step S17, the control unit 15 determines a predetermined level in the application being executed in the background. It is possible to control to switch the one corresponding to the one running in the foreground.
  • step S17 After performing the application control process in step S17, the control unit 15 determines whether or not the data based on the pressure on the touch sensor 11 falls below a predetermined standard (step S18). That is, in step S18, it is determined whether or not the operator has weakened the pressing force on the touch sensor 11.
  • step S18 when the data based on the pressure on the touch sensor 11 falls below a predetermined reference, the control unit 15 drives the tactile sensation providing unit 13 with a predetermined drive signal, and uses a predetermined vibration pattern set in advance. 11 is vibrated to present a second tactile sensation (step S19).
  • the tactile sensation presented here is for informing the operator that the application control process has been properly executed.
  • This second tactile sensation can be the same as the first tactile sensation presented in step S16.
  • the first tactile sensation is the tactile sensation of pressing the above-described button
  • the second tactile sensation may be different from the first tactile sensation and may be a tactile sensation when a finger or the like is released from the button.
  • the frequency of the drive signal when presenting the first tactile sensation can be 170 Hz
  • the frequency of the drive signal when presenting the second tactile sensation can be 125 Hz.
  • the touch sensor 11 is set in advance by driving the tactile sensation providing unit 13 with a predetermined drive signal in the same manner as when pressing. By vibrating with a predetermined vibration pattern, it is possible to present a tactile sensation when the pressing is released after the button is pressed. Therefore, in combination with the tactile sensation when the button is pressed, the operator can be presented with a realistic tactile sensation when releasing a finger or the like that is closer to the push button switch.
  • FIG. 5 is a diagram for explaining processing by the electronic apparatus 1 according to the first embodiment.
  • FIG. 5A an example in which the electronic apparatus 1 is executing a schedule management application in the foreground will be described.
  • the electronic device 1 is executing an electronic mail function application in the background.
  • the electronic device 1 since the electronic device 1 is executing the schedule management application in the foreground, the electronic device 1 performs processing corresponding to the operation in the schedule management application by accepting an operator's touch operation. Do. That is, in the state shown in FIG. 5A, the operator performs a touch operation on the touch sensor 11 (in a state where an object is displayed on the display unit 14) of the electronic device 1, thereby performing a schedule management application.
  • the operator can display the details of the schedule of the date or input a schedule such as an event on the date by touching the location of the date.
  • the electronic device 1 As shown in FIG. 5 (B), the e-mail application executed in the background is executed in the foreground. That is, as shown in FIG. 5A, when the operator wants to operate the e-mail application being executed in the background while the schedule management application is being executed in the foreground, any operation of the touch sensor 11 is performed. It is only necessary to manipulate the position so that data based on a pressure satisfying a predetermined criterion is detected.
  • the e-mail application is switched to the foreground execution as shown in FIG. 5B, so that the operator can immediately perform an operation on the application being executed in the background.
  • the electronic device 1 performs processing corresponding to the operation in the e-mail application by accepting an operator's touch operation. For example, when the operator receives an operation for inputting a character, the electronic device 1 can display the character.
  • the touch surface of the touch sensor 11 is pressed again in the state shown in FIG. 5B and the control unit 15 detects data based on the pressure that satisfies a predetermined standard, the electronic device 1 displays the data shown in FIG. Return the schedule management application running in the background to foreground execution, as shown in.
  • the order for shifting to the foreground during execution in the background can be defined in advance as a predetermined order.
  • the electronic device 1 is assumed to be executing in the foreground according to a predetermined order. Switch sequentially. Thereby, the operator can switch the application currently being executed in the background to execution in the foreground one after another quickly.
  • the control unit 15 detects data based on a pressure that satisfies a predetermined criterion
  • the data based on the pressure is detected in each of the first stage, the second stage, and the like, and the predetermined stage A corresponding application can be defined in advance for each of the criteria.
  • the electronic device 1 detects data based on pressure that satisfies a predetermined level when the touch surface of the touch sensor 11 is pressed, the electronic device 1 corresponds to the predetermined level of the application being executed in the background. Switch what to do with what is running in the foreground.
  • the schedule management application corresponds to the standard of data based on the first-stage press
  • the electronic device 1 switches the schedule management application to foreground execution.
  • the e-mail function application corresponds to the data standard based on the second-stage pressure
  • the electronic device 1 switches the electronic mail function application to foreground execution.
  • the electronic device 1 When the electronic device 1 according to the first embodiment described above detects data based on pressure that satisfies a predetermined criterion, the electronic device 1 switches one of the applications running in the background to the one running in the foreground. On the other hand, when the electronic device 1 according to the second embodiment detects data based on a pressure that satisfies a predetermined criterion, the application running in the foreground remains as it is and any application running in the background remains unchanged. To execute a predetermined process.
  • FIG. 6 is a flowchart for explaining the details of the application control process in step S17 in FIG. 3 in the present embodiment.
  • the control unit 15 first determines whether there is an application running in the background in addition to the application running in the foreground (step S31). ).
  • step S31 If there is no application running in the background in step S31, there is no application to be controlled running in the background. In this case, the control unit 15 notifies the operator to that effect, for example, by displaying on the display unit 14 a display indicating that “an application that is executing the background does not exist” (step S32). At this time, the control unit 15 drives the tactile sensation providing unit 13 to present a tactile sensation different from the tactile sensation when the button is pressed. You may make it inform. As described above, after notifying the operator that there is no application being executed in step S32, the control unit 15 ends the application control process in step S17.
  • control unit 15 controls the application being executed in the background to execute a predetermined process while keeping the application currently being executed in the foreground. (Step S33). Then, the control part 15 complete
  • step S33 the control unit 15 controls so that any of the applications being executed in the background executes a predetermined process.
  • an application to be controlled to execute a predetermined process is naturally identified.
  • a predetermined process to be executed by an application running in the background is specified in advance.
  • the predetermined process described above can be a process for stopping the alarm.
  • the application running in the background is a music player
  • the above-described predetermined processing is performed when music being played back by the music player is stopped or when playback is stopped. Can be a process of starting playback, or a process of selecting a song next to the song being played.
  • a predetermined process when data based on a press satisfying a predetermined criterion is detected for a short time is the next song after the song being played.
  • a predetermined process when data based on a pressure satisfying a predetermined standard is detected for a relatively long time can be a process of stopping music being played back by the music player.
  • a quick two-time detection double tap
  • a quick three-time detection A predetermined process different depending on the number of data based on the pressure detected within a predetermined short period, such as a triple tap
  • control unit 15 when there are a plurality of applications being executed in the background, the control unit 15 must specify which of those applications is to execute a predetermined process.
  • various methods can be envisaged as a method for identifying a plurality of applications being executed in the background to execute a predetermined process, as in the first embodiment described above.
  • step S17 the control unit 15 performs control so that the prescribed application is executed while the specified application is being executed in the background.
  • the order in which the predetermined processing is performed while being executed in the background can be defined in advance as the predetermined order. In this case, every time the process of step S17 occurs, the control unit 15 performs control so that the application being executed in the foreground performs a predetermined process without changing the application being executed in the foreground according to this order.
  • the control unit 15 when the control unit 15 detects data based on a pressure satisfying a predetermined standard in step S12, the data based on the pressure can be detected step by step. That is, for example, for data based on pressure satisfying a predetermined criterion, a plurality of predetermined step criteria that are gradually set higher are defined in advance, and an application corresponding to each of the predetermined step criteria is also set in advance. It can be prescribed.
  • the schedule management application corresponds to the data standard based on the pressure in the first stage
  • the e-mail function application corresponds to the second stage standard
  • the music player application corresponds to the third stage standard, etc. Can be made.
  • control unit 15 when the control unit 15 detects data based on the pressure satisfying a predetermined level in step S12, in step S17, the control unit 15 determines a predetermined level in the application being executed in the background. The one corresponding to is controlled so as to execute a predetermined process.
  • FIG. 7 is a diagram for explaining processing by the electronic apparatus 1 according to the second embodiment.
  • FIG. 7A shows a state in which an operator executes an application of a web browser by the electronic device 1 and browses a news article distribution site on the Internet.
  • the electronic device 1 is executing a music player application in the background.
  • the electronic device 1 is executing a music player application in the background, and the music of the song A is output from the earphone 50.
  • the electronic device 1 since the electronic device 1 is executing the web browser application in the foreground, the electronic device 1 performs a process corresponding to the operation in the web browser application by accepting an operator's touch operation. Do. That is, in the state shown in FIG. 7A, the operator performs a touch operation on the touch sensor 11 (in the state where the object is displayed on the display unit 14) of the electronic device 1 to thereby display the web browser.
  • the application can execute a predetermined process. For example, the operator can view details of the news article by touching an object displaying the item (headline) of the news article.
  • the music player application executed in the background is caused to execute predetermined processing.
  • a process of selecting a song next to a song being played is defined as the predetermined process. Accordingly, when the music player application running in the background performs a predetermined process, the music of the music B, which is the music following the music A, is output from the earphone 50 as shown in FIG.
  • the music player application can be operated as shown in FIG. 7B, so that the operator can immediately operate the application being executed in the background.
  • FIG. 5 the example in which the process of selecting the next song is executed while the application of the music player is running in the background has been described.
  • various processes are executed in accordance with the prescribed predetermined process. Can be considered.
  • Such a predetermined process can be assumed to be various depending on the application being executed in the background.
  • the control for the application running in the foreground other than the control of the application running in the background is performed using the detection of contact by the touch sensor 11 as a trigger.
  • the process is executed by detecting data based on the pressure that satisfies the first criterion, and the second criterion higher than the first criterion is set.
  • Control of the application running in the background is performed by detecting data based on the filling pressure.
  • FIG. 8 is a flowchart illustrating application control according to an operation on the electronic device 1 according to the third embodiment.
  • the electronic apparatus 1 according to the present embodiment detects a data based on the pressure satisfying the second criterion when receiving a normal operation based on the data based on the pressure satisfying the first criterion with respect to the touch sensor 11, Switch any of the applications running in the background to those running in the foreground. Therefore, it should be noted that the electronic device 1 according to the present embodiment does not execute a specific process for the application being executed in the background and the foreground at the stage where the touch to the touch sensor 11 is received.
  • the electronic device Reference numeral 1 describes a normal process such as starting the application. In starting the processing shown in FIG. 8, it is assumed that the electronic device 1 has already started some application in the foreground.
  • the application to be activated here may be any application such as a schedule management application or an electronic mail function application.
  • the display unit 14 of the electronic device 1 Before starting the processing shown in the flowchart of FIG. 8, before detecting the pressing operation of the operator by the data based on the pressing satisfying the first reference to the touch surface of the touch sensor 11, the display unit 14 of the electronic device 1.
  • An icon for starting an application and an object such as a key for performing an operation are displayed.
  • the object in the present embodiment can be an image that suggests to the operator the position (region) at which the pressing operation is received. For example, an image representing a state in which numbers and characters are drawn on the key top is displayed on the display unit 14 as an object image.
  • the object in the present embodiment can be an image that suggests to the operator the position (region) for detecting contact for performing an operation on the application being executed in the foreground.
  • an icon image indicating an application to be activated is displayed on the display unit 14 as an object image. At this time, what kind of object is displayed on the display unit 14 depends on the application being executed in the foreground at that time.
  • step S51 when the processing of the electronic device 1 according to the present embodiment is started, the control unit 15 monitors the presence or absence of contact with the touch sensor 11 and monitors data based on the pressure on the touch sensor 11 (step S51).
  • step S51 when the touch sensor 11 detects contact (touch operation) by a pressing target (pressed object) such as an operator's finger or stylus pen, the process proceeds to step S52.
  • step S52 the control unit 15 determines whether or not the data based on the pressure on the touch sensor 11 is increased by the press of the touch sensor 11 by the operator and satisfies the first standard.
  • the data based on the pressure satisfying the first standard is set in advance based on the pressure when the operator performs a normal pressing operation, and the setting can be changed thereafter.
  • the first standard is excessively low in order not to determine that the data based on the press satisfies the first standard. Do not set a value.
  • the first reference is excessively considered in consideration of a normal load (for example, an average value) of pressing based on the operator's intention. Do not set a low value.
  • step S53 Even if the touch sensor 11 detects contact in step S51, if the control unit 15 does not detect data based on the pressure that satisfies the first criterion in step S52, the process returns to step S51.
  • the control unit 15 detects data based on the pressure that satisfies the first criterion in step S52, the control unit 15 detects that the touch position detected by the touch sensor 11 is an object displayed on the display unit 14. It is determined whether or not it corresponds to the position (step S53).
  • step S53 when the position of contact detected by the touch sensor 11 does not correspond to the position of the object, the operator does not touch the position where the predetermined control by the application is performed.
  • the control unit 15 determines whether or not the data based on the pressure on the touch sensor 11 is further increased by the press of the touch sensor 11 by the operator and satisfies the second standard (step S54).
  • the data based on the pressure satisfying the second standard is set so that a slightly higher standard is set in advance based on the pressure when the operator performs a normal pressing operation, and the setting can be changed thereafter. Is preferred.
  • the control part 15 returns to step S52 and continues a process.
  • the control unit 15 when the position of the contact detected by the touch sensor 11 corresponds to the position of the object in step S53, the control unit 15 performs an operation based on data based on the pressure that satisfies the first criterion based on the intention of the operator. The operator is informed that has been detected. Therefore, the control unit 15 drives the tactile sensation providing unit 13 with a predetermined drive signal, vibrates the touch sensor 11 with a predetermined vibration pattern set in advance, and presents a first tactile sensation (step S55).
  • the first tactile sensation presented in step S55 can be, for example, a tactile sensation when the button described in the first embodiment is pressed.
  • the control unit 15 determines whether or not the data based on the pressure on the touch sensor 11 is further increased by the press of the touch sensor 11 by the operator and satisfies the second standard (Ste S56). If it is determined in step S56 that the data based on the pressure on the touch sensor 11 satisfies the second reference, the control unit 15 notifies the operator that an operation based on the data based on the pressure that satisfies the second reference is detected. Therefore, the tactile sensation providing unit 13 is driven by a predetermined drive signal to present a tactile sensation (step S57).
  • the tactile sensation presented in step S57 may be, for example, a tactile sensation when a button is pressed as in step S55, but the operator is notified that an operation different from the operation based on the data based on the press satisfying the first criterion is accepted.
  • the tactile sensation is different from the tactile sensation when the button is pressed or the tactile sensation when the finger is released from the button.
  • step S58 the control unit 15 performs an application control process in step S58.
  • the application control process performed in step S58 is the same as the application control process in step S17 described in FIG. 3, and more specifically, the same process as described in FIG. 4 or FIG. 6 is performed. That is, in an aspect in which any application running in the background is switched to foreground execution, the application control process shown in FIG. 4 is performed. Further, in a mode in which a predetermined process is executed in the background for any application being executed in the background, the application control process illustrated in FIG. 6 is performed.
  • control unit 15 determines whether or not the data based on the pressure on the touch sensor 11 falls below the first reference (step S59). That is, in step S59, it is determined whether or not the operator has weakened the pressing force on the touch sensor 11.
  • the control unit 15 drives the tactile sensation providing unit 13 with a predetermined drive signal, and uses the predetermined vibration pattern set in advance to perform the touch sensor. 11 is vibrated to present a second tactile sensation (step S60).
  • the tactile sensation presented here is for informing the operator that the application control process has been properly executed.
  • the second tactile sensation can be the same as the first tactile sensation presented in step S55, as in the first embodiment.
  • the first tactile sensation is a tactile sensation of pressing a button
  • the second tactile sensation may be different from the first tactile sensation and may be a tactile sensation when a finger or the like is released from the button.
  • step S56 when it is determined in step S56 that the data based on the pressure on the touch sensor 11 does not satisfy the second standard, the control unit 15 determines whether the data based on the pressure on the touch sensor 11 falls below the first standard. Is determined (step S61). That is, in step S61, it is determined whether or not the operator has weakened the pressing force on the touch sensor 11.
  • step S62 the control unit 15 performs a process corresponding to the object at the position where the pressing operation has been detected.
  • the processing corresponding to the object performed in step S62 is the same as the processing in step S15 described in FIG. In other words, the processing at this time is defined by the application being executed in the foreground at that time. If the process corresponding to the object is performed in step S62, the control unit 15 proceeds to step S60, and thereafter performs the process when the pressing operation of the operator is released.
  • step S58 the application control process of step S58 is performed.
  • the electronic device 1 can execute the application control process by receiving a pressing operation based on data based on pressing that satisfies the second reference at an arbitrary position of the touch sensor 11. . Therefore, when an operator wants to control an application running in the background, the operator only operates an arbitrary position of the touch sensor 11 so that data based on a pressure satisfying the second criterion is detected. It's okay.
  • the same effect as that of the first or second embodiment described above can be obtained as control for the application being executed in the background.
  • An operation in which something touches lightly is not regarded as a substantial operation. Therefore, electronic device 1 according to the present embodiment can reduce operation mistakes by the operator.
  • processing is performed according to the flowchart described in FIG. 3 or FIG. 8, and the application control processing shown in FIG. 9 is executed in step S17 in FIG. 3 or step S58 in FIG.
  • a single task electronic device cannot simultaneously execute a plurality of applications. Therefore, in the case of a single-task electronic device, while executing a specific application, an application that is highly likely to be linked (executed by switching) with the application is defined in advance, and the processing in step S17 or step S58 is performed. Causes the specified application to be executed.
  • the control unit 15 detects data based on a pressure satisfying a predetermined standard
  • the data based on the pressure is detected step by step, and an application corresponding to each of these predetermined level standards is also specified in advance. You may keep it.
  • FIG. 9 is a flowchart illustrating application control processing performed in step S17 of FIG. 3 or step S58 of FIG. 8 when the single-task electronic device performs processing according to the flowchart described in FIG. 3 or FIG.
  • the control unit 15 first determines whether there is an application defined to be executed by switching to this application in addition to the application being executed (step S1). S71).
  • step S71 If there is no application to be switched in step S71, the control unit 15 notifies the operator to that effect by displaying a display “no application to be switched” on the display unit 14 (step S72). At this time, the control unit 15 drives the tactile sensation providing unit 13 to present a tactile sensation different from the tactile sensation of pressing the above-described button so as to notify the operator that there is no application to be switched. It may be. Thus, in step S72, after notifying the operator that there is no application to be switched, the control unit 15 ends the application control process according to the present embodiment.
  • step S71 when there is an application to be switched in step S71, the control unit 15 once terminates the currently executing application (step S73). Next, the control unit 15 starts an application defined to be switched and executed (step S74), and then ends the application control process according to the present embodiment.
  • the present invention is not limited to the above embodiment, and many variations or modifications are possible.
  • the control of an application being executed in the background in the multitasking electronic device has been described.
  • the present invention is not based on the distinction between the execution of the application and the foreground or background, and the application can be switched depending on whether the execution of the application is active or inactive.
  • the control unit 15 when detecting data based on a pressure satisfying a predetermined criterion, can control to activate any of the inactive applications. In this case, each time the controller 15 detects data based on a pressure that satisfies a predetermined criterion, the controller 15 can also control to sequentially activate any of the inactive applications according to a predetermined order. Further, in the above-described case, when the control unit 15 detects data based on a pressure that satisfies a predetermined level criterion, the control unit 15 controls to activate an inactive application corresponding to the predetermined level criterion. You can also.
  • the present invention is not based on the distinction between whether the application execution is foreground or background, and it is also possible to control an inactive application by distinguishing whether the application execution is active or inactive. That is, for example, in the second embodiment described above, when the control unit 15 detects data based on a pressure that satisfies a predetermined criterion, the control unit 15 performs control so that any of the inactive applications executes a predetermined process. You can also. Further, in this case, when the control unit 15 detects data based on a pressure that satisfies a predetermined level criterion, the control unit 15 performs control so that an inactive application corresponding to the predetermined level criterion executes a predetermined process. You can also.
  • the press detection unit in each of the above-described embodiments can be configured using an arbitrary number of strain gauge sensors.
  • a press detection part can assume various structures according to the contact detection system in a touch panel.
  • a strain gauge sensor, a piezoelectric element, or the like is used by associating the magnitude of the resistance corresponding to the size of the contact area with the pressing load (force) on the touch surface of the touch panel. It can be configured without.
  • the capacitance in the case of the capacitance method, the capacitance can be configured without using a strain gauge sensor or a piezoelectric element by associating the size of the capacitance with a load (force) of pressing against the touch surface of the touch panel. it can.
  • the tactile sensation providing unit may be configured using an arbitrary number of piezoelectric vibrators, or may be configured by providing a transparent piezoelectric element on the entire surface of the touch sensor, or can express vibration that presents tactile sensation. Can be configured to rotate once in one cycle of the drive signal.
  • the pressure detection unit and the tactile sensation providing unit are configured using a piezoelectric element
  • the pressure detection unit / tactile sensation providing unit can also be configured by sharing the piezoelectric element.
  • the electronic device drives the tactile sensation providing unit when the data based on the pressure applied to the touch sensor 11 satisfies the standard for presenting the tactile sensation.
  • the case where the data based on the pressure on the touch sensor 11 satisfies the standard for presenting the tactile sensation may be the time when the data based on the pressure on the touch sensor 11 reaches a standard value for presenting the tactile sensation. It may be when the data based on the pressure on the touch sensor 11 exceeds a reference value for presenting a tactile sensation.
  • the case where the data based on the pressure on the touch sensor 11 satisfies the standard for presenting the tactile sensation may be when the reference value for presenting the tactile sensation is detected by the press detection unit.
  • the operator instead of presenting tactile sensation, or together with presenting tactile sensation, the operator can be notified by sound.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Abstract

 電子機器1は、タッチセンサ11と、タッチセンサ11に対する押圧を検出する押圧検出部12と、所定の基準を満たす押圧に基づくデータを検出するとバックグラウンドで実行中のアプリケーションソフトウェアの何れかをフォアグラウンドで実行中のものと切り替えるように制御する制御部15と、を備える。

Description

タッチセンサを備えた電子機器 関連出願の相互参照
 本出願は、2011年2月23日に出願された日本国特許出願2011-37117号の優先権を主張するものであり、この先の出願の開示全体を、ここに参照のために取り込む。
 本発明は、タッチセンサを備えた電子機器に関するものであり、特に、タッチセンサに対する操作に応じてアプリケーションソフトウェア(以下、適宜「アプリケーション」と略記する)の制御を行う電子機器に関するものである。
 近年、携帯電話等の携帯端末において、操作者による操作を受け付ける操作部やスイッチ等の入力装置として、タッチパネルやタッチスイッチ等のタッチセンサを備える入力装置が採用されているものがある。携帯端末以外に、電卓、券売機等の情報機器や、電子レンジ、テレビ、照明器具等の家電製品、産業用機器(FA機器)等にも、タッチセンサを備える入力装置は広く使用されている。
 このようなタッチセンサには、抵抗膜方式、静電容量方式、光学式等の種々の方式が知られている。特に、携帯電話などの小型の電子機器は、例えばテンキーなどのキーやアイコン等をオブジェクトとして表示部に表示して、当該オブジェクトに対する操作者の接触をタッチセンサにより検出する、タッチパネルを備えることが多い。
 このようなタッチパネルを備えた電子機器は、起動するアプリケーションに応じて、種々のユーザインタフェースを、オブジェクトの表示によって構成することができる。したがって、操作者にとっては操作がわかり易く使い勝手が良いため、タッチパネルを備えた電子機器は急速に普及している。
 タッチパネルを備えた電子機器に関連する技術については、種々の研究開発が進められている。例えば、押下ミスを防止することによりタッチパネルの誤動作を防止する技術や(特許文献1参照)、タッチパネルの感度を調整する技術や好適な材料について提案されている(特許文献2、特許文献3参照)。また、タッチパネルによるアプリケーションの切り替え時にジョブを退避させる処理についての技術も提案されている(特許文献4参照)。さらに、タッチパネル上でショートカットキーを表示する技術も提案されている(特許文献5参照)。
特開2001-202192号公報 特開2004-46792号公報 特開2008-165801号公報 特開平5-181606号公報 特開2009-3628号公報
 ところで、上述したような電子機器は、通常、様々なアプリケーションを複数インストールすることが可能である。このような電子機器は、複数のアプリケーションをインストールすることで、1つの電子機器を様々な用途に使用することができる。
 電子機器においてアプリケーションを起動させる場合、従来、一度に1つのアプリケーションしか実行できないもの(シングルタスク)も存在したが、現在は、一度に複数のアプリケーションを同時に実行できるもの(マルチタスク)が多い。シングルタスクの電子機器は、アプリケーションを切り替える際、現在実行しているアプリケーションを一旦終了させて、次に実行するアプリケーションを起動させる。マルチタスクの電子機器は、リソースの許す限り、現在実行しているアプリケーションを終了させることなく、複数のアプリケーションを次々に起動させ、所望のアプリケーションに切り替えて実行することができる。
 マルチタスクの電子機器の場合、複数のアプリケーションを起動した際は、通常、1つのアプリケーションがフォアグラウンドで実行され、他のアプリケーションはバックグラウンドで実行される。したがって、このような電子機器の場合、複数のアプリケーションの実行中に、操作者が、バックグラウンドで実行中の他のアプリケーションを、フォアグラウンドで実行中のアプリケーションと切り替えたい場合、当該切り替えのための操作をしなければならない。
 例えば、ある電子機器に、スケジュール管理のアプリケーションおよび電子メール機能のアプリケーションがインストールされていたとする。図10(A)および(B)は、これらのアプリケーションを実行している際に、当該電子機器の表示部に表示される画面を概略的に示すものである。図10(A)は、当該電子機器においてスケジュール管理のアプリケーションをフォアグラウンドで実行している様子を表しており、図10(B)は、当該電子機器において電子メール機能のアプリケーションをフォアグラウンドで実行している様子を表している。このように、特に小型の電子機器においては、1つのアプリケーションが一画面を専有するユーザインタフェースを構成するものがほとんどである。
 ここで、操作者が、例えば図10(A)に示すように、スケジュール管理のアプリケーションをフォアグラウンドで実行している際に、スケジュールの都合を他人に確認すべく、電子メールの機能を使用したくなる場面が想定される。また、逆に、操作者が、例えば図10(B)の電子メールのアプリケーションをフォアグラウンドで実行して、電子メールによりスケジュールの都合を他人に確認した後、スケジュール管理の機能を再び使用したくなる場合も想定される。上述したように、マルチタスクの電子機器であれば、これらスケジュール管理のアプリケーションと電子メール機能のアプリケーションとを同時に実行させておくことができる。すなわち、アプリケーションを切り替える際に、操作者は、すでに実行中のアプリケーションをいちいち終了させる必要はない。
 しかしながら、これら2つのアプリケーションを切り替える際には、操作者は、例えば図10(C)に示すようなインタフェースの電子機器の場合は、例えばメニューキー(MENU)を押す等により、起動を希望するアプリケーションを選択して、それをフォアグラウンドで実行させる必要がある。図10(C)に示す電子機器は、機械式のスイッチにより構成されたテンキーなどのキーやボタンを備える電子機器を想定している。しかしながら、上述したようなタッチパネルを備える電子機器の場合も、操作者は、起動を希望するアプリケーションを選択する操作を行わなければならない。
 図10(D)は、タッチパネルを備える携帯端末において、各アプリケーションを起動するためのアイコンを画面に表示した状態を表している。このような端末の場合、アプリケーションの切り替えを行うには、操作者は、アプリケーションの実行中に何らかの操作を行うことにより図10(D)のような選択画面を表示させてから、アイコンを選択することによって、所望のアプリケーションに切り替えなければならない。
 以上、マルチタスクの電子機器の例を説明したが、シングルタスクの電子機器においても、アプリケーションを切り替えるには、操作者が、そのための操作を行わなければならないという事情は同じである。上述したように、シングルタスクの電子機器は、アプリケーションを同時に実行することができない。そのため、シングルタスクの電子機器においてアプリケーションの切り替えを行うには、操作者は、実行中のアプリケーションを一旦終了させてから、次に所望のアプリケーションを起動させなければならない。この場合、当然、実行中のアプリケーションを終了させるための操作、および、次のアプリケーションを起動させるための操作が必要になる。
 このように、アプリケーションを切り替える操作は、シングルタスクの電子機器の場合も、マルチタスクの電子機器の場合も、操作者にとっては、一般に複数の手順を要する手間のかかるものである。特に、アプリケーションの切り替えを頻繁に行わなければならない場合は、このような操作は、かなりのストレスになり得る。例えば、図10(A)および(B)に示したようなアプリケーション間を交互に切り替える操作を頻繁に行わなければならない状況も想定される。このような場合に、アプリケーションの切り替え操作という同じ操作を何度も繰り返すことは、操作者にとって大変な手間となる。
 また、最近では、多くの携帯端末が音楽プレーヤなどの音声再生機能を備えている。このような端末がマルチタスクの場合、音楽を再生しながら、例えばWebブラウザなどの他のアプリケーションを実行させることもできる。しかしながら、音楽を再生しながらWebブラウザのアプリケーションによってインターネットのサイトを閲覧している最中に、操作者が音楽プレーヤの再生を止めたい場合も想定される。このような場合、操作者は、バックグラウンドで実行中の音楽プレーヤのアプリケーションに一旦切り替えなければならない。このように、従来の電子機器においては、マルチタスクの電子機器において、バックグラウンドで実行中のアプリケーションに対する操作を行いたい場合、操作者は、そのアプリケーションを一旦フォアグラウンドでの実行に切り替えなければならならい。このようにアプリケーションを切り替えることも、上述したように、操作者にとって面倒であり手間のかかることである。
 したがって、かかる事情に鑑みてなされた本発明の目的は、バックグラウンドで実行中のアプリケーションソフトウェアを制御することができる、タッチセンサを備えた電子機器を提供することにある。
 上記目的を達成する第1の観点に係る電子機器の発明は、
 タッチセンサと、
 前記タッチセンサに対する押圧を検出する押圧検出部と、
 所定の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションソフトウェアの何れかを、フォアグラウンドで実行中のものと切り替えるように制御する制御部と、
 を備えるものである。
 第2の観点に係る発明は、第1の観点に係る電子機器において
 前記制御部は、所定の基準を満たす押圧に基づくデータを検出するたびに、バックグラウンドで実行中のアプリケーションソフトウェアの何れかを、所定の順序に従って、フォアグラウンドで実行中のものと順次切り替えるように制御するものである。
 第3の観点に係る発明は、第1の観点に係る電子機器において
 前記制御部は、所定の段階の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションソフトウェアのうち前記所定の段階の基準に対応するものを、フォアグラウンドで実行中のものと切り替えるように制御するものである。
 第4の観点に係る電子機器の発明は、
 タッチセンサと、
 前記タッチセンサに対する押圧を検出する押圧検出部と、
 所定の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションソフトウェアの何れかが所定の処理を実行するように制御する制御部と、
 を備えるものである。
 第5の観点に係る発明は、第4の観点に係る電子機器において
 前記制御部は、所定の段階の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションソフトウェアのうち前記所定の段階の基準に対応するものが所定の処理を実行するように制御するものである。
 また、上記目的を達成する第6の観点に係る電子機器の発明は、
 タッチセンサと、
 前記タッチセンサに対する押圧を検出する押圧検出部と、
 所定の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションソフトウェアの何れかをアクティブにするように制御する制御部と、
 を備えるものである。
 第7の観点に係る発明は、第6の観点に係る電子機器において
 前記制御部は、所定の基準を満たす押圧に基づくデータを検出するたびに、アクティブでないアプリケーションソフトウェアの何れかを、所定の順序に従って順次アクティブにするように制御するものである。
 第8の観点に係る発明は、第6の観点に係る電子機器において
 前記制御部は、所定の段階の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションソフトウェアのうち前記所定の段階の基準に対応するものをアクティブにするように制御するものである。
 第9の観点に係る電子機器の発明は、
 タッチセンサと、
 前記タッチセンサに対する押圧を検出する押圧検出部と、
 所定の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションソフトウェアの何れかが所定の処理を実行するように制御する制御部と、
 を備えるものである。
 第10の観点に係る発明は、第9の観点に係る電子機器において
 前記制御部は、所定の段階の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションソフトウェアのうち前記所定の段階の基準に対応するものが所定の処理を実行するように制御するものである。
 本発明によれば、バックグラウンドで実行中のアプリケーションソフトウェアを制御することができる、タッチセンサを備えた電子機器が提供される。したがって、本発明の電子機器は、電子機器の操作を行う操作者の利便性を格段に向上させることができる。
本発明の第1実施の形態に係る電子機器の概略構成を示すブロック図である。 第1実施の形態に係る電子機器の実装構造の一例を示す図である。 第1実施の形態に係る電子機器による処理を説明するフローチャートである。 第1実施の形態に係る電子機器によるアプリケーション制御処理の詳細を説明するフローチャートである。 第1実施の形態に係る電子機器による処理を説明する図である。 本発明の第2実施の形態に係る電子機器によるアプリケーション制御処理の詳細を説明するフローチャートである。 第2実施の形態に係る電子機器による処理を説明する図である。 本発明の第3実施の形態に係る電子機器による処理を説明するフローチャートである。 本発明の第4実施の形態に係る電子機器によるアプリケーション制御処理の詳細を説明するフローチャートである。 従来の電子機器によるアプリケーション制御および電子機器のインタフェースを説明する図である。
 以下、本発明の実施の形態について、図面を参照して説明する。
(第1実施の形態)
 図1は、本発明の第1実施の形態に係るタッチセンサを備えた電子機器の概略構成を示す機能ブロック図である。本実施の形態に係る電子機器は、例えば携帯電話やPDA(Personal Digital Assistant)、スマートフォン、タブレット型の電子機器、ゲーム機などの携帯端末、あるいは銀行に設置されるATM、駅に設置される券売機に用いる端末装置などとすることができる。すなわち、本実施の形態は、タッチセンサにより操作者のタッチ操作を受け付けるものであれば、任意の電子機器に適用することができる。
 図1に示すように、本実施の形態に係る電子機器1は、タッチセンサ11、押圧検出部12、触感呈示部13、表示部14、制御部15、および記憶部16を備える。
 タッチセンサ11は、タッチ面を有するセンサであり、操作者の指などがタッチ面に接触(タッチ)したことを検出する。このタッチセンサ11は、例えば抵抗膜方式、静電容量方式、光学式等の方式のもので構成する。また、タッチセンサ11を透過型にして、表示部14の前面に配置して、表示部14に表示したキーやボタン等のオブジェクトに対して操作者がタッチしたことを検出するセンサとしても使われる(いわゆるタッチパネル)。
 押圧検出部12は、タッチセンサ11に対する押圧を検出するもので、例えば、押圧に応じて物理的または電気的な特性(歪み、抵抗、電圧等)が変化する歪みゲージセンサや圧電素子等の素子等を用いて構成する。押圧検出部12が、例えば、圧電素子等を用いて構成された場合、押圧検出部12の圧電素子は、タッチセンサ11に対する押圧に係る荷重(力)の大きさ(または、荷重(力)の大きさが変化する速さ(加速度))に応じて、電気的な特性である電圧の大きさ(電圧値)が変化する。押圧検出部12は、この電圧の大きさ(電圧値(以下、単にデータと称する))を、制御部15に通知する。制御部15は、押圧検出部12がデータを制御部15に通知することにより、または、制御部15が押圧検出部12の圧電素子に係るデータを検出することにより、当該データを取得(検出)する。つまり、制御部15は、タッチセンサ11に対する押圧に基づくデータを取得(検出)する。すなわち、制御部15は、押圧検出部12から押圧に基づくデータを取得(検出)する。
 触感呈示部13は、タッチセンサ11を振動させるものである。触感呈示部13は、例えば圧電振動子等を用いて構成される。
 表示部14は、押しボタンスイッチ(プッシュ式ボタンスイッチ)のような入力ボタン等のオブジェクトを描画して表示するものである。表示部14は、例えば、液晶表示パネルや有機EL表示パネル等を用いて構成される。また、表示部14は、このようなユーザインタフェースを表示するのみならず、各アプリケーションに応じて、操作者に提示するための種々の情報(すなわちアプリケーションを構成する表示画面)も表示する。
 制御部15は、電子機器1の全体を制御する。特に、本実施の形態において、制御部15は、インストールされた種々のアプリケーションに応じて、各機能部に対する制御を含め、種々の制御を行う。例えばウェブブラウザのアプリケーションの起動時には、ウェブブラウザとしての機能に係る各種の処理を行う。なお、電子機器の制御部は、アプリケーションに応じて種々の処理を行う。
 記憶部16は、メモリなどで構成することができ、各種アプリケーションおよび入力された各種情報などを記憶するとともに、ワークメモリなどとしても機能する。特に、本実施の形態において、記憶部16は、電子機器1において実行する各種のアプリケーションを予め記憶(インストール)しておく。
 図2は、図1に示した電子機器1の実装構造の一例を示す図である。図2(a)は要部断面図であり、図2(b)は要部平面図である。図2(a)に示すように、本実施の形態に係る電子機器1において、表示部14は、筐体21内に収納保持される。また、表示部14上には、弾性部材からなるインシュレータ22を介して、タッチセンサ11が保持される。なお、本実施の形態に係る電子機器1は、表示部14およびタッチセンサ11を、平面視で矩形状としてある。本実施の形態において、タッチセンサ11は、図2(b)に仮想線で示す表示部14の表示領域Aから外れた4隅に配設したインシュレータ22を介して表示部14上に保持される。
 また、筐体21には、表示部14の表示領域から外れたタッチセンサ11の表面領域を覆うようにアッパカバー23が設けられ、このアッパカバー23とタッチセンサ11との間に、弾性部材からなるインシュレータ24が配設される。
 なお、図2に示すタッチセンサ11において、タッチ面11aを有する表面部材は、例えば透明フィルムやガラスで構成され、裏面部材はガラスやアクリルで構成されるようにする。タッチセンサ11は、タッチ面11aが押圧されると、押圧部分が押圧力に応じて微少量撓む(歪む)、または構造体そのものが微少量撓む構造のものを用いる。
 タッチセンサ11の表面上には、アッパカバー23で覆われる各辺の近傍に、タッチセンサ11に加わる押圧(押圧力)を検出するための歪みゲージセンサ31が、それぞれ接着等により設けられる。また、タッチセンサ11の裏面上には、対向する2つの辺の近傍に、タッチセンサ11を振動させるための圧電振動子32が、それぞれ接着等により設けられる。すなわち、図2に示す電子機器1において、図1に示した押圧検出部12は、4つの歪みゲージセンサ31を用いて構成され、触感呈示部13は、2つの圧電振動子32を用いて構成されている。そして、触感呈示部13によりタッチセンサ11を振動させることにより、タッチ面11aを振動させるようにしている。なお、図2(b)は、図2(a)に示した筐体21、アッパカバー23およびインシュレータ24の図示を省略している。
 次に、本実施の形態による電子機器におけるアプリケーションの制御について説明する。
 図3および図4は、第1実施の形態に係る電子機器1に対する操作に応じたアプリケーションの制御を説明するフローチャートである。本実施の形態に係る電子機器1は、タッチセンサ11に対するタッチ操作により通常の操作を受け付けている際に、タッチセンサ11に対する所定の基準を満たす押圧に基づくデータを検出したら、バックグラウンドで実行中のアプリケーションの何れかを、フォアグラウンドで実行中のものと切り替える。
 図3に示すフローチャートは、タッチセンサ11においてタッチ操作が検出された位置がアプリケーションを起動等するためのアイコン等(オブジェクト)に対応する位置である場合、電子機器1が、そのアプリケーションを起動する通常の処理を含めて説明してある。なお、図3に示す処理を開始するにあたり、電子機器1は、すでに何らかのアプリケーションをフォアグラウンドで起動しているものとする。ここで起動するアプリケーションは、例えば前述のスケジュール管理のアプリケーションや、電子メール機能のアプリケーションなど、任意のものとすることができる。
 また、図3のフローチャートに示す処理を開始するにあたり、タッチセンサ11のタッチ面に対する操作者のタッチ操作を検出する前に、電子機器1の表示部14にアプリケーションを起動するアイコン等および操作を行うためのキー等のオブジェクトを表示しておく。本実施の形態におけるオブジェクトは、タッチ操作を受け付ける位置(領域)を操作者に示唆する画像とすることができる。例えば、オブジェクトの画像として、数字や文字がキートップに描画されている状態を表す画像を表示部14に表示する。また、本実施の形態におけるオブジェクトは、フォアグラウンドで実行中のアプリケーションに対する操作を行うための接触を検出する位置(領域)を操作者に示唆する画像とすることができる。例えば、オブジェクトの画像として、起動するアプリケーションを示すアイコンの画像を表示部14に表示する。この際、どのようなオブジェクトがどのように表示部14に表示されるのかは、その時フォアグラウンドで実行されているアプリケーションに依存する。
 本実施の形態に係る電子機器1の処理が開始すると、制御部15は、タッチセンサ11への接触の有無を監視するとともに、タッチセンサ11に対する押圧に基づくデータを監視する(ステップS11)。ステップS11において、タッチセンサ11が、操作者の指やスタイラスペン等の押圧対象(押圧物)による接触(タッチ操作)を検出した場合、ステップS12に移行する。
 ステップS12において、制御部15は、タッチセンサ11に対する押圧に基づくデータが、操作者によるタッチセンサ11の押圧によって増加しながら所定の基準を満たしたか否かを判定する。なお、制御部15は、例えば、押圧検出部12の4つの歪みゲージセンサ31の出力の平均値を、押圧に基づくデータとすることができる。ここで、所定の基準を満たす押圧に基づくデータは、操作者が通常の押圧操作を行う際の押圧に基づいて、それよりも若干高い基準などの値を予め設定し、その後も設定変更できるようにするのが好適である。また、操作者が意図せずにタッチセンサ11に軽く触れてしまったような場合は、押圧に基づくデータが所定の基準を満たしたと判定されないようにするため、この所定の基準は過度に低い値を設定しないようにする。さらに、後述するリアルな触感のための圧覚を操作者に与えるためにも、操作者の意図に基づく押圧の普段の押圧(例えば平均値など)を考慮する等して、前記所定の基準は過度に低い値を設定しないようにする。
 ステップS11においてタッチセンサ11が接触を検出していても、ステップS12において制御部15が所定の基準を満たす押圧に基づくデータを検出していない場合、処理はステップS13に移行する。ステップS13において、制御部15は、タッチセンサ11が検出した接触の位置が表示部14上に表示されているオブジェクトの位置に対応するか否かを判定する。ステップS13において、タッチセンサ11が検出した接触の位置がオブジェクトの位置に対応しない場合、操作者はアプリケーションによる所定の制御が行われる位置を接触していないため、制御部15は、ステップS11に戻って処理を続行する。一方、ステップS13においてタッチセンサ11が検出した接触の位置がオブジェクトの位置に対応する場合、制御部15は、タッチセンサ11が接触を検出しなくなったか否かを判定する(ステップS14)。
 ステップS14においてまだ接触が解除されていない場合(すなわち操作者がまだタッチセンサ11に対してタッチ操作を継続している場合)、制御部15は、ステップS11に戻って処理を続行する。一方、ステップS14において接触が解除された場合(すなわち操作者が接触させている指などをタッチセンサ11から離した場合)、制御部15は、接触を検出していた位置のオブジェクトに対応する処理を行う(ステップS15)。この際の処理は、その時にフォアグラウンドで実行されているアプリケーションによって規定されている。例えば、電子メールのアプリケーションを実行中に、数字や文字などの入力に係る操作を受け付けるオブジェクトの位置で接触解除が検出されたら、当該数字や文字などを表示部14に表示する処理が行われる。また、例えば、アプリケーションを起動するアイコンのオブジェクトの位置で接触解除が検出されたら、当該アプリケーションを起動する処理が行われる。
 このように、本実施の形態に係る電子機器1は、表示部14に表示されたオブジェクトの位置においてタッチセンサ11に対する接触解除を検出する(タップを検出する)ことにより、当該オブジェクトに対応する処理を行うことができる。
 一方、ステップS11においてタッチセンサ11が接触を検出している際に、ステップS12において制御部15が所定の基準を満たす押圧に基づくデータを検出した場合、処理はステップS16に移行する。ステップS16において、制御部15は、通常のタッチ操作とは異なる、操作者の意図に基づく押圧による操作を検出したことを操作者に報知するため、触感呈示部13を所定の駆動信号で駆動して、予め設定した所定の振動パターンでタッチセンサ11を振動させて第1の触感を呈示する。すなわち、制御部15は、タッチセンサ11が接触を検出している際に所定の基準を満たす押圧に基づくデータを検出すると、タッチ面を押圧している押圧対象に対して触感を呈示するように触感呈示部13の駆動を制御する。触感呈示部13は、例えば、2つの圧電振動子32を同相で駆動する。
 なお、ステップS16において、操作者に対してリアルな触感を呈示するためには、電子機器1は、以下のような処理を行うことにより、操作者の圧覚を刺激した状態で触覚を刺激する。すなわち、電子機器1は、タッチセンサ11に対する押圧に基づくデータが、触感を呈示する基準を満たすまでは、圧覚を刺激するようにし、押圧に基づくデータが当該基準を満たすと、圧電振動子32を所定の駆動信号で駆動してタッチ面11aを振動させて触覚を刺激する。これにより、電子機器1は、押しボタンスイッチ(プッシュ式ボタンスイッチ)のようなボタンスイッチを押した際に得られるのと同様な触感を、操作者に呈示することができる。したがって、操作者は、タッチセンサ上に描画された押しボタンスイッチであっても、現実の押しボタンスイッチを操作した場合と同様のリアルな触感を得ながら、タッチセンサ11に対して入力操作を行うことができる。また、タッチセンサ11を「押した」という意識との連動で操作を行うことができるので、操作ミスも防止することができる。
 上述した触感を呈示する際の駆動信号、すなわち触覚を刺激する一定周波数、周期(波長)、波形、振幅は、呈示する触感に応じて適宜設定することができる。例えば、携帯端末に使用されているメタルドームスイッチに代表されるボタンを押下する触感を呈示する場合、例えば、170Hzの一定周波数のSin波からなる1周期分の駆動信号により触感呈示部13を駆動する。このような駆動信号により触感呈示部13を駆動させて、タッチ面11aを、基準の押圧Pthが加わった状態で、約15μm振動させる。これにより、実際のキーを押下した場合のような、リアルな触感を操作者に呈示することができる。
 ステップS16において触感が呈示されたら、制御部15は、ステップS17のアプリケーション制御処理を行う。図4は、図3におけるステップS17のアプリケーション制御処理の詳細を説明するフローチャートである。図4に示す本実施の形態によるアプリケーション制御処理においては、制御部15は、まず、フォアグラウンドで実行中のアプリケーションの他に、バックグラウンドで実行中のアプリケーションがあるか否かを判定する(ステップS21)。
 ステップS21においてバッググラウンド実行中のアプリケーションが存在しない場合、フォアグラウンドの実行に切り替えるべきアプリケーションがない。この場合、制御部15は、「バッググラウンド実行中のアプリケーションが存在しない」旨の表示を表示部14に表示する等して、操作者にその旨を知らせる(ステップS22)。また、この際に、制御部15は、触感呈示部13を駆動して、上述したボタンを押下した触感とは異なる触感を呈示するなどして、バッググラウンド実行中のアプリケーションが存在しない旨を操作者に知らせるようにしてもよい。このように、ステップS22において、バッググラウンド実行中のアプリケーションが存在しない旨を操作者に通知した後、制御部15は、ステップS17のアプリケーション制御処理を終了する。
 一方、ステップS21においてバッググラウンド実行中のアプリケーションが存在する場合、制御部15は、現在フォアグラウンドで実行中のアプリケーションをバックグラウンドの実行に移行させる(ステップS23)。次に、制御部15は、バックグラウンドで実行中のアプリケーションを、フォアグラウンドの実行に切り替えてから(ステップS24)、ステップS17のアプリケーション制御処理を終了する。
 なお、ステップS24において、制御部15は、バックグラウンドで実行中のアプリケーションの何れかを、フォアグラウンドで実行中のものと切り替えるように制御する。ここで、バックグラウンドで実行中のアプリケーションが1つしか存在しない場合、フォアグラウンドで実行中のものと切り替えるアプリケーションは自ずと特定される。しかしながら、バッググラウンドで実行中のアプリケーションが複数ある場合、制御部15は、それらの何れをフォアグラウンドで実行中のものと切り替えるのか、特定しなければならない。このように、バッググラウンドで実行中の複数のアプリケーションのうち、フォアグラウンドで実行させるものを特定する方法には、種々の方法が想定できる。
 例えば、特定のアプリケーションがフォアグラウンドで実行中に、当該アプリケーションと連携する(または同時に使用する)可能性の高いアプリケーションを予め1つ規定しておき、ステップS17の処理の際には、その規定されたアプリケーションをフォアグラウンドで実行させることができる。また、複数のアプリケーションにおいて、バックグラウンドで実行中にフォアグラウンドに移行するにあたっての順番を、所定の順序として予め規定しておくこともできる。この場合、ステップS17の処理が発生するたびに、制御部15は、この順序に従って、フォアグラウンドで実行中のものと順次切り替えるように制御する。
 その他、ステップS12において、制御部15が所定の基準を満たす押圧に基づくデータを検出する際に、当該押圧に基づくデータを段階別に検出することもできる。すなわち、例えば、所定の基準を満たす押圧に基づくデータについて、第1段階の基準、第2段階の基準、第3段階の基準など、徐々に高く設定される所定の段階の基準を予め規定しておく。なお、この場合、押圧に基づくデータを段階別に検出する際には、押圧に基づくデータが所定の基準を満たしてから所定の短期間(例えば1秒など)経過後に、当該押圧に基づくデータの段階を確定するような措置を講じることもできる。また、これらの所定の段階の基準のそれぞれに、対応するアプリケーションも予め規定しておく。例えば、第1段階の押圧に基づくデータの基準にはスケジュール管理アプリケーションを、第2段階の基準には電子メール機能アプリケーションを、第3段階の基準には音楽プレーヤのアプリケーションを、などのように対応させることができる。このように設定した場合、制御部15は、ステップS12にて所定の段階の基準を満たす押圧に基づくデータを検出すると、ステップS17にて、バックグラウンドで実行中のアプリケーションのうち所定の段階の基準に対応するものを、フォアグラウンドで実行中のものと切り替えるように制御するようにできる。
 ステップS17においてアプリケーションの制御処理を行った後、制御部15は、タッチセンサ11に対する押圧に基づくデータが所定の基準を下回ったか否かを判定する(ステップS18)。すなわち、ステップS18では、操作者がタッチセンサ11に対する押圧の力を弱めたか否かを判定する。
 ステップS18において、タッチセンサ11に対する押圧に基づくデータが所定の基準を下回った場合、制御部15は、触感呈示部13を所定の駆動信号で駆動して、予め設定した所定の振動パターンでタッチセンサ11を振動させて第2の触感を呈示する(ステップS19)。ここで呈示する触感は、アプリケーション制御処理が適切に実行されたことを操作者に知らせるためのものである。この第2の触感は、ステップS16において呈示される第1の触感と同じものとすることもできる。あるいは、第1の触感を上述したボタンを押下する触感とした場合には、第2の触感は、第1の触感とは異ならせて、ボタンから指などを離す際の触感としてもよい。
 例えば、第1の触感を呈示する際の駆動信号(ボタンを押下した触感用)の周波数は170Hzとし、また第2の触感を呈示する際の駆動信号の周波数は125Hzとすることができる。これにより、第2の触感として、実際のキーから指を離した場合のような、ボタンを押下した触感とは異なるリアルな触感を操作者に呈示することができる。このように、ボタンを押下する触感を呈示した後、押圧が解除される際にも、押圧時と同様に、触感呈示部13を所定の駆動信号で駆動して、タッチセンサ11を予め設定した所定の振動パターンで振動させることにより、ボタンを押下した後に当該押下が解除される際の触感を呈示することができる。したがって、ボタンを押圧する際の触感と相俟って、より押しボタンスイッチに近い、ボタンから指などを離す際のリアルな触感を操作者に呈示することができる。
 図5は、第1実施の形態に係る電子機器1による処理を説明する図である。図5(A)に示すように、電子機器1がフォアグラウンドでスケジュール管理のアプリケーションを実行中である場合の例について説明する。また、この際、電子機器1は、電子メール機能のアプリケーションをバックグラウンドで実行中であるものとする。図5(A)に示すように、電子機器1は、スケジュール管理のアプリケーションをフォアグラウンドで実行中であるため、操作者のタッチ操作を受け付けることにより、スケジュール管理のアプリケーションにおいて当該操作に対応する処理を行う。すなわち、図5(A)に示す状態において、操作者は、電子機器1の(表示部14にオブジェクトが表示されている状態の)タッチセンサ11に対してタッチ操作を行うことにより、スケジュール管理アプリケーションに所定の処理を実行させることができる。例えば、操作者は、日付の箇所に接触することにより、当該日付の予定の詳細を表示させたり、または当該日付におけるイベントなどの予定を入力することができる。
 このような状態で、図5(A)に示すように、タッチセンサ11のタッチ面が押圧されて、制御部15が所定の基準を満たす押圧に基づくデータを検出すると、電子機器1は、図5(B)に示すように、バックグラウンドで実行していた電子メールのアプリケーションをフォアグラウンドで実行させる。すなわち、操作者は、図5(A)に示すようにスケジュール管理アプリケーションをフォアグラウンドで実行中に、バックグラウンドで実行中の電子メールのアプリケーションに対する操作をしたくなった場合、タッチセンサ11の任意の位置を、所定の基準を満たす押圧に基づくデータが検出されるように操作するだけでよい。
 このような押圧操作により、図5(B)に示すように電子メールのアプリケーションがフォアグラウンドの実行に切り替えられるため、操作者は、バックグラウンドで実行中のアプリケーションに対する操作を即座に行うことができる。このようにして電子メールのアプリケーションがフォアグラウンドの実行に切り替えられた後は、電子機器1は、操作者のタッチ操作を受け付けることにより、電子メールのアプリケーションにおいて当該操作に対応する処理を行う。例えば、操作者が文字を入力する操作を受け付けることにより、電子機器1は、その文字などを表示することができる。また、図5(B)に示す状態でタッチセンサ11のタッチ面が再び押圧されて、制御部15が所定の基準を満たす押圧に基づくデータを検出すると、電子機器1は、図5(A)に示すように、バックグラウンドで実行中のスケジュール管理のアプリケーションをフォアグラウンドの実行に戻す。
 図5においては、スケジュール管理のアプリケーションと連携するものとして、電子メールのアプリケーションが予め規定されていることを想定して説明した。しかしながら、上述したように、インストール済みの複数のアプリケーションにおいて、バックグラウンドで実行中にフォアグラウンドに移行するにあたっての順番を所定の順序として予め規定しておくこともできる。この場合、タッチセンサ11のタッチ面が押圧されて、制御部15が所定の基準を満たす押圧に基づくデータを検出するごとに、電子機器1は、所定の順序に従って、フォアグラウンドで実行中のものと順次切り替える。これにより、操作者は、バッグラウンドで実行中のアプリケーションを、次々に素早くフォアグラウンドの実行に切り替えることができる。
 さらに、上述したように、制御部15が所定の基準を満たす押圧に基づくデータを検出する際に、当該押圧に基づくデータを第1段階、第2段階、など段階別に検出して、所定の段階の基準のそれぞれに、対応するアプリケーションを予め規定しておくこともできる。この場合、電子機器1は、タッチセンサ11のタッチ面が押圧されて、所定の段階の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションのうち所定の段階の基準に対応するものを、フォアグラウンドで実行中のものと切り替える。
 例えば、第1段階の押圧に基づくデータの基準にスケジュール管理アプリケーションが対応している場合、例えば携帯電話の通話アプリケーションをフォアグラウンドで実行中に第1段階の基準を満たす押圧に基づくデータを検出すると、電子機器1は、スケジュール管理アプリケーションをフォアグラウンドの実行に切り替える。また、第2段階の押圧に基づくデータの基準に電子メール機能アプリケーションが対応している場合、携帯電話の通話アプリケーションをフォアグラウンドで実行中に第2段階の基準を満たす押圧に基づくデータを検出すると、電子機器1は、電子メール機能アプリケーションをフォアグラウンドの実行に切り替える。
(第2実施の形態)
 次に、本発明の第2実施の形態について説明する。第2実施の形態は、上述した第1実施の形態において、図3のステップS17におけるアプリケーション制御処理を変更するものである。したがって、第2実施の形態に係る電子機器は、第1実施の形態にて説明した電子機器1と同じ構成により実施することができるため、第1実施の形態と同じ内容になる説明は、適宜省略する。
 上述した第1実施の形態による電子機器1は、所定の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションの何れかを、フォアグラウンドで実行中のものと切り替えた。これに対し、第2実施の形態による電子機器1は、所定の基準を満たす押圧に基づくデータを検出すると、フォアグラウンドで実行中のアプリケーションはそのままの状態で、バックグラウンドで実行中のアプリケーションの何れかに所定の処理を実行させる。
 図6は、本実施の形態において、図3におけるステップS17のアプリケーション制御処理の詳細を説明するフローチャートである。図6に示す本実施の形態によるアプリケーション制御処理においては、制御部15は、まず、フォアグラウンドで実行中のアプリケーションの他に、バックグラウンドで実行中のアプリケーションがあるか否かを判定する(ステップS31)。
 ステップS31においてバッググラウンド実行中のアプリケーションが存在しない場合、バックグラウンドで実行中の制御すべきアプリケーションがない。この場合、制御部15は、「バッググラウンド実行中のアプリケーションが存在しない」旨の表示を表示部14に表示する等して、操作者にその旨を知らせる(ステップS32)。また、この際に、制御部15は、触感呈示部13を駆動して、ボタンを押下した触感とは異なる触感を呈示するなどして、バッググラウンド実行中のアプリケーションが存在しない旨を操作者に知らせるようにしてもよい。このように、ステップS32において、バッググラウンド実行中のアプリケーションが存在しない旨を操作者に通知した後、制御部15は、ステップS17のアプリケーション制御処理を終了する。
 一方、ステップS31においてバッググラウンド実行中のアプリケーションが存在する場合、制御部15は、現在フォアグラウンドで実行中のアプリケーションはそのままにして、バックグラウンドで実行中のアプリケーションが所定の処理を実行するように制御する(ステップS33)。その後、制御部15は、ステップS17のアプリケーション制御処理を終了する。
 なお、ステップS33において、制御部15は、バックグラウンドで実行中のアプリケーションの何れかが所定の処理を実行するように制御する。ここで、バックグラウンドで実行中のアプリケーションが1つしか存在しない場合、所定の処理を実行させるべく制御するアプリケーションは自ずと特定される。
 ここで、所定の基準を満たす押圧に基づくデータを検出した際に、バックグラウンドで実行中のアプリケーションに実行させるべき所定の処理は、予め規定しておく。一例として、バックグラウンドで実行中のアプリケーションがアラームである場合に、上述した所定の処理は、当該アラームを停止させる処理とすることができる。また、他の例として、バックグラウンドで実行中のアプリケーションが音楽プレーヤである場合に、上述した所定の処理は、当該音楽プレーヤで再生中の音楽を停止させたり、再生が停止している場合には再生を開始する処理としたり、または再生中の曲の次の曲を選曲する処理などとすることができる。さらに、所定の基準を満たす押圧に基づくデータを検出した際に、当該押圧に基づくデータが検出された態様に応じて、異なる所定の処理を規定しておくことも考えられる。
 例えばバックグラウンドで実行中のアプリケーションが音楽プレーヤである場合、所定の基準を満たす押圧に基づくデータが短時間検出された(すなわち短押し)際の所定の処理は、再生中の曲の次の曲を選曲する処理とすることができる。さらに、所定の基準を満たす押圧に基づくデータが比較的長い時間検出された(すなわち長押し)際の所定の処理は、当該音楽プレーヤで再生中の音楽を停止させる処理とすることもできる。また、このように異なる所定の処理を規定する場合、所定の基準を満たす押圧に基づくデータが検出される時間の長短ではなく、素早い2度の検出(ダブルタップ)や、素早い3度の検出(トリプルタップ)等のように、所定の短期間内に検出される押圧に基づくデータの回数に応じて異なる所定の処理を規定してもよい。
 また、バッググラウンドで実行中のアプリケーションが複数ある場合、制御部15は、それらの何れのアプリケーションに所定の処理を実行させるのかを特定しなければならない。このように、バッググラウンドで実行中の複数のアプリケーションのうち、所定の処理を実行させるものを特定する方法にも、上述した第1実施の形態と同様に、種々の方法が想定できる。
 例えば、特定のアプリケーションがフォアグラウンドで実行中に、当該アプリケーションと連携する(または同時に使用する)可能性の高いアプリケーションを予め1つ規定しておくようにできる。この場合、ステップS17の処理の際には、制御部15は、その規定されたアプリケーションがバックグラウンドで実行中のまま、所定の処理を実行するように制御する。また、複数のアプリケーションにおいて、バックグラウンドで実行中のまま所定の処理を行う順番を、所定の順序として予め規定しておくこともできる。この場合、ステップS17の処理が発生するたびに、制御部15は、この順序に従って、フォアグラウンドで実行中のアプリケーションはそのままで、バックグラウンドで実行中のアプリケーションが所定の処理を行うように制御する。
 その他、第1実施の形態と同様に、ステップS12において、制御部15が所定の基準を満たす押圧に基づくデータを検出する際に、当該押圧に基づくデータを段階別に検出することもできる。すなわち、例えば、所定の基準を満たす押圧に基づくデータについて、徐々に高く設定される所定の段階の基準を予め複数規定し、さらに、これらの所定の段階の基準のそれぞれに、対応するアプリケーションも予め規定しておくことができる。例えば、第1段階の押圧に基づくデータの基準にはスケジュール管理アプリケーションを、第2段階の基準には電子メール機能アプリケーションを、第3段階の基準には音楽プレーヤのアプリケーションを、などのように対応させることができる。このように設定した場合、制御部15は、ステップS12にて所定の段階の基準を満たす押圧に基づくデータを検出すると、ステップS17にて、バックグラウンドで実行中のアプリケーションのうち所定の段階の基準に対応するものが所定の処理を実行するように制御する。
 図7は、第2実施の形態に係る電子機器1による処理を説明する図である。図7(A)に示すように、電子機器1がウェブブラウザのアプリケーションをフォアグラウンドで実行中である場合の例について説明する。図7(A)は、操作者が、電子機器1によってウェブブラウザのアプリケーションを実行し、インターネットのニュース記事配信サイトを閲覧している様子を表している。また、この際、電子機器1は、音楽プレーヤのアプリケーションをバックグラウンドで実行中であるものとする。図7(A)に示す例では、電子機器1は、バックグラウンドで音楽プレーヤのアプリケーションを実行中であり、イヤホン50からは曲Aの音楽が出力されているものとする。
 図7(A)に示すように、電子機器1は、ウェブブラウザのアプリケーションをフォアグラウンドで実行中であるため、操作者のタッチ操作を受け付けることにより、ウェブブラウザのアプリケーションにおいて当該操作に対応する処理を行う。すなわち、図7(A)に示す状態において、操作者は、電子機器1の(表示部14にオブジェクトが表示されている状態の)タッチセンサ11に対してタッチ操作を行うことにより、ウェブブラウザのアプリケーションに所定の処理を実行させることができる。例えば、操作者は、ニュース記事の項目(ヘッドライン)を表示しているオブジェクトに接触することにより、当該ニュース記事の詳細を閲覧することができる。
 このような状態で、図7(A)に示すように、タッチセンサ11のタッチ面が押圧されて、制御部15が所定の基準を満たす押圧に基づくデータを検出すると、電子機器1は、図7(B)に示すように、バックグラウンドで実行していた音楽プレーヤのアプリケーションに所定の処理を実行させる。この例では、所定の処理として、再生中の曲の次の曲を選曲する処理を規定した場合について説明する。したがって、バックグラウンドで実行中の音楽プレーヤのアプリケーションが所定の処理を行うことにより、図7(B)に示すように、イヤホン50からは曲Aの次の曲である曲Bの音楽が出力される。すなわち、操作者は、図7(A)に示すようにウェブブラウザのアプリケーションをフォアグラウンドで実行中に、バックグラウンドで実行中の音楽プレーヤのアプリケーションに対する操作をしたくなった場合、タッチセンサ11の任意の位置を、所定の基準を満たす押圧に基づくデータが検出されるように操作するだけでよい。
 このような押圧操作により、図7(B)に示すように音楽プレーヤのアプリケーションに対する操作を行うことができるため、操作者は、バックグラウンドで実行中のアプリケーションに対する操作を即座に行うことができる。図5においては、音楽プレーヤのアプリケーションがバックグラウンドで実行中のまま、次の曲を選曲する処理を実行させる例について説明したが、規定された所定の処理に応じて種々の処理を実行させることが考えられる。例えば音楽プレーヤの場合、次の曲を選曲する処理ではなく、再生中の音楽を停止させたり、またはもともと停止している場合は再生させたりという処理を実行させることも想定できる。このような所定の処理は、バックグラウンドで実行中のアプリケーションに応じて、種々のものを想定できる。
(第3実施の形態)
 次に、本発明の第3実施の形態について説明する。第3実施の形態は、上述した第1実施の形態と同様の技術的思想に基づいて、さらにタッチセンサ11に対する操作ミスを防止するための措置を施したものである。第3実施の形態に係る電子機器も、第1実施の形態にて説明した電子機器1と同じ構成により実施することができるため、第1実施の形態と同じ内容になる説明は、適宜省略する。
 第1および第2実施の形態においては、バックグラウンドで実行中のアプリケーションを制御する以外の、フォアグラウンドで実行中のアプリケーションに対する制御は、タッチセンサ11による接触の検出をトリガとして処理を行った。しかしながら、この場合、タッチセンサ11に操作者の指などが軽く触れただけで、フォアグラウンドで実行中のアプリケーションに対する操作が受け付けられてしまい、操作ミスの原因になることが想定される。したがって、本実施の形態においては、フォアグラウンドで実行中のアプリケーションに対しては、第1の基準を満たす押圧に基づくデータの検出により処理を実行させ、第1の基準よりも高い第2の基準を満たす押圧に基づくデータの検出によりバックグラウンドで実行中のアプリケーションに対する制御を行う。
 図8は、第3実施の形態に係る電子機器1に対する操作に応じたアプリケーションの制御を説明するフローチャートである。本実施の形態に係る電子機器1は、タッチセンサ11に対する第1の基準を満たす押圧に基づくデータによる通常の操作を受け付けている際に、第2の基準を満たす押圧に基づくデータを検出したら、バックグラウンドで実行中のアプリケーションの何れかを、フォアグラウンドで実行中のものと切り替える。したがって、本実施の形態に係る電子機器1は、タッチセンサ11に対する接触が受け付けられた段階では、バックグラウンドおよびフォアグラウンドともに、実行中のアプリケーションに対する特定の処理は実行されないことに留意すべきである。
 図8に示すフローチャートは、タッチセンサ11において第1の基準を満たす押圧に基づくデータによる操作が検出された位置がアプリケーションを起動するためのアイコン等(オブジェクト)に対応する位置である場合、電子機器1が、そのアプリケーションを起動する等の通常の処理を含めて説明してある。なお、図8に示す処理を開始するにあたり、電子機器1は、すでに何らかのアプリケーションをフォアグラウンドで起動しているものとする。ここで起動するアプリケーションは、例えばスケジュール管理のアプリケーションや、電子メール機能のアプリケーションなど、任意のものとすることができる。
 また、図8のフローチャートに示す処理を開始するにあたり、タッチセンサ11のタッチ面に対する第1の基準を満たす押圧に基づくデータによる操作者の押圧操作を検出する前に、電子機器1の表示部14にアプリケーションを起動するアイコン等および操作を行うためのキー等のオブジェクトを表示しておく。本実施の形態におけるオブジェクトは、押圧操作を受け付ける位置(領域)を操作者に示唆する画像とすることができる。例えば、オブジェクトの画像として、数字や文字がキートップに描画されている状態を表す画像を表示部14に表示する。また、本実施の形態におけるオブジェクトは、フォアグラウンドで実行中のアプリケーションに対する操作を行うための接触を検出する位置(領域)を操作者に示唆する画像とすることができる。例えば、オブジェクトの画像として、起動するアプリケーションを示すアイコンの画像を表示部14に表示する。この際、どのようなオブジェクトがどのように表示部14に表示されるのかは、その時にフォアグラウンドで実行されているアプリケーションに依存する。
 本実施の形態に係る電子機器1の処理が開始すると、制御部15は、タッチセンサ11への接触の有無を監視するとともに、タッチセンサ11に対する押圧に基づくデータを監視する(ステップS51)。ステップS51において、タッチセンサ11が、操作者の指やスタイラスペン等の押圧対象(押圧物)による接触(タッチ操作)を検出した場合、ステップS52に移行する。
 ステップS52において、制御部15は、タッチセンサ11に対する押圧に基づくデータが、操作者によるタッチセンサ11の押圧によって増加して第1の基準を満たしたか否かを判定する。ここで、第1の基準を満たす押圧に基づくデータは、操作者が通常の押圧操作を行う際の押圧に基づいて予め設定し、その後も設定変更できるようにするのが好適である。また、操作者が意図せずにタッチセンサに軽く触れてしまったような場合は、押圧に基づくデータが第1の基準を満たしたと判定されないようにするため、この第1の基準は過度に低い値を設定しないようにする。さらに、リアルな触感のための圧覚を操作者に与えるためにも、操作者の意図に基づく押圧の普段の荷重(例えば平均値など)を考慮する等して、前記第1の基準は過度に低い値を設定しないようにする。
 ステップS51においてタッチセンサ11が接触を検出していても、ステップS52において制御部15が第1の基準を満たす押圧に基づくデータを検出していない場合、処理はステップS51に戻る。ステップS52において制御部15が第1の基準を満たす押圧に基づくデータを検出した場合、制御部15は、タッチセンサ11が検出している接触の位置が、表示部14上に表示されているオブジェクトの位置に対応するか否かを判定する(ステップS53)。
 ステップS53において、タッチセンサ11が検出した接触の位置がオブジェクトの位置に対応していない場合、操作者はアプリケーションによる所定の制御が行われる位置を接触していない。この場合、制御部15は、タッチセンサ11に対する押圧に基づくデータが、操作者によるタッチセンサ11の押圧によってさらに増加して第2の基準を満たしたか否かを判定する(ステップS54)。ここで、第2の基準を満たす押圧に基づくデータは、操作者が通常の押圧操作を行う際の押圧に基づいて、それよりも若干高い基準を予め設定し、その後も設定変更できるようにするのが好適である。ステップS54においてタッチセンサ11に対する押圧に基づくデータが第2の基準を満たしていないと判定される場合、制御部15は、ステップS52に戻って処理を続行する。
 一方、ステップS53において、タッチセンサ11が検出した接触の位置がオブジェクトの位置に対応している場合、制御部15は、操作者の意図に基づいて第1の基準を満たす押圧に基づくデータによる操作を検出したことを操作者に報知する。このため、制御部15は、触感呈示部13を所定の駆動信号で駆動して、予め設定した所定の振動パターンでタッチセンサ11を振動させて第1の触感を呈示する(ステップS55)。なお、ステップS55において呈示する第1の触感は、例えば、第1実施の形態で説明したボタンを押下した触感とすることができる。
 ステップS55において触感が呈示されたら、制御部15は、タッチセンサ11に対する押圧に基づくデータが、操作者によるタッチセンサ11の押圧によってさらに増加して第2の基準を満たしたか否かを判定する(ステップS56)。ステップS56においてタッチセンサ11に対する押圧に基づくデータが第2の基準を満たしたと判定される場合、制御部15は、第2の基準を満たす押圧に基づくデータによる操作を検出したことを操作者に報知するため、触感呈示部13を所定の駆動信号で駆動して触感を呈示する(ステップS57)。なお、ステップS57において呈示する触感は、ステップS55と同様の例えばボタンを押下した触感としてもよいが、第1の基準を満たす押圧に基づくデータによる操作とは異なる操作を受け付けたことを操作者に報知すべく、ボタンを押下した触感やボタンから指などを離す際の触感とは別の触感とするのが好適である。
 ステップS57において触感が呈示されたら、制御部15は、ステップS58のアプリケーション制御処理を行う。ステップS58にて行うアプリケーション制御処理は、図3にて説明したステップS17のアプリケーション制御処理と同じであり、より詳細には、図4または図6で説明したのと同じ処理を行う。すなわち、バックグラウンドで実行中の何れかのアプリケーションをフォアグラウンドの実行に切り替える態様においては、図4に示したアプリケーション制御処理を行う。また、バックグラウンドで実行中の何れかのアプリケーションに対して、バックグラウンドのまま所定の処理を実行させる態様においては、図6に示したアプリケーション制御処理を行う。
 ステップS58においてアプリケーション制御処理を行った後、制御部15は、タッチセンサ11に対する押圧に基づくデータが第1の基準を下回ったか否かを判定する(ステップS59)。すなわち、ステップS59では、操作者がタッチセンサ11に対する押圧の力を弱めたか否かを判定する。
 ステップS59においてタッチセンサ11に対する押圧に基づくデータが第1の基準を下回った場合、制御部15は、触感呈示部13を所定の駆動信号で駆動して、予め設定した所定の振動パターンでタッチセンサ11を振動させて第2の触感を呈示する(ステップS60)。ここで呈示する触感は、アプリケーション制御処理が適切に実行されたことを操作者に知らせるためのものである。この第2の触感は、第1実施の形態と同様に、ステップS55において呈示される第1の触感と同じものとすることもできる。あるいは、第1の触感はボタンを押下する触感とした場合には、第2の触感は、第1の触感とは異ならせて、ボタンから指などを離す際の触感としてもよい。
 一方、ステップS56においてタッチセンサ11に対する押圧に基づくデータが第2の基準を満たしていないと判定される場合、制御部15は、タッチセンサ11に対する押圧に基づくデータが第1の基準を下回ったか否かを判定する(ステップS61)。すなわち、ステップS61では、操作者がタッチセンサ11に対する押圧の力を弱めたか否かを判定する。
 ステップS61においてタッチセンサ11に対する押圧に基づくデータが第1の基準を下回っていない場合、制御部15は、ステップS56に戻って処理を続行する。また、ステップS61においてタッチセンサ11に対する押圧に基づくデータが第1の基準を下回った場合、制御部15は、押圧操作を検出していた位置のオブジェクトに対応する処理を行う(ステップS62)。ステップS62にて行うオブジェクトに対応する処理は、図3にて説明したステップS15の処理と同じである。すなわち、この際の処理は、その時にフォアグラウンドで実行されているアプリケーションによって規定されている。ステップS62においてオブジェクトに対応する処理が行われたら、制御部15は、ステップS60に移行して、以降、操作者の押圧操作が解除された場合の処理を行う。
 なお、ステップS54においてタッチセンサ11に対する押圧に基づくデータが第2の基準を満たしていると判定された場合、制御部15は、ステップS57にて触感を呈示した後、ステップS58のアプリケーション制御処理を実行する。すなわち、本実施の形態においても、電子機器1は、タッチセンサ11の任意の位置にて第2の基準を満たす押圧に基づくデータによる押圧操作を受け付けることにより、アプリケーション制御処理を実行することができる。したがって、操作者は、バックグラウンドで実行中のアプリケーションに対する制御を行いたくなった場合、タッチセンサ11の任意の位置を、第2の基準を満たす押圧に基づくデータが検出されるように操作するだけでよい。
 このように、本実施の形態によれば、バックグラウンドで実行中のアプリケーションに対する制御としては、上述した第1ないし第2実施の形態と同様の効果を得ることができ、さらに、タッチセンサ11に何かが軽く接触してしまうような操作は、実質的な操作とはみなさない。したがって、本実施の形態に係る電子機器1は、操作者による操作ミスを低減させることができる。
(第4実施の形態)
 上述した第1ないし第3実施の形態にて使用した電子機器1は、全てマルチタクスで処理を行うことを想定して説明した。しかしながら、本発明は、マルチタスクの電子機器のみならず、シングルタスクの電子機器に適用することもできる。第4実施の形態に係る電子機器は、第1実施の形態にて説明した電子機器1と同じ構成の、シングルタスクの電子機器により実施することができるため、第1実施の形態と同じ内容になる説明は、適宜省略する。
 本実施の形態は、図3または図8で説明したフローチャートに従って処理を行い、図3のステップS17または図8のステップS58において、図9に示すアプリケーション制御処理を実行するものである。上述したように、シングルタスクの電子機器は、複数のアプリケーションを同時に実行することができない。したがって、シングルタスクの電子機器の場合、特定のアプリケーションを実行中に、当該アプリケーションと連携する(切り替えて実行する)可能性の高いアプリケーションを予め規定しておき、ステップS17またはステップS58の処理の際には、その規定されたアプリケーションを実行させる。また、制御部15が所定の基準を満たす押圧に基づくデータを検出する際に、当該押圧に基づくデータを段階別に検出して、これらの所定の段階の基準のそれぞれに、対応するアプリケーションも予め規定しておいてもよい。
 図9は、シングルタスクの電子機器が図3または図8で説明したフローチャートに従って処理を行う際の、図3のステップS17または図8のステップS58において行うアプリケーション制御処理を説明するフローチャートである。本実施の形態によるアプリケーション制御処理が開始すると、制御部15は、まず、実行中のアプリケーションの他に、このアプリケーションと切り替えて実行するように規定されたアプリケーションがあるか否かを判定する(ステップS71)。
 ステップS71において切り替えるべきアプリケーションが存在しない場合、制御部15は、「切り替えるアプリケーションが存在しない」旨の表示を表示部14に表示する等して、操作者にその旨を知らせる(ステップS72)。また、この際に、制御部15は、触感呈示部13を駆動して、上述したボタンを押下した触感とは異なる触感を呈示するなどして、切り替えるアプリケーションが存在しない旨を操作者に知らせるようにしてもよい。このように、ステップS72において、切り替えるアプリケーションが存在しない旨を操作者に通知した後、制御部15は、本実施の形態によるアプリケーション制御処理を終了する。
 一方、ステップS71において切り替えるべきアプリケーションが存在する場合、制御部15は、現在実行中のアプリケーションを一旦終了させる(ステップS73)。次に、制御部15は、切り替えて実行すべく規定されたアプリケーションを起動してから(ステップS74)、本実施の形態によるアプリケーション制御処理を終了する。
 このように、本実施の形態によれば、シングルタスクの電子機器を用いてアプリケーションを実行している際に、簡単かつ素早く他のアプリケーションへの切り替えを行うことができる。
 なお、本発明は、上記実施の形態にのみ限定されるものではなく、幾多の変形または変更が可能である。例えば、上述した第1ないし第3実施の形態においては、マルチタスクの電子機器において、バックグラウンドで実行中のアプリケーションを制御することについて説明した。しかしながら、本発明は、アプリケーションの実行がフォアグラウンドかバックグラウンドかという区別によるものではなく、アプリケーションの実行がアクティブか非アクティブかという区別によって、アプリケーションの切り替えを行うようにすることもできる。
 すなわち、例えば、上述した第1実施の形態において、制御部15は、所定の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションの何れかをアクティブにするように制御するようにもできる。また、この場合、制御部15は、所定の基準を満たす押圧に基づくデータを検出するたびに、アクティブでないアプリケーションの何れかを、所定の順序に従って順次アクティブにするように制御するようにもできる。さらに、上述の場合、制御部15は、所定の段階の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションのうち前記所定の段階の基準に対応するものをアクティブにするように制御するようにもできる。
 さらに、本発明は、アプリケーションの実行がフォアグラウンドかバックグラウンドかという区別によるものではなく、アプリケーションの実行がアクティブか非アクティブかという区別によって、アクティブでないアプリケーションの制御を行うようにすることもできる。すなわち、例えば、上述した第2実施の形態において、制御部15は、所定の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションの何れかが所定の処理を実行するように制御するようにもできる。また、この場合、制御部15は、所定の段階の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションのうち前記所定の段階の基準に対応するものが所定の処理を実行するように制御するようにもできる。
 また、上述した各実施の形態における押圧検出部は、任意の個数の歪みゲージセンサを用いて構成することができる。さらに、このような押圧検出部は、タッチパネルにおける接触検出方式に応じて各種の構成を想定することができる。例えば、抵抗膜方式の場合には、接触面積の大きさに応じた抵抗の大きさを、タッチパネルのタッチ面に対する押圧の荷重(力)に対応付けることにより、歪みゲージセンサや圧電素子等を用いることなく構成することができる。あるいは、静電容量方式の場合には、静電容量の大きさを、タッチパネルのタッチ面に対する押圧の荷重(力)に対応付けることにより、歪みゲージセンサや圧電素子等を用いることなく構成することができる。
 また、触感呈示部は、任意の個数の圧電振動子を用いて構成したり、タッチセンサの全面に透明圧電素子を設けて構成したり、触感を呈示する振動を表現できるのであれば、偏心モータを駆動信号の1周期で1回転させるようして構成したり、することもできる。さらに、押圧検出部および触感呈示部は、圧電素子を用いて構成する場合は、圧電素子を共用して押圧検出部兼触感呈示部を構成することもできる。
 また、本発明に係る電子機器は、タッチセンサ11に対する押圧に基づくデータが、触感を呈示する基準を満たした際に、触感呈示部を駆動させる。しかしながら、上記タッチセンサ11に対する押圧に基づくデータが触感を呈示する基準を満たした際とは、タッチセンサ11に対する押圧に基づくデータが触感を呈示する基準値に達した際であってもよいし、タッチセンサ11に対する押圧に基づくデータが触感を呈示する基準値を超えた際でもよい。また、上記タッチセンサ11に対する押圧に基づくデータが触感を呈示する基準を満たした際とは、押圧検出部により触感を呈示する基準値が検出された際でもよい。
 なお、本発明においては、触感を呈示する代わりに、または触感の呈示とともに、音によって操作者に報知するようにもできる。
11 タッチセンサ
11a タッチ面
12 押圧検出部
13 触感呈示部
14 表示部
15 制御部
21 筐体
22 インシュレータ
23 アッパカバー
24 インシュレータ
31 歪みゲージセンサ
32 圧電振動子
50 イヤホン
 

Claims (10)

  1.  タッチセンサと、
     前記タッチセンサに対する押圧を検出する押圧検出部と、
     所定の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションソフトウェアの何れかを、フォアグラウンドで実行中のものと切り替えるように制御する制御部と、
     を備える電子機器。
  2.  前記制御部は、所定の基準を満たす押圧に基づくデータを検出するたびに、バックグラウンドで実行中のアプリケーションソフトウェアの何れかを、所定の順序に従って、フォアグラウンドで実行中のものと順次切り替えるように制御する、請求項1に記載の電子機器。
  3.  前記制御部は、所定の段階の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションソフトウェアのうち前記所定の段階の基準に対応するものを、フォアグラウンドで実行中のものと切り替えるように制御する、請求項1に記載の電子機器。
  4.  タッチセンサと、
     前記タッチセンサに対する押圧を検出する押圧検出部と、
     所定の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションソフトウェアの何れかが所定の処理を実行するように制御する制御部と、
     を備える電子機器。
  5.  前記制御部は、所定の段階の基準を満たす押圧に基づくデータを検出すると、バックグラウンドで実行中のアプリケーションソフトウェアのうち前記所定の段階の基準に対応するものが所定の処理を実行するように制御する、請求項4に記載の電子機器。
  6.  タッチセンサと、
     前記タッチセンサに対する押圧を検出する押圧検出部と、
     所定の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションソフトウェアの何れかをアクティブにするように制御する制御部と、
     を備える電子機器。
  7.  前記制御部は、所定の基準を満たす押圧に基づくデータを検出するたびに、アクティブでないアプリケーションソフトウェアの何れかを、所定の順序に従って順次アクティブにするように制御する、請求項6に記載の電子機器。
  8.  前記制御部は、所定の段階の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションソフトウェアのうち前記所定の段階の基準に対応するものをアクティブにするように制御する、請求項6に記載の電子機器。
  9.  タッチセンサと、
     前記タッチセンサに対する押圧を検出する押圧検出部と、
     所定の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションソフトウェアの何れかが所定の処理を実行するように制御する制御部と、
     を備える電子機器。
  10.  前記制御部は、所定の段階の基準を満たす押圧に基づくデータを検出すると、アクティブでないアプリケーションソフトウェアのうち前記所定の段階の基準に対応するものが所定の処理を実行するように制御する、請求項9に記載の電子機器。
     
PCT/JP2012/001248 2011-02-23 2012-02-23 タッチセンサを備えた電子機器 WO2012114760A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/001,152 US9727177B2 (en) 2011-02-23 2012-02-23 Electronic device with a touch sensor
JP2013500904A JP5654114B2 (ja) 2011-02-23 2012-02-23 タッチセンサを備えた電子機器

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-037117 2011-02-23
JP2011037117 2011-02-23

Publications (1)

Publication Number Publication Date
WO2012114760A1 true WO2012114760A1 (ja) 2012-08-30

Family

ID=46720551

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/001248 WO2012114760A1 (ja) 2011-02-23 2012-02-23 タッチセンサを備えた電子機器

Country Status (3)

Country Link
US (1) US9727177B2 (ja)
JP (1) JP5654114B2 (ja)
WO (1) WO2012114760A1 (ja)

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102981756A (zh) * 2012-11-01 2013-03-20 山东大学 一种触屏移动终端上快速切换应用的方法
US20140240276A1 (en) * 2013-02-25 2014-08-28 Hyun-Gyu Choi Portable terminal
JP2015095696A (ja) * 2013-11-11 2015-05-18 株式会社村田製作所 表示装置
WO2016199309A1 (ja) * 2015-06-12 2016-12-15 パイオニア株式会社 電子機器
JP2017091554A (ja) * 2016-11-28 2017-05-25 Kddi株式会社 表示制御方法、電子機器、表示制御用プログラム及び表示制御システム
JP2017149225A (ja) * 2016-02-23 2017-08-31 京セラ株式会社 車両用コントロールユニット
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
JP2017528776A (ja) * 2015-06-07 2017-09-28 アップル インコーポレイテッド ユーザインタフェース間をナビゲートするためのデバイス及び方法
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US9823839B2 (en) 2012-05-09 2017-11-21 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
JP2018026128A (ja) * 2016-08-11 2018-02-15 株式会社 ハイディープHiDeep Inc. タッチ入力装置の圧力タッチ方法
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US10067645B2 (en) 2015-03-08 2018-09-04 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
JP2019145157A (ja) * 2019-04-24 2019-08-29 パイオニア株式会社 電子機器
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6576245B2 (ja) * 2013-05-08 2019-09-18 株式会社スクウェア・エニックス・ホールディングス 情報処理装置、制御方法及びプログラム
KR102148948B1 (ko) * 2013-12-06 2020-08-27 삼성전자주식회사 전자 장치의 멀티 태스킹 방법 및 그 전자 장치
US20150212610A1 (en) * 2014-01-30 2015-07-30 Samsung Display Co., Ltd. Touch-in-touch display apparatus
US9606633B2 (en) * 2015-05-08 2017-03-28 John W. Downey Method and apparatus for input to electronic devices
CN105045454B (zh) 2015-08-27 2017-10-17 广东欧珀移动通信有限公司 一种终端防误触方法及终端
EP3136215A1 (en) * 2015-08-28 2017-03-01 Nokia Technologies Oy Responding to user input
KR20170049991A (ko) * 2015-10-29 2017-05-11 삼성전자주식회사 압력 터치를 이용한 사용자 인터렉션 제공 방법 및 그를 이용하는 전자 장치
CN107526506A (zh) * 2017-08-28 2017-12-29 上海传英信息技术有限公司 一种播放器的控制方法、控制装置以及移动终端
GB2572611B (en) * 2018-04-05 2020-08-19 Sony Interactive Entertainment Europe Ltd Computer game processing
JP7218567B2 (ja) * 2018-12-21 2023-02-07 京セラドキュメントソリューションズ株式会社 情報入力装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010067126A (ja) * 2008-09-12 2010-03-25 Sony Corp 情報処理装置、及び情報処理方法
JP2010109587A (ja) * 2008-10-29 2010-05-13 Kyocera Corp 携帯電子機器
JP2010118042A (ja) * 2008-11-11 2010-05-27 Pantech Co Ltd ジェスチャを用いた移動端末のアプリケーション制御システムおよびアプリケーション制御方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05181606A (ja) 1991-12-27 1993-07-23 Nec Corp タッチパネル装置
JP2001202192A (ja) 2000-01-18 2001-07-27 Sony Corp 情報処理装置及びその方法並びにプログラム格納媒体
JP2002366277A (ja) * 2001-06-11 2002-12-20 Fujikura Ltd 文字入力スイッチ
JP4434609B2 (ja) 2002-03-29 2010-03-17 株式会社東芝 表示入力システム
US8483765B2 (en) * 2005-08-26 2013-07-09 Kt Corporation User terminal for performing a plurality of applications simultaneously
US9575655B2 (en) * 2006-12-29 2017-02-21 Nokia Technologies Oy Transparent layer application
KR100881186B1 (ko) 2007-01-04 2009-02-05 삼성전자주식회사 터치 스크린 디스플레이 장치
JP5220352B2 (ja) 2007-06-20 2013-06-26 京セラ株式会社 入力端末装置およびその表示制御方法
KR20090019161A (ko) * 2007-08-20 2009-02-25 삼성전자주식회사 전자 장치 및 이를 조작하는 방법
US8745514B1 (en) * 2008-04-11 2014-06-03 Perceptive Pixel, Inc. Pressure-sensitive layering of displayed objects
US8780054B2 (en) * 2008-09-26 2014-07-15 Lg Electronics Inc. Mobile terminal and control method thereof
JP5228755B2 (ja) * 2008-09-29 2013-07-03 富士通株式会社 携帯端末装置、表示制御方法および表示制御プログラム
JP5157969B2 (ja) * 2009-03-09 2013-03-06 ソニー株式会社 情報処理装置、閾値設定方法及びそのプログラム
KR101601040B1 (ko) * 2009-05-19 2016-03-09 삼성전자주식회사 휴대 단말기의 화면 표시 방법 및 이를 지원하는 휴대 단말기
JP2011053974A (ja) * 2009-09-02 2011-03-17 Sony Corp 操作制御装置、操作制御方法およびコンピュータプログラム
US9052926B2 (en) * 2010-04-07 2015-06-09 Apple Inc. Device, method, and graphical user interface for managing concurrently open software applications

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010067126A (ja) * 2008-09-12 2010-03-25 Sony Corp 情報処理装置、及び情報処理方法
JP2010109587A (ja) * 2008-10-29 2010-05-13 Kyocera Corp 携帯電子機器
JP2010118042A (ja) * 2008-11-11 2010-05-27 Pantech Co Ltd ジェスチャを用いた移動端末のアプリケーション制御システムおよびアプリケーション制御方法

Cited By (116)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10664097B1 (en) 2011-08-05 2020-05-26 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10338736B1 (en) 2011-08-05 2019-07-02 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10275087B1 (en) 2011-08-05 2019-04-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10345961B1 (en) 2011-08-05 2019-07-09 P4tents1, LLC Devices and methods for navigating between user interfaces
US10365758B1 (en) 2011-08-05 2019-07-30 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10386960B1 (en) 2011-08-05 2019-08-20 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10540039B1 (en) 2011-08-05 2020-01-21 P4tents1, LLC Devices and methods for navigating between user interface
US10649571B1 (en) 2011-08-05 2020-05-12 P4tents1, LLC Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10656752B1 (en) 2011-08-05 2020-05-19 P4tents1, LLC Gesture-equipped touch screen system, method, and computer program product
US10042542B2 (en) 2012-05-09 2018-08-07 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US9823839B2 (en) 2012-05-09 2017-11-21 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US9886184B2 (en) 2012-05-09 2018-02-06 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US9971499B2 (en) 2012-05-09 2018-05-15 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US9990121B2 (en) 2012-05-09 2018-06-05 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10175864B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects in accordance with contact intensity
US9996231B2 (en) 2012-05-09 2018-06-12 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10168826B2 (en) 2012-05-09 2019-01-01 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10073615B2 (en) 2012-05-09 2018-09-11 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10191627B2 (en) 2012-05-09 2019-01-29 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10095391B2 (en) 2012-05-09 2018-10-09 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10114546B2 (en) 2012-05-09 2018-10-30 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10126930B2 (en) 2012-05-09 2018-11-13 Apple Inc. Device, method, and graphical user interface for scrolling nested regions
US9753639B2 (en) 2012-05-09 2017-09-05 Apple Inc. Device, method, and graphical user interface for displaying content associated with a corresponding affordance
US10175757B2 (en) 2012-05-09 2019-01-08 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for touch-based operations performed and reversed in a user interface
CN102981756A (zh) * 2012-11-01 2013-03-20 山东大学 一种触屏移动终端上快速切换应用的方法
US9965074B2 (en) 2012-12-29 2018-05-08 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10037138B2 (en) 2012-12-29 2018-07-31 Apple Inc. Device, method, and graphical user interface for switching between user interfaces
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10101887B2 (en) 2012-12-29 2018-10-16 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US10185491B2 (en) 2012-12-29 2019-01-22 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or enlarge content
US10078442B2 (en) 2012-12-29 2018-09-18 Apple Inc. Device, method, and graphical user interface for determining whether to scroll or select content based on an intensity theshold
US9778771B2 (en) 2012-12-29 2017-10-03 Apple Inc. Device, method, and graphical user interface for transitioning between touch input to display output relationships
US10175879B2 (en) 2012-12-29 2019-01-08 Apple Inc. Device, method, and graphical user interface for zooming a user interface while performing a drag operation
US9996233B2 (en) 2012-12-29 2018-06-12 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US9959025B2 (en) 2012-12-29 2018-05-01 Apple Inc. Device, method, and graphical user interface for navigating user interface hierarchies
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US9857897B2 (en) 2012-12-29 2018-01-02 Apple Inc. Device and method for assigning respective portions of an aggregate intensity to a plurality of contacts
US20140240276A1 (en) * 2013-02-25 2014-08-28 Hyun-Gyu Choi Portable terminal
JP2015095696A (ja) * 2013-11-11 2015-05-18 株式会社村田製作所 表示装置
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10268341B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10268342B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10067645B2 (en) 2015-03-08 2018-09-04 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10152208B2 (en) 2015-04-01 2018-12-11 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
JP2017528776A (ja) * 2015-06-07 2017-09-28 アップル インコーポレイテッド ユーザインタフェース間をナビゲートするためのデバイス及び方法
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US9916080B2 (en) 2015-06-07 2018-03-13 Apple Inc. Devices and methods for navigating between user interfaces
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
JPWO2016199309A1 (ja) * 2015-06-12 2018-03-29 パイオニア株式会社 電子機器
US11269438B2 (en) 2015-06-12 2022-03-08 Pioneer Corporation Electronic device
WO2016199309A1 (ja) * 2015-06-12 2016-12-15 パイオニア株式会社 電子機器
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10209884B2 (en) 2015-08-10 2019-02-19 Apple Inc. Devices, Methods, and Graphical User Interfaces for Manipulating User Interface Objects with Visual and/or Haptic Feedback
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
JP2017149225A (ja) * 2016-02-23 2017-08-31 京セラ株式会社 車両用コントロールユニット
US11221735B2 (en) 2016-02-23 2022-01-11 Kyocera Corporation Vehicular control unit
WO2017145746A1 (ja) * 2016-02-23 2017-08-31 京セラ株式会社 車両用コントロールユニット
JP2018026128A (ja) * 2016-08-11 2018-02-15 株式会社 ハイディープHiDeep Inc. タッチ入力装置の圧力タッチ方法
JP2017091554A (ja) * 2016-11-28 2017-05-25 Kddi株式会社 表示制御方法、電子機器、表示制御用プログラム及び表示制御システム
JP2019145157A (ja) * 2019-04-24 2019-08-29 パイオニア株式会社 電子機器

Also Published As

Publication number Publication date
JP5654114B2 (ja) 2015-01-14
JPWO2012114760A1 (ja) 2014-07-07
US20130335373A1 (en) 2013-12-19
US9727177B2 (en) 2017-08-08

Similar Documents

Publication Publication Date Title
JP5654114B2 (ja) タッチセンサを備えた電子機器
JP5596348B2 (ja) 多重モード触覚フィードバックシステム
CN104881175B (zh) 具有动态触觉效应的多触摸装置
JP5635274B2 (ja) 触感呈示装置および触感呈示方法
JP5529663B2 (ja) 入力装置
JP5718475B2 (ja) 触感呈示装置
JP5437786B2 (ja) 触感呈示装置
JP5555612B2 (ja) 触感呈示装置
JP5519020B2 (ja) 入力装置および入力装置の制御方法
JP2011048686A (ja) 入力装置
JP2011048832A (ja) 入力装置
JP5539788B2 (ja) 触感呈示装置
JP2016212605A (ja) 電子機器および電子機器の制御方法
JP5969279B2 (ja) 電子機器
JP5587596B2 (ja) 触感呈示装置
WO2011077687A1 (ja) 触感呈示装置および触感呈示装置の制御方法
JP5292244B2 (ja) 入力装置
JP5763579B2 (ja) 電子機器
JP5725899B2 (ja) 文字列検索装置
JP5591646B2 (ja) 電子情報機器
JP5706676B2 (ja) 触感呈示装置
JP2011095925A (ja) 入力装置
JP2011048833A (ja) 入力装置
JP2011095928A (ja) 入力装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12749073

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013500904

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14001152

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12749073

Country of ref document: EP

Kind code of ref document: A1