WO2010073729A1 - 入力装置 - Google Patents

入力装置 Download PDF

Info

Publication number
WO2010073729A1
WO2010073729A1 PCT/JP2009/007316 JP2009007316W WO2010073729A1 WO 2010073729 A1 WO2010073729 A1 WO 2010073729A1 JP 2009007316 W JP2009007316 W JP 2009007316W WO 2010073729 A1 WO2010073729 A1 WO 2010073729A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
load
unit
user
pressing
Prior art date
Application number
PCT/JP2009/007316
Other languages
English (en)
French (fr)
Inventor
智剛 青野
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to CN200980151358.1A priority Critical patent/CN102257459B/zh
Priority to US13/120,814 priority patent/US9448649B2/en
Priority to KR1020117012990A priority patent/KR101283177B1/ko
Priority to EP09834535A priority patent/EP2372502A4/en
Publication of WO2010073729A1 publication Critical patent/WO2010073729A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/014Force feedback applied to GUI
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures

Definitions

  • the present invention relates to an input device, and more particularly to an input device having a touch panel.
  • a mobile terminal such as a mobile phone
  • various input devices used when a user operates the terminal have been developed according to the function and application of each terminal.
  • an input operation is performed when a user directly presses a mechanical key or button or the like provided in advance on the surface of the mobile terminal body with a finger or the like.
  • the mechanical keys (for example, the numeric keypad) of the input device in such a terminal are arranged in advance according to the main use of the terminal. Therefore, in general, the physical layout of the key defined first cannot be changed later.
  • an input device including a touch panel configured by placing a transparent input unit on a front surface of a liquid crystal display screen constituting the display unit.
  • An input device having such a touch panel generally displays images (hereinafter referred to as “input objects”) such as operation keys and buttons on a display screen of the touch panel.
  • input objects images
  • the input unit of the touch panel corresponding to the position receives the input.
  • the foldable mobile phone described in Patent Document 1 can arbitrarily display an arrangement of input objects on a display screen of a touch panel to accept a user's operation input, and constitutes an arrangement of free keys and the like. It is possible. Therefore, each time the function of the terminal is switched, the mobile phone can provide extremely good operability by freely changing the arrangement of the input object according to the function. For example, when a user uses a digital camera function mounted on a mobile phone, the mobile phone can receive an operation input by displaying an input object constituting an operation unit for the digital camera on a touch panel. it can.
  • this mobile phone when a user inputs characters such as an e-mail using the mobile phone, the mobile phone displays an input object constituting a keyboard such as a personal computer (PC) on the touch panel for input. Can be accepted.
  • this mobile phone can receive an operation input by optimizing one input device for each of a plurality of functions by including a touch panel.
  • an input device having a touch panel accepts input by an input method in which the user directly touches (touches) an input object displayed on the display unit with a fingertip or the like
  • the user can perform an extremely intuitive operation. It can. That is, the user performs an operation by directly touching the input object displayed on the screen with a fingertip or the like according to the guidance displayed on the screen of the touch panel. For this reason, the user can operate the terminal very easily by an intuitive operation according to the guidance displayed on the screen, and as a result, an effect of reducing erroneous operations can be expected.
  • the input device having such a touch panel is disposed in, for example, an ATM (automatic depositing and paying machine) such as a bank or a ticket vending machine such as a station, and is used on a daily basis other than a portable terminal. .
  • an ATM automated depositing and paying machine
  • a business is performed using a terminal device including an input device having a touch panel as described above.
  • a touch panel is used as the input device, it is necessary to configure a display unit for displaying various information and an input unit for receiving a user's operation input as separate functional units, as in the conventional configuration of a device. Rather, the information display unit and the input unit can be configured on one screen. Therefore, for example, it is possible to display an array of input objects constituting keyboard keys on the touch panel to accept a user input, and to display the input result near the keyboard on the touch panel. In this way, the user can confirm the input operation and the input result by the input operation on one screen.
  • the touch panel has an advantage that the input unit and the display unit can be configured on the same screen, and the operation input can be performed intuitively. For this reason, the terminal device which has such an input device is increasing more and more.
  • the touch panel can configure the display unit by freely arranging the input objects, but usually the entire surface of the input unit is flat, so that the boundary between the input object and the part other than the input object is defined. It is difficult for the user to make a determination by tactile sense. Also, when performing input on the touch panel, the user directly touches the input unit with his / her finger, stylus, etc., so the input object is hidden at the moment of pressing input, and the user performs input operation. Is often not visible.
  • the user cannot determine whether or not his / her fingertip is touching the position where the input object is present based on the touch of the fingertip. Therefore, there is always a risk of pressing a position different from the intended position. is there. That is, a position slightly different from the intended position is pressed, and a position deviated from the input object to be input is pressed, or an input object adjacent to the input object to be input is pressed. There is a risk. When the input object to be input is pressed with a finger, the display of the input object is hidden, and thus there is a higher possibility that the intended input cannot be performed.
  • an operation unintended by the user may be started based on the input.
  • the user must perform an additional operation to cancel (cancel) the unintended operation.
  • an important process or operation that has been started up is terminated due to the unintended operation, there is a possibility that recovery may not be possible. Therefore, it is desirable to reduce the possibility that an unintended operation is started based on an input unintended by the user.
  • a means for detecting the pressing force of the input to the touch panel is provided, and a mechanism for changing the height of the touch panel surface according to the input position and pressing force of the user with respect to the touch panel is provided.
  • An input device has been proposed (see, for example, Patent Document 2).
  • JP 2006-31224 A Japanese Patent No. 4039344
  • the input device described in Patent Literature 2 when a user inputs an input object displayed on the display unit of the touch panel, the position touched by the user is input by changing the height of the touch panel. It can be shown that it is an object. That is, for example, when the user touches an input object, the input device increases the height of the touch panel surface when touching a place other than the input object so that the position touched by the user can be input. Indicates that this is an object. Furthermore, when it is recognized that the user has lightly touched the position corresponding to the input object on the touch panel, the input device enlarges the input object for easy viewing (for example, FIG. 7 and FIG. 10 etc.). By taking such various measures, the input device described in Patent Document 2 supports input in order to avoid a user's erroneous operation.
  • the user can determine whether or not an input object is present at the position of the touch panel touched by his / her fingertip by the touch of the finger. Further, since the input object touched by the user can be enlarged and displayed, even if the user touches the input object with the fingertip, the portion hidden by the touch can be relatively reduced. Therefore, according to this input device, the possibility that an input unintended by the user is accepted can be reduced.
  • small portable terminals such as mobile phones are subject to considerable restrictions on the size of the touch panel itself that also serves as a display unit.
  • the display unit for display is inevitably small.
  • it is necessary to accept various user inputs to the touch panel it is necessary to display a large number of various objects for input even in a small portable terminal. For this reason, when the user touches the input object, it is assumed that it is difficult for the portable terminal to display the input object in an enlarged manner.
  • an object of the present invention made in view of such circumstances is to provide an input device that can reduce user's erroneous operations when receiving press inputs to a plurality of adjacent input objects in, for example, a touch panel mounted on a mobile terminal. It is to provide.
  • the invention of the input device is as follows: A display unit for displaying an input object; An input unit that receives a pressing input to the input object displayed on the display unit; A load detection unit for detecting a pressing load on the input unit; A control unit that controls to receive the pressing input when the pressing load detected by the load detecting unit satisfies a load standard, and The control unit controls the load reference for receiving the pressure input to the input object to be different from the load reference for receiving the pressure input to the input object adjacent to the input object. To do.
  • the invention according to a second aspect is the input device according to the first aspect, A vibration unit for vibrating the input unit;
  • the control unit controls the vibration unit to be driven when a pressing load detected by the load detection unit satisfies a load standard.
  • the invention according to a third aspect is the input device according to the second aspect,
  • the control unit drives the vibration unit again even when the pressing load detected by the load detecting unit does not satisfy the load standard after the pressing load detected by the load detecting unit satisfies the load standard. It controls to do.
  • An invention according to a fourth aspect is the input device according to any one of the first to third aspects, After the pressing load detected by the load detection unit satisfies the load standard, the control unit receives the input unit when the pressing load detected by the load detection unit no longer satisfies the load standard. It controls so that the press input with respect to the said input object which is present is decided.
  • FIG. 1 is an external perspective view of a mobile phone including an input device according to an embodiment of the present invention. It is a functional block diagram which shows the internal structure of the mobile telephone which concerns on this Embodiment. It is a figure explaining the example of the mounting structure of the touch panel of the mobile phone shown in FIG. 2, a load detection part, and a vibration part. It is a graph which represents roughly the example of the time change of the load (pressing force) which a load detection part detects when a user presses the input part of a touch panel. It is a figure which shows the example of the waveform of the vibration which the vibration part of the mobile telephone which concerns on this Embodiment generate
  • a mobile phone will be described as an example of a mobile terminal including the input device of the present invention.
  • a mobile terminal to which the input device of the present invention can be applied is not limited to a mobile phone, and can be applied to any mobile terminal having a touch panel such as a PDA.
  • the present invention is not limited to a portable terminal having a touch panel, and can be applied to any input terminal having a touch panel such as a bank ATM or a ticket machine at a station as described above.
  • FIG. 1 is an external perspective view showing a schematic configuration of a mobile phone 10 provided with an input device according to an embodiment of the present invention.
  • the cellular phone 10 is configured by drawing various information and shapes such as keys and buttons on a liquid crystal display (LCD) or an organic EL display as shown in a partially cutaway manner on the front surface of the terminal body.
  • a display unit 32 for displaying is provided.
  • an input unit 34 configured by a matrix switch or the like that accepts an input by a user's finger or a stylus pen is disposed on the front surface of the display unit 32.
  • the touch panel 30 includes the display unit 32 and the input unit 34.
  • the cellular phone 10 further includes an audio input unit 70 configured by a microphone, an audio output unit 80 configured by a speaker, and a key input unit 90 configured by at least one mechanical key.
  • the mobile phone 10 may include a short-distance wireless communication unit such as a digital camera function unit, a one-segment broadcasting tuner, an infrared communication function unit, and various interfaces, depending on the required functions. The details and description are omitted.
  • a short-distance wireless communication unit such as a digital camera function unit, a one-segment broadcasting tuner, an infrared communication function unit, and various interfaces, depending on the required functions. The details and description are omitted.
  • FIG. 2 is a functional block diagram schematically showing the internal configuration of the mobile phone 10.
  • the mobile phone 10 includes a control unit 20, a touch panel 30, a load detection unit 40, a vibration unit 50, a storage unit 60, a voice input unit 70, a voice output unit 80, and a key. And an input unit 90.
  • the control unit 20 controls and manages the entire mobile terminal 10 including each functional block of the mobile terminal 10.
  • the touch panel 30 is configured by arranging the input unit 34 that receives input from the user so as to overlap the front surface of the display unit 32. With such a configuration, the touch panel 30 receives an operation input from the user and displays various information such as an input result in accordance with each application program (hereinafter abbreviated as “application”).
  • application application program
  • the input unit 34 of the touch panel 30 detects an input by contact (pressing) of a user's fingertip, stylus, etc., and outputs a signal corresponding to the position where the input by the contact is detected.
  • the touch panel 30 is configured using a known device such as a resistance film method or a capacitance method.
  • the display unit 32 draws and displays a user interface including various keys and buttons that accept user operation input to the input unit 34 in a predetermined display area.
  • an image such as various keys and buttons displayed on the display unit 32 is referred to as an “input object”.
  • the load detection unit 40 detects a pressing load on the touch panel 30 (or the input unit 34), and is configured using, for example, a strain gauge sensor.
  • the vibration unit 50 vibrates the touch panel 30 and is configured using, for example, a piezoelectric element or an ultrasonic vibrator. The structural relationship between the load detection unit 40 and the vibration unit 50 and the touch panel 30 will be described later.
  • the storage unit 60 stores various applications and various input information, and also functions as a work memory.
  • the storage unit 60 also stores a plurality of templates including various input objects used according to each application.
  • the voice input unit 70 converts a user's voice or the like into an input signal and transmits the input signal to the control unit 20.
  • the sound output unit 80 converts the sound signal transmitted from the control unit 20 into sound and outputs the sound.
  • the key input unit 90 transmits a corresponding signal to the control unit 10 in response to an operation input by the user.
  • the use and function of various keys constituting the key input unit 90 are defined according to the application to be used.
  • the mobile phone 10 further provides functions as a normal mobile phone such as an antenna and a wireless communication unit for transmitting and receiving various information such as voice calls and e-mail data to and from the base station via the Internet or wireless communication. It also has various functional parts necessary for this. However, since these are not particularly different from those of known techniques, description thereof is omitted.
  • FIG. 3 is a diagram illustrating an example of a mounting structure of the touch panel 30, the load detection unit 40, and the vibration unit 50 of the mobile phone 10 illustrated in FIG. 3A is a cross-sectional view of a main part, and FIG. 3B is a plan view of the main part.
  • the display unit 32 that displays various input objects on the touch panel 30 is housed and held in the housing 12.
  • the input device according to the present embodiment holds the input unit 34 on the display unit 32 via an insulator 36 made of an elastic member.
  • the display unit 32 and the input unit 34 are rectangular in plan view.
  • the touch panel 30 is illustrated as a square shape, but may be rectangular according to the specifications of the mobile terminal on which the touch panel 30 is mounted.
  • the input device holds the input unit 34 on the display unit 32 via insulators 36 arranged at four corners that are out of the display area A of the display unit 32 indicated by phantom lines in FIG. .
  • the input device is provided with an upper cover 14 on the housing 12 so as to cover the surface area of the input unit 34 that is out of the display area of the display unit 32, and between the upper cover 14 and the input unit 34, An insulator 16 made of an elastic member is disposed.
  • the input unit 34 has, for example, a front surface, i.e., a surface that receives operation input, made of a transparent film and a back surface made of glass.
  • the input unit 34 has a structure in which when the operation surface is pressed, the transparent film on the surface is bent (distorted) by a small amount in accordance with the pressing force.
  • the input device detects a pressing load (pressing force) applied to the input unit 34 in the vicinity of each side covered with the upper cover 14 on the transparent film on the surface of the input unit 34.
  • Each strain gauge sensor is provided by bonding or the like.
  • the input device is provided with a piezoelectric element or an ultrasonic vibrator for vibrating the input unit 34 in the vicinity of two opposing sides on the glass surface on the back surface of the input unit 34 by bonding or the like. . That is, in the input device shown in FIG. 3, the load detection unit 40 shown in FIG. 2 is configured using four strain gauge sensors, and the vibration unit 50 is configured using two vibrators.
  • FIG. 3B illustration of the casing 12, the upper cover 14, and the insulator 16 shown in FIG. 3A is omitted.
  • the input device monitors the input detected by the input unit 34 and the pressing load detected by the load detection unit 40 in the control unit 20.
  • the control unit 20 is a predetermined input when the pressure input detected by the input unit 34 is an input to the input object displayed on the display unit 32 and the pressure load detected by the load detection unit 40 receives the input.
  • the input is accepted as a regular input.
  • such “reference for accepting input” is simply referred to as “load reference”.
  • the control unit 20 causes the vibration unit 50 to vibrate and vibrates the pressing object such as the user's finger or the stylus pen pressing the input unit 34. Control to tell.
  • the load detection part 40 detects a load from the average value of the output of four strain gauge sensors, for example.
  • the vibrating unit 50 drives, for example, two ultrasonic transducers in phase. Due to the vibration of the vibration unit 50 that occurs when the load standard is satisfied, the user can recognize that the press input made by the user is properly received.
  • FIG. 4 is a graph schematically illustrating an example of a temporal change in pressing load (pressing force) detected by the load detecting unit 40 when the user performs an operation input by an operation of pressing the input unit 34 of the touch panel 30. .
  • pressing force the pressing force applied to the input unit 34 until the time when the user can determine that the input has been received after touching the input unit 34. (That is, an operation of pushing the input unit 34 is performed).
  • the user reduces the pressing force on the input unit 34 from the time when it is determined that the input has been accepted (that is, performs an operation of releasing a finger or the like from the input unit 34). Therefore, the load detected by the load detection unit 40 increases from the left to the right as time elapses as the time elapses, and decreases from the middle to the right as shown by the curve shown in FIG.
  • the initial setting that is a preparation for performing the load standard setting process of the input object according to the present embodiment will be described.
  • a load reference P1 that determines that the load has been made is set in advance.
  • the load reference value P1 is set by the control unit 20 based on a normal pressing force when the user performs a normal operation input to the display unit 32.
  • the control unit 20 displays on the display unit 32.
  • the control unit 20 performs an operation input to the input object that is being pressed. Is determined to be completed (confirmed).
  • the user when performing continuous hitting input in which the same position (the same input object) is continuously pressed a plurality of times on the input unit 34, the user performs one input. It is possible to input repeatedly without releasing the finger from the input unit 34 every time. That is, even if the user's finger is still touching the input unit 34, the user adjusts the strength of the finger pressing force so as to continuously increase or decrease the pressing force across the load reference value P1.
  • the input unit 34 can recognize the input as a continuous hit input. Since such an input method requires less strokes for moving the finger for the user, the user can input quickly and easily with fewer movements by becoming familiar with the input method.
  • the control unit 20 determines the load reference value based on a pressing force larger (stronger) than a normal pressing force when the user performs a normal operation input to the input unit 34. Set P2.
  • a pressure exceeding the load reference value P2 set in this way is received as an input to the input object adjacent to the input object whose load reference value is P1.
  • the load detection unit 40 detects a pressing load exceeding the pressing force P2 (B1) larger than P1 for the input object adjacent to the input object having the load reference value P1, the control is performed.
  • the unit 20 determines that the adjacent input object is pressed.
  • the control unit 20 determines that the input being pressed It is determined that the operation input for the object is completed (confirmed). That is, the control unit 20 receives a pressure input for the input object displayed adjacent to the input object rather than the load reference P1 for receiving the pressure input for the input object displayed on the display unit 32. Is controlled to be higher.
  • the control unit 20 does not accept this pressing input as an input to the adjacent input object. Only when the user presses with a pressing force exceeding P2 that is larger than the normal pressing force (P1) when performing a normal operation input, the control unit 20 does not input the pressing input next to the input. Accept as input to the object.
  • the value of the load standard (P1, P2) is regarded as the “threshold value of the pressing load”, and “the load standard is satisfied” when the value of the load standard is “exceeded”.
  • the aspect which determines with was demonstrated.
  • the aspect that can be determined as “the load standard is satisfied” is not limited to this, and it can be assumed that a number of aspects are included.
  • the load criterion is satisfied when the pressing load by the user's pressing input to the input object “reaches” the value of the load criterion.
  • the load criterion is satisfied when the pressing load indicating the value of the load criterion is “detected” by the load detection unit 40.
  • the vibration unit 50 vibrates the input unit 34 under the control of the control unit 20. Since the vibration of the input unit 34 is conducted to the fingertip, stylus, etc. of the user who performs the operation input, the user can recognize that the input to the input unit 34 has been properly received by tactile sensation.
  • the control unit 20 controls the vibration unit 50 to be driven when the pressing load detected by the load detection unit 40 satisfies the load standard.
  • the control unit 20 when each of the above-described load standards of P1 and P2 is satisfied, another vibration is generated. That is, the control unit 20 generates a vibration corresponding to the load reference P1 for the input object whose load reference value is P1. Thereby, the user can recognize that the input by the pressing load P1 has been appropriately received for the input object. Further, the control unit 20 generates a vibration different from the case of P1 corresponding to the load reference P2 for the input object whose load reference value is P2. Thereby, the user can recognize that the input by the pressing load P2 has been appropriately received for the input object.
  • the control unit 20 displays the state shown in FIG.
  • the vibration unit 50 generates vibration having a waveform as shown in FIG.
  • the control unit 20 performs the operation as illustrated in FIG. Waveform vibration is generated in the vibration unit 50.
  • the control unit 20 performs the processing shown in FIG.
  • the vibration unit 50 generates vibration having a waveform as shown in FIG. Thereafter, when the load detection unit 40 detects a pressing load that is equal to or less than P2 (B2) shown in FIG. 4 with respect to the input object, the control unit 20 is configured as shown in FIG. Waveform vibration is generated in the vibration unit 50.
  • a short (lower frequency) vibration is generated for an input object having a low load reference value (P1), and the load reference value is high (P2).
  • a longer (higher frequency) vibration is generated for the input object.
  • the control unit 20 receives a request (command) for starting an application for displaying a user interface configured by the input object on the display unit 32 of the touch panel 30. Start by. First, upon receiving a command for starting an application for displaying a user interface, the control unit 20 reads a template corresponding to the above request from the templates of various user interfaces stored in the storage unit 60 (step S1). ).
  • the control unit 20 determines whether or not there are a plurality of input objects included in the template (step S2). When there are a plurality of input objects included in the template, the control unit 20 next determines whether or not the specification is such that adjacent input objects are arranged at a predetermined interval (step S3). . The predetermined interval will be described later. When there are a plurality of input objects included in the template and adjacent input objects are arranged with less than a predetermined interval, the control unit 20 has different load standards for receiving pressure inputs to these input objects ( The load reference of each input object is set so that P1 and P2) (step S4).
  • step S4 When the setting of the load reference for each input object is completed in step S4, the control unit 20 displays each of these input objects on the display unit 32 and receives an input from the user (step S5). If there are not a plurality of input objects in step S2, that is, if there is only one input object, a normal load standard (P1) is set for the input object (step S6), and then step S5. Migrate to Further, even when a plurality of input objects are arranged at a predetermined interval or more in step S3, a normal load standard (P1) is set for all the input objects (step S6). The process proceeds to step S5.
  • P1 normal load standard
  • the load standards for receiving the pressure input to the input objects are arranged in different modes.
  • the predetermined interval described above means that if the interval between the input objects is less than the predetermined interval, the user is likely to erroneously input and press an input object that is different from the intended input object.
  • the interval set as the predetermined interval can be the distance from the end of one input object to the end of another input object, and one of the centers of the input objects It can also be set as the distance from the center to the other central portion.
  • a user memo creating application is activated.
  • This application displays a character input object on substantially the lower half of the display unit 32 of the touch panel 30 and accepts a user input to the input unit 34.
  • the user memo creating application displays the character input objects separated from each other by a predetermined distance or more. Therefore, in this example, since there is a low possibility that the user erroneously inputs and presses an input object that is different from the intended input object, the control unit 20 includes, for each of these character input objects, A normal load standard (P1) is set.
  • P1 normal load standard
  • the characters are input one by one by changing the kana characters corresponding to each key to "Aiueo order" according to the number of key inputs. Since the method is conventionally known as a “multi-tap input method”, description thereof is omitted.
  • the “function” input object shown in the upper left of the display unit 32 of the touch panel 30 In response to the press input, the control unit 20 causes a so-called pull-down display as shown in FIG.
  • the “function” pull-down display includes “Save” and “Delete” input objects. When these two input objects are arranged less than a predetermined distance from each other (for example, when they are adjacent to each other), the “Save” input object and the “Delete” input object are Are arranged in such a manner that the load standards for receiving the pressure input are different.
  • a load reference value P2 is set to (Newton). Further, for example, a load reference value P1 of 1N is set to an input object adjacent to the input object whose load reference value is P2, such as the “save” input object.
  • the input device accepts an input by a normal pressing force (not exceeding P2) when performing a normal operation input on the “deleted” object as an input. Absent.
  • P2 load reference value
  • P1 normal pressing force
  • the same countermeasure as described above can be performed. That is, for example, although the user intends to press the “save” object, the “save” and “delete” input objects are erroneously (or the contact area of the finger pressing the input unit 34 protrudes). May be pressed at the same time. Even in such a case, an input by a normal pressing force (not exceeding P2) when a normal operation input is performed on the “deleted” object is not accepted. Contrary to the above-described case, a countermeasure when the user intends to press the “delete” object but accidentally presses the “save” object will be described later.
  • the normal operation input is performed for an input object arranged adjacent to an input object that receives an input by a pressing load based on a normal operation input (exceeding P1).
  • a load larger than P2 based load (exceeds P2) is set.
  • An input with a pressing load that is larger (heavy) than a normal operation input is an input different from various input modes (for example, long press, double press such as double click, etc.) assumed as a normal input method. . Therefore, input by various input modes assumed as a normal input method is not accepted for an input object whose load reference is P2, and therefore an input that is erroneously performed by the user without intention is valid. Will not be accepted as input. That is, input by an operation not intended by the user is avoided.
  • an input object that needs to be input with a strong pressing force such as an input object for a “delete” key shown in FIG. 7C, has a different color from the input object for other keys. Is displayed on the display unit 32.
  • the input objects of different colors are input objects whose load reference value is P2.
  • a character such as “Please touch the input of the“ delete ”key strongly” ”may be displayed at a predetermined position on the display unit 32. Good.
  • the screen display by the user memo creation application shown in FIG. 8 is similar to that shown in FIG. 7 in the configuration of the character input object displayed on the display unit 32 of the touch panel 30, but the user input result (memo) is displayed.
  • the area to do is larger. Therefore, the area where the character input object for accepting the user's pressing input is arranged is relatively small.
  • the area of each input object is reduced, and the interval between the input objects is displayed narrowly.
  • the control unit 20 uses the input objects adjacent to each other with the interval less than the predetermined interval. Set different load standards for.
  • the load standard setting process for example, as shown in FIG. 8, objects for input with different load standards are alternately arranged.
  • the input object that needs to be input with a strong pressing force is displayed in a display mode such as changing the color. is doing. That is, in FIG. 8, the input object having a dark color (having broken line hatching) has a load standard (P2) larger than the load standard (P1) when performing normal operation input. Show.
  • an input object having a normal color (outlined) indicates that a normal load standard (P1) is set.
  • the input unit 34 of the touch panel 30 is adjacent to the input object for which the normal load reference (P1) is set, and is larger than the normal load reference (P1) ( P2) is set. That is, every other input object for which the normal load standard (P1) is set and every other input object for which the load standard (P2) larger than the normal load standard (P1) is set. . Therefore, even when a plurality of input objects are densely adjacent to each other, the user can distinguish and input these input objects.
  • control unit 20 inputs the input unit 34 corresponding to the input object of the touch panel 30 with the user's fingertip or stylus (hereinafter referred to as “user input”). It is determined whether or not “abbreviated” is detected) (step S12).
  • step S12 When an input by the user to the input unit 34 corresponding to the input object is detected in step S12, the control unit 20 determines that the position of the display unit 32 corresponding to the position where the input is detected is a normal load reference (P1). It is determined whether or not the position corresponds to the input object for which a larger (higher) load reference (P2) is set (step S13). When the input position is a position corresponding to the input object for which the load reference (P2) larger than the normal load reference (P1) is set (Yes in step S13), the control unit 20 selects the input object. A highlight is displayed (step S14).
  • the highlighting in step S14 is highlighting performed to make the user recognize that the user's fingertip is touching the input object. For example, when a user input to the input object of the “delete” button as shown in FIG. 10A is detected, the control unit 20 displays the input object as shown in FIG. Change to light display. Thereby, the user can visually recognize that an input such as his / her fingertip touching the input unit 34 is properly detected by the input device. This highlight display only indicates that the user's fingertip or the like is touching the input unit 34, and at this point, it is determined that the input is still accepted (that is, the key is pressed). Not.
  • step S15 the control unit 20 determines whether or not the pressure load value P detected by the load detection unit 40 exceeds the load reference value P2 (step S15). If an input exceeding the load reference value P2 is not made to the input object for which the load reference P2 is set, the control unit 20 does not process the input as accepted. Therefore, in step S15, when the pressing load P having a value exceeding the load reference value P2 is not detected by the load detection unit 40, the control unit 20 determines whether or not the input by the user to the input unit 34 has been released. (Step S16).
  • step S16 If the input is not canceled in step S16 (that is, the user has not removed the fingertip or the like from the input unit 34), the control unit 20 returns to step S15 and the value P of the pressing load detected by the load detection unit 40. To monitor.
  • step S16 when the input by the user to the input unit 34 is canceled, it is treated that the input object touched by the user has not been input, and the control unit 20 cancels the highlight display. (Step S17), the process is terminated.
  • the cancellation of the highlight display in step S17 is a display for indicating to the user that the input of the user's fingertip or the like touching the input unit 34 at the position corresponding to the input object is no longer detected.
  • the control unit 20 displays a highlight display of the input object that is displayed on the display unit 32 when a user input is detected, as shown in FIG. Return to display.
  • the user can visually recognize that the input device appropriately recognizes that his / her fingertip or the like touching the input unit 34 has moved away from the input unit 34.
  • the control unit 20 determines that the pressing load P has the load reference value P2.
  • the vibration unit 50 is vibrated in order to notify the user that it has been exceeded (step S18).
  • the control unit 20 causes the vibration unit 50 to generate vibration having a waveform as shown in FIG. 5C (long vibration corresponding to a strong input).
  • the user can identify that his or her pressing load P has exceeded the load reference value P2.
  • step S18 the control unit 20 changes the display of the display unit 32 to indicate that the input object whose input has been detected is pressed as a key. That is, for example, the highlighted input object as shown in FIG. 10B is displayed as shown in FIG. 10C to indicate that the input object is pressed. . Thereby, the user can visually recognize that the pressing input by his / her fingertip or the like touching the input unit 34 is appropriately received by the input device as the pressing input for the input object.
  • step S18 the control unit 20 reduces the pressing force input by the user to the input unit 34, and the pressing load P detected by the load detection unit 40 falls below the load reference value P2 (B2 shown in FIG. 4). It is determined whether or not (step S19).
  • step S19 when the pressing load P becomes equal to or less than the load reference value P2, the control unit 20 determines the operation input for the input object whose load reference is P2 while receiving the current input. (Step S20). That is, in the input process according to the present embodiment, when compared with a mechanical key, when the key is pressed, the acceptance of the key input is not yet confirmed, and the key is not pressed until the key is released. Confirm acceptance of input.
  • step S20 the control unit 20 returns the display of the display unit 32 to the highlight display so as to indicate that the pressing load on the input object whose input has been detected is equal to or less than P2. That is, for example, the display indicating that the input object shown in FIG. 10C has been pressed is returned to the highlighted display of the input object as shown in FIG. 10B. Accordingly, the user can visually recognize that the pressing input to the input object is confirmed as an input and that the input device appropriately recognizes that the pressing force pressing the input object has been eased.
  • step S20 the control unit 20 vibrates the vibration unit 50 in order to indicate to the user that the operation input for the input object whose load reference is P2 is confirmed.
  • the control unit 20 causes the vibration unit 50 to generate a vibration having a waveform as shown in FIG. 5D (long vibration corresponding to a strong input). Thereby, the user can identify that the operation input with respect to the input object whose load reference is P2 is confirmed.
  • step S20 the control unit 20 determines whether or not the input by the user to the input unit 34 has been released (step S21). If the input is not canceled in step S21 (that is, the user has not removed the fingertip or the like from the input unit 34), the control unit 20 continues to monitor the pressing load P detected by the load detection unit 40. When the input by the user to the input unit 34 is canceled in step S21, the control unit 20 proceeds to step S17 described above to cancel the highlight display, and ends this process.
  • step S15 to step S18 to step S19 and step 20 the time change of the pressing load applied to the input unit 34 detected by the load detection unit 40 is changed.
  • step S13 when the input position is not a position corresponding to the input object for which the load reference P2 is set in step S13, the control unit 20 proceeds to step S22 and highlights the input object.
  • the case where it transfers to step S22 from step S13 is a case where the input object by which the input by the user was detected is an input object to which the load reference
  • the highlight display of the input object performed in this case is also performed in the same manner as described in step S14.
  • step S23 the control unit 20 determines whether or not the pressure load value P detected by the load detection unit 40 exceeds the load reference value P1 (step S23). For the input object for which the load reference P1 is set, the control unit 20 determines that the input is accepted if an input exceeding the load reference value P1 is made, as in the case of performing a normal operation input. Process. Therefore, in step S23, when the pressing load P with a value exceeding the load reference value P1 is not detected by the load detection unit 40, the control unit 20 determines whether or not the input by the user to the input unit 34 has been released. (Step S24).
  • step S24 If the input is not canceled in step S24 (that is, the user has not removed the fingertip or the like from the input unit 34), the control unit 20 returns to step S23 and the value P of the pressing load detected by the load detection unit 40. To monitor.
  • the control unit 20 treats the input object touched by the user as not being input and cancels the highlight display. (Step S17), the process is terminated.
  • the control unit 20 determines that the pressing load P has the load reference value P1.
  • the vibration unit 50 is vibrated in order to notify the user that it has been exceeded (step S25).
  • the control unit 20 causes the vibration unit 50 to generate a vibration having a waveform as shown in FIG. 5A (short vibration corresponding to a weak (normal) input). Thereby, the user can identify that the pressing load P has exceeded the load reference value P1.
  • step S25 the control unit 20 changes the display of the display unit 32 to indicate that the input object whose input has been detected has been pressed. That is, for example, the highlighted input object as shown in FIG. 10B is displayed as shown in FIG. 10C to indicate that the input object is pressed. . Thereby, the user can visually recognize that the pressing input by his / her fingertip or the like touching the input unit 34 is appropriately received by the input device as the pressing input for the input object.
  • step S25 the control unit 20 reduces the pressing force input by the user to the input unit 34, and the pressing load P detected by the load detection unit 40 is below the load reference value P1 (A2 shown in FIG. 4). It is determined whether or not (step S26). When the pressing load P becomes equal to or less than the load reference value P1 in step S26, the control unit 20 determines the operation input for the input object whose load reference is P1 while currently receiving the input. (Step S27).
  • step S27 the control unit 20 returns the display of the display unit 32 to the highlight display so as to indicate that the pressing load on the input object whose input has been detected is equal to or less than P1. That is, for example, the display indicating that the input object as shown in FIG. 10C is pressed is returned to the highlighted display of the input object as shown in FIG. 10B. . Accordingly, the user can visually recognize that the pressing input to the input object is confirmed as an input and that the input device appropriately recognizes that the pressing force pressing the input object has been eased.
  • step S27 the control unit 20 vibrates the vibration unit 50 in order to indicate to the user that the operation input for the input object whose load reference is P1 is confirmed.
  • the control unit 20 causes the vibration unit 50 to generate a vibration having a waveform as shown in FIG. 5B (short vibration corresponding to a weak (normal) input).
  • the user can identify that the operation input with respect to the input object whose load reference is P1 is confirmed.
  • step S27 the control unit 20 determines whether or not the input by the user to the input unit 34 has been released (step S21). If the input is not canceled in step S21 (that is, the user has not removed the fingertip or the like from the input unit 34), the control unit 20 continues to monitor the pressing load P detected by the load detection unit 40. When the input by the user to the input unit 34 is canceled in step S21, the control unit 20 proceeds to step S17 described above to cancel the highlight display, and ends this process.
  • step S23 to step S25 to step S26 and step 27 the time change of the pressing load on the input unit 34 detected by the load detection unit 40 is changed.
  • the control unit 20 determines whether a so-called slide input in which the position of the pressing input detected by the input unit 34 changes is detected. Is determined (step S28).
  • the slide input here means that the input position changes from the input object originally pressed to another input object by moving the finger or the like while the user presses the input unit 34 with the finger or the like. Indicates the input to be performed.
  • step S28 when such a slide input is not detected by the input unit 34, the control unit 20 returns to step S26 and continues to monitor the pressure load value P detected by the load detection unit 40. However, in step S28, when the slide input with the pressing load exceeding P1 is detected for the input unit 34, the control unit 20 proceeds to step S13 and continues the process. When the process proceeds from step S28 to step S13, the control unit 20 cancels the press display of the input object for which the press input was originally detected (before the slide input was performed), and then proceeds to step S13. Transition.
  • step S13 after the slide input (step S28), if the destination whose input position has changed by the slide input is an input object with a low load reference (P1), the process flow goes from step S22 to step S23 to step S25.
  • P1 low load reference
  • the process flow goes from step S22 to step S23 to step S25.
  • the input pressing load P for the input object with the load reference P1 exceeds the load reference value P1
  • the input is not yet accepted (not determined), and until the input is determined.
  • the user can change the input object by slide input.
  • the control unit 20 determines that the load reference being pressed at that time is The input to the input object of P1 is confirmed.
  • step S13 when the input position changed by the slide input is an input object with a high load reference (P2), the process proceeds to step S14, and the control unit 20 Highlight the input object.
  • the control unit 20 inputs to the input object with a high load reference (P ⁇ b> 2) whose input position has changed. Is not yet accepted as a press input. That is, the user performs the slide input to the input object of the load reference P2 while keeping the initial pressing input (P1 ⁇ P ⁇ P2) detected for the input object of the load reference P1 in an undetermined state. By doing, it can change into the input with respect to the object for input from which a pressing load differs.
  • step S15 the control unit 20 determines whether or not the pressure load value P detected by the load detection unit 40 exceeds the load reference value P2.
  • step S15 when the pressing load P exceeding the load reference value P2 is detected by the load detection unit 40, the control unit 20 treats the input object as being pressed. Furthermore, when the pressing load P becomes equal to or less than the load reference value P2 in step S19, the control unit 20 sets the operation input for the input object currently being accepted as a confirmed input. Accept.
  • the process of accepting the slide input in step 28 can cope with a case where a user who intends to press the load reference P2 input object accidentally presses the load reference P1 object. . That is, by this process, for example, in the example shown in FIG. 7, the user intended to press the “deleted” object (load reference P2 (high)), but mistakenly the “saved” object (load reference P1 ( It is possible to deal with the case where the low)) is pressed.
  • load reference P2 high
  • load reference P1 load reference P1
  • step S23 when the object of the load reference P1 is accidentally pressed (Yes in step S23) while the user intends to press the input object of the load reference P2, the user returns a long vibration corresponding to the load reference P2. I expect it to come. However, actually, a short vibration corresponding to the load reference P1 is generated (step S25). By this vibration, the user can recognize that his / her own pressing input is not properly input to the input object of the load standard P2 and has touched the input object of the load standard P1. However, at this time, the acceptance of the operation input for the input object (load reference P1) being pressed by the user has not yet been confirmed (the confirmation process is performed in step S27).
  • a finger or the like can be slid (step S28).
  • the destination load reference P2 input object is highlighted (step S14). It has not been pressed yet.
  • step S15 when a pressing input of a pressing load exceeding P2 is performed by the user (step S15), the control unit 20 receives a pressing input with respect to the input object of the load reference P2 originally intended by the user (step S18). .
  • the operation by the user at this time corresponds to an operation of strongly pressing the input object after sliding input to the originally intended input object.
  • step S19 when the pressing load is weakened by the user or an operation such as releasing the finger from the input unit 34 is performed (step S19), the control unit 20 applies to the input object of the load reference P2 originally intended by the user.
  • the pressing input is confirmed (step S20).
  • the time when the input object is strongly pressed corresponds to B1, and the corresponding operation is from step S15 to step S18.
  • the user passes the B2 by the operation of weakening the pressing force and trying to release the finger from the input unit 34, and the operation corresponding to this passes from Step S19 to Step S20.
  • the user intends to press the object of the load reference P2 (for example, “delete” in FIG. 8) by the input input pressing process of the input object.
  • the P1 object for example, “Save” in FIG. 8) is pressed can also be dealt with.
  • the present invention is not limited to the above-described embodiment, and many changes or modifications can be made.
  • the load reference values P1 and P2 of the input object and the predetermined interval are set in advance, but the user can appropriately change or adjust as necessary. It is desirable to make it. In this way, if the user feels uncomfortable about the setting of the pressing load during the operation, the setting can be appropriately corrected later.
  • the vibration unit 50 when the pressing load input by the user exceeds P1 or P2, the vibration unit 50 is vibrated so that the user can recognize that.
  • the vibration generated by the vibration unit 50 is not limited to the vibration mode based on the waveform shown in FIG. 5, and can be distinguished whether the input pressing load by the user exceeds P1 or P2. Any vibration can be used. In such a case, it is not an essential requirement to generate a vibration. For example, a specific sound can be generated from the audio output unit 80 in addition to the vibration. Further, by changing the color or display mode of the input object that receives the input on the display unit 32, it may be indicated that the pressing load of the input by the user exceeds P1 or P2.
  • the load standard of each input object is made different in order to prevent a user's erroneous operation.
  • the possibility that the user will make an input error is low. Therefore, in such a case, as long as the input reception range of each input object is equal to or larger than a predetermined area, it is not necessary to make the load standards different.
  • the input object input acceptance is set at a predetermined interval as a reference for determining whether or not the load reference is different based on the fact that the user is less likely to make an input error. It may be varied depending on the size of the range. That is, even if 1 cm is set as the predetermined interval, if the input reception range of the input object is wide (that is, the object is large), the load standard is different unless the interval of the input object is less than 0.1 cm, for example. In addition, when the input reception range of the input object is narrow, the load standard may be different when the distance between the input objects is less than 2 cm, for example.
  • a load reference for detecting a pressing load on the input unit of the touch panel and receiving a pressing input for a certain input object, and a pressing input for an input object adjacent to the input object are received. Different from the load standard. Therefore, even if a large number of input objects are displayed adjacent to each other on the input unit of the small touch panel, the user can distinguish and input each input object.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 入力装置10は、入力用オブジェクトを表示する表示部32と、入力用オブジェクトに対する押圧入力を受け付ける入力部34と、入力部34に対する押圧荷重を検出する荷重検出部40と、荷重検出部40により検出される押圧荷重が荷重基準を満たした際に、その押圧入力を受け付けるように制御する制御部20と、を備え、制御部20は、入力用オブジェクトに対する押圧入力を受け付ける荷重基準と、この入力用オブジェクトと隣り合っている入力用オブジェクトに対する押圧入力を受け付ける荷重基準とを相違させるように制御することを特徴とする。

Description

入力装置 関連出願の相互参照
 本出願は、2008年12月25日に出願された日本国特許出願2008-331056号の優先権を主張するものであり、この先の出願の開示全体を、ここに参照のために取り込む。
 本発明は、入力装置に関するものであり、特に、タッチパネルを有する入力装置に関するものである。
 例えば携帯電話のような携帯端末において、ユーザが端末の操作を行う際に使用する入力装置は、各端末の機能や用途に応じて様々なものが開発されている。多くの場合、携帯端末本体の表面に予め配設された機械式のキーまたはボタンなどを、ユーザが指などで直接押下することによって、入力操作を行う構成になっている。
 このような端末における入力装置の機械的なキー(例えばテンキー等)は、当該端末の主要な用途に応じて予め配置されているのが普通である。したがって、一般的に、最初に規定されたキーの物理的配置を、後から変更することはできない。
 ところで、最近では、携帯電話にデジタルカメラや音楽再生の機能を搭載したものがあるように、小型の携帯端末に多種多様な機能が組み込まれている。携帯電話のように、端末の主要な用途以外に補助的な機能が数多く搭載されているものや、PDA(Personal Digital Assistant:携帯情報端末)等のように、1つの端末でスケジュール管理や住所録など、主要な用途を複数有するものもある。このような端末においては、キーの配置が固定されていると、使用する機能によっては、ユーザが操作入力時に著しく不便さを感じることがある。
 このような操作入力の際の不便さを解消するために、表示部を構成する液晶表示画面の前面に透明な入力部を重ねて配設することにより構成したタッチパネルを備える入力装置が開示されている(例えば、特許文献1参照)。このようなタッチパネルを有する入力装置は、一般的に、タッチパネルの表示画面上に、操作キーやボタンなどの画像(以下、「入力用オブジェクト」と記す)を表示する。表示画面上に表示された入力用オブジェクトをユーザが押圧すると、その位置に対応するタッチパネルの入力部が入力を受け付けるようになっている。
 上記特許文献1に記載の折り畳み型携帯電話機は、タッチパネルの表示画面上に任意に入力用オブジェクトの配置を表示させて、ユーザの操作入力を受け付けることができ、自由なキーなどの配置を構成することが可能である。したがって、この携帯電話機は、端末の各機能を切り替える毎に、その機能に応じて入力用オブジェクトの配置を自在に変更することにより、極めて良好な操作性を提供することができる。例えば、ユーザが携帯電話機に搭載されているデジタルカメラ機能を使用する際は、この携帯電話機は、タッチパネル上にデジタルカメラ用の操作部を構成する入力用オブジェクトを表示して操作入力を受け付けることができる。一方、ユーザがこの携帯電話機を用いて電子メールなどの文字を入力する際は、この携帯電話機は、タッチパネル上にパーソナルコンピュータ(PC)のようなキーボードを構成する入力用オブジェクトを表示して入力を受け付けることができる。このように、この携帯電話機は、タッチパネルを備えることにより、1つの入力装置を、複数の機能にそれぞれ最適化させて操作入力を受け付けることができる。
 また、タッチパネルを有する入力装置は、表示部上に表示された入力用オブジェクトにユーザが指先などで直接触れる(タッチする)入力方式により入力を受け付けるため、ユーザは極めて直感的な操作を行うことができる。すなわち、ユーザは、タッチパネルの画面に表示された案内に従って、画面に表示された入力用オブジェクトに指先などで直接触れることにより操作を行う。このため、ユーザは、画面に表示された誘導に応じて直感的な操作により非常に容易に端末を動作させることができ、結果的に誤操作を低減させる効果も期待できる。
 このように、タッチパネルを備える携帯端末を用いて、現在、ユーザは、通常の携帯電話による通話や電子メール作成の際の操作入力のみならず、インターネットを利用して配信されるコンテンツの視聴やウェブ閲覧(ブラウズ)の際の操作入力を行うこともできる。また、このようなタッチパネルを有する入力装置は、携帯端末以外においても、例えば銀行などのATM(現金自動預入支払機)や、駅などの券売機に配設され、現在日常的に利用されている。さらに、ファーストフード店などの店舗においては、従業員が顧客の注文を処理する際、上述したようなタッチパネルを有する入力装置を備えた端末装置を用いて業務が行われている。入力装置にタッチパネルを用いることにより、タッチパネル以外のキーボードなどの、機械式の操作ボタンまたはキーなどは必須の要素ではなくなる。したがって、端末装置本体に機械式の操作ボタン等を配置する領域が少なくて済むため、端末装置自体を全体的に小型化することができる。このため、様々な店内や駅構内などにおける端末装置の設置場所の自由度を高めることもできる。
 また、入力装置にタッチパネルを用いれば、従来一般的である機器の構成のように、各種情報を表示する表示部と、ユーザの操作入力を受け付ける入力部とを、別個の機能部として構成する必要はなく、情報表示部と入力部とを一画面上に構成することができる。したがって、例えば、タッチパネル上にキーボードのキーを構成する入力用オブジェクトの配列を表示させてユーザの入力を受け付け、さらに、この入力結果を、当該タッチパネル上のキーボードのそばに表示させることもできる。このようにすれば、ユーザは、一画面上で、入力操作と、その入力操作による入力結果の確認を行うことができる。
 以上説明したように、タッチパネルは、入力部と表示部とを同一画面上に構成することができ、なおかつその操作入力を直観的に行うことができるというメリットがある。このため、このような入力装置を有する端末装置はますます増加傾向にある。
 しかしながら、タッチパネルを有する入力装置においては、入力部と表示部とを同一画面上に構成して、直観的な操作入力を受け付けるがために生じる特有の問題点もある。すなわち、タッチパネルは、入力用オブジェクトを自由に配置して表示部を構成することができるが、通常は入力部の表面全体が平坦なため、入力用オブジェクトと入力用オブジェクト以外の部分との境界を、ユーザが触覚により判定することは困難である。また、タッチパネルに対して入力を行う際、ユーザは自らの指やスタイラスなどで入力部に直接触れるため、押圧入力を行う瞬間は入力用オブジェクトが隠れてしまい、ユーザは操作入力を行う入力用オブジェクトを視認できないことも多い。
 したがって、ユーザは、自らの指先が触れているのが入力用オブジェクトの存在する位置であるか否かを指先の感触で判断することはできないため、意図する位置と異なる位置を押してしまう恐れが常にある。すなわち、意図する位置と微妙に異なる位置を押してしまい、入力しようとする入力用オブジェクトから外れた位置を押圧してしまったり、入力しようとする入力用オブジェクトの隣の入力用オブジェクトを押圧してしまう危険性がある。入力しようとする入力用オブジェクトを指で押圧する際には、当該入力用オブジェクトの表示が隠れてしまうため、このように意図する入力ができない恐れは一層高くなる。
 また、上述のようにユーザが意図しない入力が入力装置に受け付けられてしまうと、これに基づいてユーザの意図しない動作が開始される場合がある。このような場合、ユーザは、当該意図しない動作を取り消す(キャンセルする)ために追加の操作を行わなければならない。さらに、当該意図しない動作によって、それまで起動していた重要な処理または動作を終了させてしまった場合、リカバリのきかない状況に陥ることもあり得る。したがって、ユーザの意図しない入力に基づいて意図しない動作が開始される恐れは、少しでも低減させることが望まれる。
 このような事情に対処する一助となり得る技術として、タッチパネルに対する入力の押圧力を検知する手段を設け、ユーザのタッチパネルに対する入力の位置および押圧力に応じて、タッチパネル表面の高低を変化させる機構を備える入力装置が提案されている(例えば、特許文献2参照)。
特開2006-311224号公報 特許第4039344号公報
 上記特許文献2に記載の入力装置によれば、タッチパネルの表示部に表示された入力用オブジェクトに対するユーザの入力があった場合、タッチパネルの高低を変化させることにより、ユーザが触れている位置が入力用オブジェクトであることを示すことができる。すなわち、この入力装置は、例えば、ユーザが入力用オブジェクトに触れた場合、入力用オブジェクト以外の箇所を触れた場合よりもタッチパネル表面の高さを高くすることにより、ユーザが触れている位置が入力用オブジェクトであることを示す。さらに、この入力装置は、タッチパネルの入力用オブジェクトに対応する位置にユーザが軽く触れたことが認識された場合、入力用オブジェクトを拡大表示して見易くする(例えば、特許文献2の図7および図10等参照)。このような種々の措置を講ずることにより、特許文献2に記載の入力装置は、ユーザの誤操作を避けるべく入力を支援している。
 この入力装置によれば、ユーザは、自らの指先が触れているタッチパネルの位置に入力用オブジェクトが存在するか否かを、指の感触で判別することができる。また、ユーザが触れている入力用オブジェクトを拡大表示する態様にできるため、ユーザが指先で入力用オブジェクト触れていても、それにより隠れてしまう部分を相対的に小さくすることができる。したがって、この入力装置によれば、ユーザの意図しない入力が受け付けられてしまう恐れは低減し得る。
 しかしながら、このような技術を、例えば携帯電話のような小型の携帯端末に適用するに際しては、いくつかの不都合も存在する。すなわち、上述したようなタッチパネル表面の高低を変化させる機械的な機構は、当該タッチパネルの表面の変化幅よりも相当大きな幅を必要とする。これは、タッチパネルの高低を変化させる機械的な駆動装置がある程度の大きさを必要とするためと、さらに、タッチパネル全体の高低を変化させる空間を確保する必要があるためである。最近の携帯電話機の開発においては、可能な限りの小型化が求められており、タッチパネル表面の高低を変化させる機械的な機構を携帯電話機の本体に搭載するにあたっては、技術上の困難を伴うことが想定される。
 また、携帯電話のような小型の携帯端末は、銀行のATMや駅の券売機など大型の端末の場合と異なり、表示部を兼ねるタッチパネルそのものの大きさも相当な制約を受けるため、入力用オブジェクトを表示する表示部も必然的に小型になる。その一方で、タッチパネルに対するユーザの各種入力を受け付ける必要もあるため、小型の携帯端末であっても、入力用オブジェクトも各種のものを多数表示する必要もある。そのため、ユーザが入力用オブジェクトに触れた際に入力用オブジェクトを拡大表示することも、携帯端末の場合には困難であることが想定される。
 また、このように面積の限られたタッチパネルに多数の入力用オブジェクトを表示した場合、上述のようにタッチパネルの高低を変化させて、ユーザが触れている位置が入力用オブジェクトであるか否かを示すことも実際上困難であると考えられる。特に、大きさの制限された多数の入力用オブジェクトを隣り合わせて表示した場合、これらの入力用オブジェクト同士の間隔はほとんど、あるいは全く存在しない。そのため、これらの各入力用オブジェクトの縁部(キーのエッジに相当する部分)を、タッチパネルの高低を変化させることによりユーザに認識させることは非常に困難であると考えられる。したがって、携帯電話のような小型の携帯端末のタッチパネル上に、多数の小さな入力用オブジェクトを隣り合わせて表示する場合、上記特許文献2の技術を適用することによりユーザの誤入力を低減させることは困難であると考えられる。
 携帯電話のような小型の携帯端末の場合、面積の限られたタッチパネルに多数の入力用オブジェクトを表示するのみならず、入力を行うユーザが、歩きながら入力を行ったり、または他の動作を行いながら入力を行うこともあるという特殊な事情もある。このようにユーザが入力部を注視していないような場合であっても、多数の入力用オブジェクトに対する入力をユーザの意図通りに受け付けて、ユーザの誤操作を回避することを支援する入力装置が望まれている。
 したがって、かかる事情に鑑みてなされた本発明の目的は、例えば携帯端末に搭載されるようなタッチパネルにおいて、複数の隣り合う入力用オブジェクトに対する押圧入力を受け付けるにあたり、ユーザの誤操作を低減できる入力装置を提供することにある。
 上記目的を達成する第1の観点に係る入力装置の発明は、
 入力用オブジェクトを表示する表示部と、
 前記表示部に表示される前記入力用オブジェクトに対する押圧入力を受け付ける入力部と、
 前記入力部に対する押圧荷重を検出する荷重検出部と、
 前記荷重検出部により検出される押圧荷重が荷重基準を満たした際に、前記押圧入力を受け付けるように制御する制御部と、を備え、
 前記制御部は、前記入力用オブジェクトに対する押圧入力を受け付ける荷重基準と、当該入力用オブジェクトと隣り合っている入力用オブジェクトに対する押圧入力を受け付ける荷重基準と、を相違させるように制御することを特徴とするものである。
 第2の観点に係る発明は、第1の観点に係る入力装置において、
 前記入力部を振動させる振動部をさらに備え、
 前記制御部は、前記荷重検出部により検出される押圧荷重が荷重基準を満たした際に、前記振動部を駆動するように制御するものである。
 第3の観点に係る発明は、第2の観点に係る入力装置において、
 前記制御部は、前記荷重検出部により検出される押圧荷重が荷重基準を満たした後に、前記荷重検出部により検出される押圧荷重が当該荷重基準を満たさなくなった際にも前記振動部を再度駆動するように制御するものである。
 また、第4の観点に係る発明は、第1乃至第3の何れか1つの観点に係る入力装置において、
 前記制御部は、前記荷重検出部により検出される押圧荷重が荷重基準を満たした後、前記荷重検出部により検出される押圧荷重が当該荷重基準を満たさなくなった際に、前記入力部が受け付けている前記入力用オブジェクトに対する押圧入力を確定するように制御するものである。
本発明の実施の形態に係る入力装置を備える携帯電話の外観斜視図である。 本実施の形態に係る携帯電話の内部構成を示す機能ブロック図である。 図2に示した携帯電話のタッチパネル、荷重検出部、および振動部の実装構造の例を説明する図である。 ユーザがタッチパネルの入力部を押圧する際の、荷重検出部が検知する荷重(押圧力)の時間変化の例を概略的に表すグラフである。 本実施の形態に係る携帯電話の振動部が発生する振動の波形の例を示す図である。 本実施の形態による入力用オブジェクトの荷重基準設定処理を説明するフローチャートである。 本実施の形態による入力用オブジェクトの荷重基準設定処理に基づく表示部の表示例を示す図である。 本実施の形態による入力用オブジェクトの荷重基準設定処理に基づく表示部の他の表示例を示す図である。 本実施の形態による入力用オブジェクトの押圧入力受付処理を説明するフローチャートである。 本実施の形態によるハイライト表示および押下表示を説明する図である。 入力用オブジェクトの押圧入力受付処理において、荷重検出部が検知する荷重(押圧力)の時間変化の例を概略的に表すグラフである。
 以下、本発明の実施の形態について、図面を参照して説明する。以下の実施の形態では、本発明の入力装置を具える携帯端末の一例として、携帯電話を想定して説明する。しかしながら、本発明の入力装置が適用できる携帯端末は携帯電話に限定されるものではなく、例えばPDAなどタッチパネルを有する任意の携帯端末などに適用できる。また、本発明は、タッチパネルを有する携帯端末に限定されるものでもなく、上述したような銀行のATMや駅の券売機など、タッチパネルを有する任意の入力端末にも適用できる。
 図1は、本発明の実施の形態に係る入力装置を備える携帯電話10の概略構成を示す外観斜視図である。この携帯電話10は、端末本体の前面に、一部切り欠いて示すように、液晶ディスプレイ(LCD)または有機ELディスプレイなどに種々の情報およびキーやボタンなどの形状を描画してこれらの配列を表示する表示部32を備えている。また、携帯電話10は、表示部32の前面に、ユーザの指やスタイラスペンなどによる入力を受け付けるマトリクススイッチ等で構成した入力部34を配設する。本実施の形態では、これら表示部32と入力部34とを含めてタッチパネル30を構成している。携帯電話10はさらに、マイクなどにより構成される音声入力部70、スピーカなどにより構成される音声出力部80、および、少なくとも1つの機械的なキーにより構成されるキー入力部90も備えている。
 他にも、携帯電話10は、必要な機能に応じて、デジタルカメラ機能部、ワンセグ放送用チューナ、赤外線通信機能部などの近距離無線通信部、および各種インタフェース等を備える場合もあるが、これらの詳細については図示および説明を省略する。
 図2は、携帯電話10の内部構成を概略的に示す機能ブロック図である。図2に示すように、携帯電話10は、制御部20と、タッチパネル30と、荷重検出部40と、振動部50と、記憶部60と、音声入力部70と、音声出力部80と、キー入力部90と、を備えている。制御部20は、携帯端末10の各機能ブロックをはじめとして携帯端末10全体を制御および管理する。タッチパネル30は、上述したように、ユーザからの入力を受け付ける入力部34を、表示部32の前面に重畳させて配設することにより構成する。このような構成により、タッチパネル30は、ユーザからの操作入力を受け付けると共に、各アプリケーションプログラム(以下、「アプリケーション」と略記する)に応じて入力結果など各種情報の表示を行う。
 タッチパネル30の入力部34は、ユーザの指先やスタイラス等の接触(押圧)による入力を検知することにより、当該接触による入力が検知された位置に対応する信号を出力する。このタッチパネル30は、例えば抵抗膜方式や静電容量方式などの公知のものを用いて構成する。表示部32は、各アプリケーションに対応する表示を行う他、入力部34へのユーザの操作入力を受け付ける各種キーやボタンなどで構成するユーザインタフェースを所定の表示領域に描画して表示する。本実施の形態においては、このように、タッチパネル30の入力部34に対するユーザの操作入力を受け付けるために、表示部32に表示する各種キーやボタンなどの画像を「入力用オブジェクト」と記す。
 荷重検出部40は、タッチパネル30(または入力部34)に対する押圧荷重を検出するもので、例えば歪みゲージセンサを用いて構成する。振動部50は、タッチパネル30を振動させるもので、例えば、圧電素子または超音波振動子などを用いて構成する。なお、荷重検出部40および振動部50と、タッチパネル30との構成上の関係については後述する。
 記憶部60は、各種アプリケーションおよび入力された各種情報などを記憶するとともに、ワークメモリなどとしても機能する。また、記憶部60は、各アプリケーションに応じて使用される各種の入力用オブジェクトを含んだ複数のテンプレートなども記憶する。
 音声入力部70は、ユーザの音声などを入力信号に変換して制御部20に伝達する。音声出力部80は、制御部20から伝達された音声信号を音声に変換して出力する。キー入力部90は、ユーザによる操作入力に応じて、対応する信号を制御部10に送信する。キー入力部90を構成する各種キーは、使用するアプリケーションに従って、その用途および機能が規定される。
 なお、携帯電話10はさらに、音声通話および電子メールのデータなど各種情報をインターネットや無線通信等を介して基地局と送受信するアンテナおよび無線通信部など、通常の携帯電話としての機能を提供するために必要な各種機能部も備えている。しかしながら、これらは全て公知技術のものと特に変わるところはないため、説明を省略する。
 次に、上述した荷重検出部40および振動部50と、タッチパネル30との構成上の関係について説明する。
 図3は、図2に示した携帯電話10のタッチパネル30、荷重検出部40、および振動部50の実装構造の一例を示す図である。図3(A)は要部断面図であり、図3(B)は要部平面図である。
 タッチパネル30に各種の入力用オブジェクトを表示する表示部32は、筐体12内に収納保持する。本実施の形態に係る入力装置は、表示部32上に、弾性部材からなるインシュレータ36を介して、入力部34を保持する。なお、本実施の形態に係る入力装置は、表示部32および入力部34を平面視で矩形状とする。図3においては、タッチパネル30は、正方形状として示してあるが、タッチパネル30を実装する携帯端末の仕様に応じて、長方形としてもよい。また、この入力装置は、入力部34を、図3(B)に仮想線で示す表示部32の表示領域Aから外れた4隅に配設したインシュレータ36を介して、表示部32に保持する。
 また、この入力装置は、筐体12に、表示部32の表示領域から外れた入力部34の表面領域を覆うようにアッパカバー14を設け、このアッパカバー14と入力部34との間に、弾性部材からなるインシュレータ16を配設する。
 なお、入力部34は、例えば、表面すなわち操作入力を受け付ける面が透明フィルムで構成され、裏面がガラスで構成される。この入力部34は、操作面が押圧されると、押圧力に応じて表面の透明フィルムが微少量撓む(歪む)構造のものを用いる。
 さらに、本実施の形態に係る入力装置は、入力部34の表面の透明フィルム上で、アッパカバー14で覆われる各辺の近傍に、入力部34に加わる押圧荷重(押圧力)を検出するための歪みゲージセンサをそれぞれ接着等により設ける。また、この入力装置は、入力部34の裏面のガラス面上で、対向する2つの辺の近傍に、入力部34を振動させるための圧電素子または超音波振動子などを、それぞれ接着等により設ける。すなわち、図3に示す入力装置は、図2に示した荷重検出部40を4つの歪みゲージセンサを用いて構成し、振動部50を2つの振動子を用いて構成する。なお、図3(B)は、図3(A)に示した筐体12、アッパカバー14、およびインシュレータ16の図示を省略している。
 本実施の形態に係る入力装置は、制御部20において、入力部34で検知される入力を監視するとともに、荷重検出部40で検出される押圧荷重を監視する。制御部20は、入力部34で検知された押圧入力が表示部32に表示された入力用オブジェクトに対する入力で、かつ、荷重検出部40により検知される押圧荷重が、当該入力を受け付ける際の所定の基準を満たした際に、当該入力を正規の入力として受け付ける。以下、このような「入力を受け付ける際の基準」を、単に「荷重基準」と記す。また、入力の荷重基準が満たされた際、制御部20は、振動部50に振動を発生させて、入力部34を押圧しているユーザの指もしくはスタイラスペンなどの押圧物に対して振動を伝えるように制御する。なお、荷重検出部40は、例えば、4つの歪みゲージセンサの出力の平均値から荷重を検出する。また、振動部50は、例えば、2つの超音波振動子を同相で駆動する。このような、荷重基準が満たされた際に発生する振動部50の振動により、ユーザは、自らの行った押圧入力が適切に受け付けられたことを認識することができる。
 次に、本実施の形態による、入力用オブジェクトの荷重基準について説明する。図4は、ユーザがタッチパネル30の入力部34を押圧する動作により操作入力を行う際の、荷重検出部40が検出する押圧荷重(押圧力)の時間変化の例を概略的に表すグラフである。一般的に、ユーザは、タッチパネル30の入力部34を押圧する動作(押圧入力)を行う際、入力部34に触れてから、入力が受け付けられたと判断できる時点までは、入力部34に対する押圧力を増大し続ける(つまり入力部34を押し込む動作を行う)。また、ユーザは、入力が受け付けられたと判断した時点からは、入力部34に対する押圧力を低減する(つまり入力部34から指などを離そうとする動作を行う)。したがって、荷重検出部40が検出する荷重は、図4に示す曲線のように、左から右に時間の経過に従って最初は右上がりに増大し、途中から右下がりに減少する。
 以下、本実施の形態による、入力用オブジェクトの荷重基準設定処理を行うための準備となる初期設定について説明する。本実施の形態では、入力用オブジェクトの荷重基準設定処理を行う前提として、まず、表示部32に表示されている入力用オブジェクトに対して通常の操作入力を行うための、入力部34に入力がされたと判定する荷重基準P1を予め設定する。この際、荷重基準の値P1は、ユーザが表示部32に対して通常の操作入力を行う際の普段の押圧力に基づいて、制御部20が設定を行う。この設定に基づいて、ユーザが通常の操作入力を行う際の普段の押圧力として、P1(A1)を超える押圧荷重が荷重検出部40によって検出された場合、制御部20は、表示部32に表示されている入力用オブジェクトが押下されたと判定する。また、(A1の後)押圧された入力用オブジェクトに対してP1(A2)を割り込んだ押圧荷重が荷重検出部40によって検知された場合、制御部20は、押下中の入力用オブジェクトに対する操作入力が完了(確定)したと判定する。
 このように、荷重基準の値P1を設定することにより、ユーザが入力部34にごく軽く触れただけで入力として判定してしまうことを防ぎ、これにより、ユーザの意図しない入力を回避することができる。
 また、このように荷重基準の値P1を設定することにより、入力部34上で同一位置(同じ入力用オブジェクト)を連続して複数回押圧する連打入力を行う場合、ユーザは、1回の入力ごとに入力部34から指を離すことなく連打入力を行うことができる。すなわち、入力部34上にユーザの指が触れたままであっても、ユーザは、指の押圧力の強弱を調整して、荷重基準の値P1を跨いで連続して押圧力を上下させるような入力を行うことにより、当該入力を連打入力として入力部34に認識させることができる。このような入力方法は、ユーザにとっては指を動かすストロークが少なくて済むため、ユーザは、この入力方法に習熟することにより、より少ない動きで素早く楽に入力を行うことができる。
 次に、本実施の形態では、制御部20は、ユーザが入力部34に対して通常の操作入力を行う際の普段の押圧力よりも大きな(強い)押圧力に基づいて、荷重基準の値P2を設定する。本実施の形態では、このように設定した荷重基準の値P2を超える押圧を、上述した荷重基準の値がP1である入力用オブジェクトと隣り合っている入力用オブジェクトに対する入力として受け付ける。このため、荷重基準の値がP1の入力用オブジェクトと隣り合っている入力用オブジェクトに対して、P1より大きな押圧力P2(B1)を超える押圧荷重が荷重検出部40によって検出された場合、制御部20は、当該隣り合っている入力用オブジェクトが押下されたと判定する。また、(B1の後)押圧された当該隣り合っている入力用オブジェクトに対してP2(B2)を割り込んだ押圧荷重が荷重検出部40によって検出された場合、制御部20は、押下中の入力用オブジェクトに対する操作入力が完了(確定)したと判定する。すなわち、制御部20は、表示部32に表示されている入力用オブジェクトに対する押圧入力を受け付ける荷重基準P1よりも、当該入力用オブジェクトと隣り合って表示された入力用オブジェクトに対する押圧入力を受け付ける荷重基準を高くするように制御する。
 したがって、荷重基準の値がP1の入力用オブジェクトと隣り合っている入力用オブジェクトに対して、ユーザが通常の操作入力を行う際の普段の(P2に達しない)押圧力で押圧しても、制御部20は、この押圧入力を、当該隣り合っている入力用オブジェクトに対する入力として受け付けない。ユーザが通常の操作入力を行う際の普段の押圧力(P1)よりも大きなP2を超える押圧力で押圧した場合に初めて、制御部20は、この押圧入力を、当該隣り合って表示された入力用オブジェクトに対する入力として受け付ける。
 なお、上述の説明では、例として、荷重基準(P1,P2)の値を「押圧荷重のしきい値」に見立て、荷重基準の値を「超えた」場合に「荷重基準が満たされた」と判定する態様について説明した。以下も、このような態様により判定する場合について説明するが、「荷重基準が満たされた」と判定できる態様はこれに限定されるものではなく、いくつもの態様を含むことが想定できる。例えば、入力用オブジェクトに対するユーザの押圧入力による押圧荷重が上記荷重基準の値に「達した」場合に荷重基準が満たされたと判定することもできる。また、上記荷重基準の値を示す押圧荷重が荷重検出部40によって「検出された」場合に荷重基準が満たされたと判定することもできる。
 次に、本実施の形態に係る振動部50の動作について説明する。振動部50は、制御部20の制御により入力部34を振動させる。この入力部34の振動は、操作入力を行うユーザの指先やスタイラスなどに伝導するため、ユーザは、入力部34に対する入力が適切に受け付けられたことを触感により認識することができる。この振動を発生する際、制御部20は、荷重検出部40により検出される押圧荷重が荷重基準を満たした際に、振動部50を駆動するように制御する。
 本実施の形態では、上述したP1およびP2の各荷重基準について、それぞれが満たされた際に、別の振動を発生する。すなわち、制御部20は、荷重基準の値がP1である入力用オブジェクトについては、当該荷重基準P1に対応する振動を発生させる。これにより、ユーザは、当該入力用オブジェクトについて押圧荷重P1による入力が適切に受け付けられたことを認識できる。また、制御部20は、荷重基準の値がP2である入力用オブジェクトについては、当該荷重基準P2に対応する、P1の場合とは別の振動を発生させる。これにより、ユーザは、当該入力用オブジェクトについて押圧荷重P2による入力が適切に受け付けられたことを認識できる。
 例えば、荷重基準の値がP1である入力用オブジェクトに対して、図4に示すP1(A1)を超える押圧荷重が荷重検出部40により検出された時点で、制御部20は、図5(A)に示すような波形の振動を振動部50に発生させる。この後、当該入力用オブジェクトに対して、図4に示すP1(A2)以下となる押圧荷重が荷重検出部40により検出された時点で、制御部20は、図5(B)に示すような波形の振動を振動部50に発生させる。また、荷重基準の値がP2である入力用オブジェクトに対して、図4に示すP2(B1)を超える押圧荷重が荷重検出部40により検出された時点で、制御部20は、図5(C)に示すような波形の振動を振動部50に発生させる。この後、当該入力用オブジェクトに対して、図4に示すP2(B2)以下となる押圧荷重が荷重検出部40により検出された時点で、制御部20は、図5(D)に示すような波形の振動を振動部50に発生させる。
 図5に示す振動の例では、荷重基準の値が低い(P1)である入力用オブジェクトに対しては短め(周波数は低め)の振動を発生させ、荷重基準の値が高い(P2)である入力用オブジェクトに対しては長め(周波数は高め)の振動を発生させている。これにより、ユーザは、弱い(低い)押圧荷重に係る入力に対しては弱い(短い)振動により入力の確認を行うことができ、強い(高い)押圧荷重に係る入力に対しては強い(長い)振動により入力の確認を行うことができる。
 次に、図6のフローチャートを参照して、本実施の形態による入力用オブジェクトの荷重基準設定処理について説明する。本実施の形態による入力用オブジェクトの荷重基準設定処理は、制御部20が、入力用オブジェクトにより構成されるユーザインタフェースをタッチパネル30の表示部32上に表示するアプリケーションを起動する要求(命令)を受けることにより開始する。まず、ユーザインタフェースを表示するアプリケーションを起動する命令を受けると、制御部20は、記憶部60に記憶されている各種ユーザインタフェースのテンプレートの中から、上述した要求に対応するテンプレートを読み込む(ステップS1)。
 ユーザインタフェースのテンプレートを読み込んだら、制御部20は、テンプレートに含まれる入力用オブジェクトが複数であるか否かを判定する(ステップS2)。テンプレートに含まれる入力用オブジェクトが複数である場合、制御部20は、次に、隣り合った入力用オブジェクトが所定の間隔未満で配置される仕様になっているか否かを判定する(ステップS3)。なお、所定の間隔については、後述する。テンプレートに含まれる入力用オブジェクトが複数で、かつ、隣り合った入力用オブジェクトが所定の間隔未満で配置される場合、制御部20は、これらの入力用オブジェクトに対する押圧入力を受け付ける荷重基準が相違(P1およびP2)するように、各入力用オブジェクトの荷重基準を設定する(ステップS4)。
 ステップS4にて各入力用オブジェクトの荷重基準の設定が完了したら、制御部20は、これらの各入力用オブジェクトを表示部32に表示して、ユーザからの入力を受け付ける(ステップS5)。なお、ステップS2において入力用オブジェクトが複数でない場合、すなわち入力用オブジェクトが1つしかない場合には、当該入力用オブジェクトに通常の荷重基準(P1)を設定してから(ステップS6)、ステップS5に移行する。また、ステップS3において、複数の入力用オブジェクトが互いに所定の間隔以上の間隔で配置される場合にも、それらの入力用オブジェクト全てに通常の荷重基準(P1)を設定してから(ステップS6)、ステップS5に移行する。
 以上の処理により、複数の入力用オブジェクトが隣り合って配置される場合に、各入力用オブジェクトに対する押圧入力を受け付ける荷重基準が相違する態様で配置される。前述した所定の間隔とは、入力用オブジェクト同士の間隔が当該所定の間隔未満の場合、ユーザが入力を誤って、意図する入力用オブジェクトとは異なる入力用オブジェクトを押圧してしまう可能性が高まるとして設定する間隔である。ここで、所定の間隔として設定される間隔は、一の入力用オブジェクトの端部から他の入力用オブジェクトの端部までの距離とすることができるし、また、入力用オブジェクト同士の一方の中心部から他方の中心部までの距離とすることもできる。以下、上述した処理の結果を、典型的な実施例につき具体的に説明する。
 例えば図7(A)に示すように、ユーザメモ作成アプリケーションを起動している場合を説明する。このアプリケーションは、タッチパネル30の表示部32のほぼ下半分に文字入力用オブジェクトを表示して、入力部34に対するユーザの入力を受け付ける。なお、このユーザメモ作成アプリケーションは、文字入力用オブジェクトを互いに所定の間隔以上離間して表示する。したがって、本例では、ユーザが入力を誤って、意図する入力用オブジェクトとは異なる入力用オブジェクトを押圧してしまう可能性は低いため、制御部20は、これらの文字入力用オブジェクトには、それぞれ通常の荷重基準(P1)を設定する。なお、本例のように、仮名文字に対応したテンキーを用いて、キーの入力回数に応じて、各キーに対応する仮名文字を「あいうえお順」に遷移させることにより文字を1文字ずつ入力する方式は、従来「マルチタップ入力方式」として公知技術であるため、説明を省略する。
 図7(A)に示すような文字の入力を完了した後、ユーザがこのメモを記憶部60(メモリ)に保存する場合、タッチパネル30の表示部32の左上に示す「機能」の入力用オブジェクトへの押圧入力に応じて、制御部20は、図7(B)に示すような、いわゆるプルダウン表示を出現させる。この「機能」のプルダウン表示には、「保存」および「削除」の入力用オブジェクトが含まれている。これら2つの入力用オブジェクトが互いに所定の間隔未満で配置される場合(例えば隣接している場合)、上述した荷重基準設定処理により、「保存」の入力用オブジェクトと「削除」の入力用オブジェクトとは、押圧入力を受け付ける荷重基準が相違する態様で配置される。この場合、この「削除」の入力用オブジェクトのように、互いに隣り合う入力用オブジェクトの一方が、リカバリのきかない(重要な)動作に係るものである場合、この入力用オブジェクトには、例えば3N(ニュートン)とする荷重基準の値P2を設定する。また、この「保存」の入力用オブジェクトのように、荷重基準の値がP2である入力用オブジェクトと隣り合っている入力用オブジェクトには、例えば1Nとする荷重基準の値P1を設定する。
 このように、入力用オブジェクトの荷重基準を相違させて配置することにより、例えば、ユーザが「保存」のオブジェクトを押圧しようと意図していたが誤って「削除」のオブジェクトを押圧してしまった場合に不都合を防止することができる。すなわち、本実施の形態による入力装置は、「削除」のオブジェクトに対して、通常の操作入力を行う際の普段の(P2を超えない)押圧力による入力があっても、これを入力として受け付けない。「削除」のオブジェクトに対する入力を行うためには、ユーザは、意図的に、通常の操作入力を行う際の普段の押圧力(P1)より大きな荷重基準の値(P2)を超える押圧荷重により操作入力を行う必要がある。
 また、タッチパネル30が、複数の入力用オブジェクトに対する入力を同時に受け付ける機能を有する場合でも、上述したのと同様な対処を行うことができる。すなわち、例えばユーザが「保存」のオブジェクトを押圧しようと意図していたが、誤って(または入力部34を押圧する指の接触面積がはみ出すことにより)「保存」と「削除」の入力用オブジェクトを両方同時に押圧してしまう恐れがある。このような場合でも、「削除」のオブジェクトに対して、通常の操作入力を行う際の普段の(P2を超えない)押圧力による入力は受け付けられない。なお、上述の場合と逆に、ユーザが「削除」のオブジェクトを押圧しようと意図していたが誤って「保存」のオブジェクトを押圧してしまった場合の対処については、後述する。
 このように、本実施の形態では、普段の操作入力に基づく(P1を超える)押圧荷重により入力を受け付ける入力用オブジェクトと隣り合って配置される入力用オブジェクトに対しては、普段の操作入力に基づく押圧荷重よりも大きな(P2を超える)荷重を設定する。普段の操作入力よりも大きな(重い)押圧荷重による入力は、通常の入力方法として想定される各種の入力態様(例えば長押しや、ダブルクリックのような2度押しなど)とは異なる入力である。したがって、荷重基準がP2である入力用オブジェクトに対して、通常の入力方法として想定される各種の入力態様による入力は受け付けられないため、ユーザが意図せずに誤って行ってしまった入力は有効な入力として受け付けられることはない。すなわち、ユーザの意図しない操作による入力は回避される。
 なお、本実施の形態の処理により入力用オブジェクトを隣り合わせて配置する場合、荷重基準の値がP2である入力用オブジェクトに対する入力は通常の操作入力時よりも強い押圧力で入力する必要があることを、ユーザに示唆するような表示を行うのが好適である。例えば、図7(C)に示す「削除」のキーの入力用オブジェクトのように、強い押圧力で入力する必要がある入力用オブジェクトは、他のキーの入力用オブジェクトとは異なる色にする等の表示態様で表示部32に表示する。これにより、異なる色の入力用オブジェクトは、荷重基準の値がP2である入力用オブジェクトであることを強調することができる。また、このような入力用オブジェクトを表示部32に表示する際には、例えば「『削除』キーの入力は強めにタッチして下さい」等の文字を表示部32の所定位置に表示してもよい。
 他の実施例について説明する。図8に示すユーザメモ作成アプリケーションによる画面表示は、タッチパネル30の表示部32に表示された文字入力用オブジェクトの構成は図7に示したものと類似するが、ユーザの入力結果(メモ)を表示する領域が大きめになっている。そのため、ユーザの押圧入力を受け付ける文字入力用オブジェクトを配置する領域が相対的に小さくなっている。このような場合、図8に示すように、各入力用オブジェクトの面積をそれぞれ縮小するとともに、入力用オブジェクト同士の間隔を狭くして表示する。この入力用オブジェクト同士の間隔が所定の間隔未満である場合、本実施の形態による入力用オブジェクトの荷重基準設定処理に基づいて、制御部20は、間隔が所定の間隔未満で隣り合う入力用オブジェクトについて、それぞれ異なる荷重基準を設定する。
 本実施の形態による荷重基準設定処理により、例えば図8に示すように、異なる荷重基準の入力用オブジェクトが交互に配置される。図8に示す例では、隣接する入力用オブジェクトが異なる荷重基準により配置されていることを示すために、強い押圧力で入力する必要がある入力用オブジェクトは色を変更する等の表示態様で表示している。すなわち、図8においては、色の濃い(破線のハッチングを施した)入力用オブジェクトは、通常の操作入力を行う際の荷重基準(P1)より大きな荷重基準(P2)が設定されていることを示している。一方、通常の色の(白抜きした)入力用オブジェクトは、通常の荷重基準(P1)が設定されていることを示している。
 このように荷重基準が設定された結果、タッチパネル30の入力部34は、通常の荷重基準(P1)が設定された入力用オブジェクトと隣り合わせて、通常の荷重基準(P1)よりも大きな荷重基準(P2)が設定される配置になる。すなわち、通常の荷重基準(P1)が設定された入力用オブジェクトと、通常の荷重基準(P1)よりも大きな荷重基準(P2)が設定された入力用オブジェクトとが、1つおきに配置される。したがって、複数の入力用オブジェクトが密集して隣り合う場合であっても、ユーザは、これらの入力用オブジェクトの入力を区別して行うことができる。
 次に、図9に示すフローチャートを参照して、図6で説明した入力用オブジェクトの荷重基準設定処理により入力用オブジェクトを配置した後に行う、入力用オブジェクトの押圧入力受付処理について説明する。本処理は、図6で説明した処理により、ユーザメモ作成アプリケーション等を起動して、入力用オブジェクトを隣り合わせて表示部32に表示した後、入力部34に対するユーザの入力を受け付ける時点から開始する。
 本実施の形態による入力用オブジェクトの押圧入力受付処理が開始すると、制御部20は、タッチパネル30の入力用オブジェクトに対応する入力部34に対するユーザの指先やスタイラスなどによる入力(以下、「ユーザによる入力」と略記する)が検知されたか否かを判定する(ステップS12)。
 ステップS12にて入力用オブジェクトに対応する入力部34に対するユーザによる入力が検知された場合、制御部20は、入力が検知された位置に対応する表示部32の位置が、通常の荷重基準(P1)よりも大きな(高い)荷重基準(P2)が設定された入力用オブジェクトに対応する位置であるか否かを判定する(ステップS13)。入力位置が、通常の荷重基準(P1)よりも大きな荷重基準(P2)が設定された入力用オブジェクトに対応する位置である場合(ステップS13のYes)、制御部20は、当該入力用オブジェクトをハイライト表示する(ステップS14)。
 ステップS14におけるハイライト表示とは、入力用オブジェクトに対して、ユーザの指先などが触れていることをユーザに認識させるために行う強調表示のことである。例えば、図10(A)に示すような「削除」ボタンの入力用オブジェクトに対するユーザの入力が検知された場合、制御部20は、当該入力用オブジェクトを、図10(B)に示すようなハイライト表示に変化させる。これにより、ユーザは、入力部34に触れている自分の指先などの入力が入力装置に適切に検知されていることを視認できる。なお、このハイライト表示は、ユーザの指先などが入力部34に触れていることのみを示すものであり、この時点では、まだ入力が受け付けられた(つまりキーが押下された)とは判定されていない。
 次に、制御部20は、荷重検出部40により検出される押圧荷重の値Pが荷重基準の値P2を超えたか否かを判定する(ステップS15)。荷重基準P2が設定された入力用オブジェクトに対しては、この荷重基準の値P2を超える入力がなされないと、制御部20は、入力を受け付けたものとして処理しない。したがって、ステップS15にて、荷重基準の値P2を超える値の押圧荷重Pが荷重検出部40により検出されない場合、制御部20は、入力部34に対するユーザによる入力が解除されたか否かを判定する(ステップS16)。
 ステップS16にて当該入力が解除されない(つまりユーザが指先などを入力部34から離していない)場合、制御部20は、ステップS15に戻って、荷重検出部40により検出される押圧荷重の値Pを監視する。ステップS16にて、入力部34に対するユーザによる入力が解除された場合、ユーザが触れた入力用オブジェクトに対しては入力がされなかったものとして扱い、制御部20は、ハイライト表示を解除して(ステップS17)、本処理を終了する。
 ステップS17におけるハイライト表示の解除とは、入力用オブジェクトに対応する位置の入力部34に触れていたユーザの指先などの入力が検知されなくなったことを、ユーザに示すための表示である。例えば、制御部20は、図10(B)に示すように、ユーザの入力が検知されて表示部32に表示していた入力用オブジェクトのハイライト表示を、図10(A)に示すような表示に戻す。これにより、ユーザは、入力部34に触れていた自分の指先などが、入力部34から離れたと入力装置が適切に認識していることを視認できる。
 一方、ステップS15にて、荷重基準の値P2(図4に示すB1)を超える押圧荷重Pが荷重検出部40により検出された場合、制御部20は、押圧荷重Pが荷重基準の値P2を超えたことをユーザに知らせるために、振動部50を振動させる(ステップS18)。この場合、制御部20は、図5(C)に示したような波形の振動(強い入力に対応する長めの振動)を振動部50に発生させる。これにより、ユーザは、自らの押圧荷重Pが荷重基準の値P2を超えたことを識別できる。
 さらに、ステップS18において、制御部20は、入力が検知されている入力用オブジェクトがキーとして押下されたことを示すように表示部32の表示を変更する。すなわち、例えば、図10(B)に示すようなハイライトされた入力用オブジェクトの表示を、図10(C)に示すように、当該入力用オブジェクトが押下されたことを示すような表示を行う。これにより、ユーザは、入力部34に触れていた自分の指先などによる押圧入力が、入力用オブジェクトに対して、押下入力として入力装置に適切に受け付けられていることを視認できる。
 ステップS18の後、制御部20は、入力部34に対するユーザによる入力の押圧力が減少し、荷重検出部40により検出される押圧荷重Pが荷重基準の値P2(図4に示すB2)以下になったか否かを判定する(ステップS19)。ステップS19にて、押圧荷重Pが荷重基準の値P2以下になった場合、制御部20は、現在入力を受け付けている最中の、荷重基準がP2である入力用オブジェクトに対する操作入力が確定されたものとして受け付ける(ステップS20)。すなわち、本実施形態による入力処理においては、機械式のキーに例えると、キーを押下した時点では、まだキーの入力の受け付けを確定せずに、キーの押下が解除された時点で初めて当該キーの入力の受け付けを確定する。
 また、ステップS20においては、制御部20は、入力が検知されている入力用オブジェクトに対する押圧荷重がP2以下になったことを示すように、表示部32の表示をハイライト表示に戻す。すなわち、例えば、図10(C)に示す入力用オブジェクトが押下されたことを示すような表示を、図10(B)に示すように、ハイライト表示された入力用オブジェクトの表示に戻す。これにより、ユーザは、入力用オブジェクトに対する押下入力が入力として確定され、かつ、入力用オブジェクトを押圧している押圧力を緩和させたことが入力装置に適切に認識されていることを視認できる。
 さらに、ステップS20において、制御部20は、荷重基準がP2である入力用オブジェクトに対する操作入力が確定されたことをユーザに示すために、振動部50を振動させる。この際、制御部20は、図5(D)に示したような波形の振動(強い入力に対応する長めの振動)を振動部50に発生させる。これにより、ユーザは、荷重基準がP2である入力用オブジェクトに対する操作入力が確定したことを識別できる。
 ステップS20の後、制御部20は、入力部34に対するユーザによる入力が解除されたか否かを判定する(ステップS21)。ステップS21にて当該入力が解除されない(つまりユーザが指先などを入力部34から離していない)場合、制御部20は、荷重検出部40により検出される押圧荷重Pを監視し続ける。ステップS21にて、入力部34に対するユーザによる入力が解除された場合、制御部20は、上述したステップS17に移行してハイライト表示を解除して、本処理を終了する。
 なお、以上説明したような、ステップS15からステップS18を経て、ステップS19およびステップ20へと続く一連の処理が行われる際、荷重検出部40により検出される入力部34に対する押圧荷重の時間変化を例示すると、図11に示す曲線βのようになる。
 一方、ステップS13にて、入力位置が、荷重基準P2が設定された入力用オブジェクトに対応する位置ではない場合、制御部20は、ステップS22に移行して、当該入力用オブジェクトをハイライト表示する。なお、ステップS13からステップS22に移行する場合というのは、ユーザによる入力が検知された入力用オブジェクトが、荷重基準P1が設定された入力用オブジェクトである場合である。この場合に行う入力用オブジェクトのハイライト表示も、ステップS14にて説明したのと同じ態様のハイライト表示を行う。
 次に、制御部20は、荷重検出部40により検出される押圧荷重の値Pが荷重基準の値P1を超えたか否かを判定する(ステップS23)。荷重基準P1が設定された入力用オブジェクトに対しては、制御部20は、通常の操作入力を行う場合と同様に、荷重基準の値P1を超える入力がなされれば、入力を受け付けたものとして処理する。そのため、ステップS23にて、荷重基準の値P1を超える値の押圧荷重Pが荷重検出部40により検出されない場合、制御部20は、入力部34に対するユーザによる入力が解除されたか否かを判定する(ステップS24)。
 ステップS24にて当該入力が解除されない(つまりユーザが指先などを入力部34から離していない)場合、制御部20は、ステップS23に戻って、荷重検出部40により検出される押圧荷重の値Pを監視する。ステップS24にて、入力部34に対するユーザによる入力が解除された場合、制御部20は、ユーザが触れた入力用オブジェクトに対しては入力がされなかったものとして扱い、ハイライト表示を解除して(ステップS17)、本処理を終了する。
 一方、ステップS23にて、荷重基準の値P1(図4に示すA1)を超える押圧荷重Pが荷重検出部40により検出された場合、制御部20は、押圧荷重Pが荷重基準の値P1を超えたことをユーザに知らせるために、振動部50を振動させる(ステップS25)。この場合、制御部20は、図5(A)に示したような波形の振動(弱い(通常の)入力に対応する短めの振動)を振動部50に発生させる。これにより、ユーザは、押圧荷重Pが荷重基準の値P1を超えたことを識別できる。
 さらに、ステップS25において、制御部20は、入力が検知されている入力用オブジェクトが押下されたことを示すように表示部32の表示を変更する。すなわち、例えば、図10(B)に示すようなハイライトされた入力用オブジェクトの表示を、図10(C)に示すように、当該入力用オブジェクトが押下されたことを示すような表示を行う。これにより、ユーザは、入力部34に触れていた自分の指先などによる押圧入力が、入力用オブジェクトに対して、押下入力として入力装置に適切に受け付けられていることを視認できる。
 ステップS25の後、制御部20は、入力部34に対するユーザによる入力の押圧力が減少し、荷重検出部40により検出される押圧荷重Pが荷重基準の値P1(図4に示すA2)以下になったか否かを判定する(ステップS26)。ステップS26にて、押圧荷重Pが荷重基準の値P1以下になった場合、制御部20は、現在入力を受け付けている最中の、荷重基準がP1である入力用オブジェクトに対する操作入力が確定されたものとして受け付ける(ステップS27)。
 また、ステップS27において、制御部20は、入力が検知されている入力用オブジェクトに対する押圧荷重がP1以下になったことを示すように、表示部32の表示をハイライト表示に戻す。すなわち、例えば、図10(C)に示すような入力用オブジェクトが押下されたことを示すような表示を、図10(B)に示すように、ハイライト表示された入力用オブジェクトの表示に戻す。これにより、ユーザは、入力用オブジェクトに対する押下入力が入力として確定され、かつ、入力用オブジェクトを押圧している押圧力を緩和させたことが入力装置に適切に認識されていることを視認できる。
 さらに、ステップS27において、制御部20は、荷重基準がP1である入力用オブジェクトに対する操作入力が確定されたことをユーザに示すために、振動部50を振動させる。この際、制御部20は、図5(B)に示したような波形の振動(弱い(通常の)入力に対応する短めの振動)を振動部50に発生させる。これにより、ユーザは、荷重基準がP1である入力用オブジェクトに対する操作入力が確定したことを識別できる。
 ステップS27の後、制御部20は、入力部34に対するユーザによる入力が解除されたか否かを判定する(ステップS21)。ステップS21にて当該入力が解除されない(つまりユーザが指先などを入力部34から離していない)場合、制御部20は、荷重検出部40により検出される押圧荷重Pを監視し続ける。ステップS21にて、入力部34に対するユーザによる入力が解除された場合、制御部20は、上述したステップS17に移行してハイライト表示を解除して、本処理を終了する。
 なお、以上説明したような、ステップS23からステップS25を経て、ステップS26およびステップ27へと続く一連の処理が行われる際、荷重検出部40により検出される入力部34に対する押圧荷重の時間変化を例示すると、図11に示す曲線αのようになる。
 一方、ステップS26にて、押圧荷重Pが荷重基準の値P1以下にならない場合、制御部20は、入力部34により検知される押圧入力の位置が変化する、いわゆるスライド入力が検知されたか否かを判定する(ステップS28)。ここでいうスライド入力とは、ユーザが入力部34を指などで押圧したままの状態で、その指などを移動させ、もともと押圧していた入力用オブジェクトから他の入力用オブジェクトまで入力位置が変化する入力のことを表す。
 ステップS28にて、このようなスライド入力が入力部34に検知されない場合、制御部20は、ステップS26に戻って、荷重検出部40により検出される押圧荷重の値Pの監視を続行する。しかしながら、ステップS28にて、入力部34対して押圧荷重がP1を超えたままのスライド入力が検出された場合、制御部20は、ステップS13に移行して処理を続行する。なお、ステップS28からステップS13に移行する際には、制御部20は、もともと押圧入力が検知されていた(スライド入力が行われる前の)入力用オブジェクトの押圧表示を解除してからステップS13に移行する。
 スライド入力(ステップS28)後のステップS13において、スライド入力により入力位置が変化した先が荷重基準の低い(P1)入力用オブジェクトである場合、処理の流れは、ステップS22からステップS23を経てステップS25へと続く。すなわち、荷重基準がP1の入力用オブジェクトに対する入力の押圧荷重Pが、荷重基準の値P1を超えた時点ではまだ入力が受け付けられていない(確定していない)ため、当該入力が確定するまでは、ユーザは、スライド入力によって入力用オブジェクトを変更できる。スライド入力により入力用オブジェクトを変更して、荷重基準がP1の入力用オブジェクトに対して押圧入力の押圧荷重がP1以下となった場合、制御部20は、その時点で押圧している荷重基準がP1の入力用オブジェクトに対する入力を確定する。
 一方、スライド入力(ステップS28)後のステップS13において、スライド入力により入力位置が変化した先が荷重基準の高い(P2)入力用オブジェクトである場合、ステップS14に移行して、制御部20は当該入力用オブジェクトをハイライト表示する。ここで、押圧荷重P1を超えたまま行われたスライド入力の押圧荷重がP2を超えていなければ、制御部20は、入力位置が変化した先の荷重基準の高い(P2)入力用オブジェクトに対する入力を、まだ押下入力として受け付けない。すなわち、ユーザは、荷重基準P1の入力用オブジェクトに対して検出されていた当初の押圧入力(P1<P<P2)を、未確定の状態のまま、荷重基準P2の入力用オブジェクトまでスライド入力を行うことにより、押圧荷重の異なる入力用オブジェクトに対する入力に変更できる。
 したがって、この後、ステップS15にて、制御部20は、荷重検出部40により検出される押圧荷重の値Pが、荷重基準の値P2を超えたか否かを判定する。ステップS15にて、荷重基準の値P2を超える押圧荷重Pが荷重検出部40により検出された場合、制御部20は、当該入力用オブジェクトが押下されたものとして扱う。さらに、ステップS19にて、押圧荷重Pが荷重基準の値P2以下になった場合、制御部20は、現在入力を受け付けている最中の当該入力用オブジェクトに対する操作入力を、確定された入力として受け付ける。
 このように、ステップ28のスライド入力を受け付ける処理により、荷重基準P2の入力用オブジェクトを押圧しようと意図していたユーザが、誤って荷重基準P1のオブジェクトを押圧してしまった場合にも対処できる。すなわち、この処理により、例えば図7に示す例において、ユーザが「削除」のオブジェクト(荷重基準P2(高い))を押圧しようと意図していたが誤って「保存」のオブジェクト(荷重基準P1(低い))を押圧してしまった場合に対処することができる。このような場合の処理および操作について、以下、具体的に説明する。
 当初、荷重基準P2の入力用オブジェクトを押圧しようと意図しつつ、誤って荷重基準P1のオブジェクトを押圧した場合(ステップS23のYes)、ユーザは、荷重基準P2に対応する長めの振動が返ってくるものと期待する。しかしながら、実際は、荷重基準P1に対応する短めの振動が発生する(ステップS25)。この振動により、ユーザは自らの押圧入力が荷重基準P2の入力用オブジェクトに対して適切に入力されておらず、荷重基準P1の入力用オブジェクトに触れてしまっていることを自覚できる。しかしながら、この時点では、ユーザが押圧している入力用オブジェクト(荷重基準P1)に対する操作入力の受け付けは、まだ確定していない(確定処理はステップS27にて行われる)。
 この振動により誤って荷重基準P1のオブジェクトを押圧していると認識したユーザは、荷重基準P1を超える押圧荷重を保ったまま、荷重基準P2の当初意図したオブジェクトまで、入力部34を押圧している指などをスライドできる(ステップS28)。荷重基準P1のオブジェクトから、当初意図した荷重基準P2の入力用オブジェクトまでスライド入力を行うと(ステップS13)、移動先の荷重基準P2の入力用オブジェクトは、ハイライト表示されるが(ステップS14)、まだ押圧表示はされていない。
 そこで、ユーザによりP2を超える押圧荷重の押圧入力が行われることによって(ステップS15)、制御部20は、ユーザが当初意図した荷重基準P2の入力用オブジェクトに対して押圧入力を受け付ける(ステップS18)。この際のユーザによる操作は、当初意図した入力用オブジェクトまでスライド入力した後に、当該入力用オブジェクトを強く押し込む動作に相当する。その後、ユーザにより押圧荷重が弱められるか、または入力部34から指を離すなどの動作が行われることにより(ステップS19)、制御部20は、ユーザが当初意図した荷重基準P2の入力用オブジェクトに対する押圧入力を確定する(ステップS20)。
 以上説明したような、スライド入力を経る前後の一連の処理が行われる際、荷重検出部40により検出される入力部34に対する押圧荷重の時間変化を例示すると、図11に示す曲線γのようになる。曲線γにおいて、ユーザが荷重基準P2の入力用オブジェクトを押圧しようと意図しつつ、誤って荷重基準P1のオブジェクトを押圧した時点がA1に相当し、これに対応する動作はステップS13からステップS22になる。また、A1において、意図と異なる振動が発生することにより押し間違いに気付いたユーザがスライド入力を行う期間(ステップS28)が、A1からB1までの間の平坦な部分に対応する。さらに、ユーザが当初意図した入力用オブジェクトまでスライド入力した後、当該入力用オブジェクトを強く押し込む動作をした時点がB1に相当し、これに対応する動作はステップS15からステップS18になる。その後ユーザが押圧力を弱めて入力部34から指を離そうとする動作によりB2を通過し、これに対応する動作はステップS19からステップS20になる。
 このように、本実施の形態では、入力用オブジェクトの押圧入力受付処理により、ユーザが荷重基準P2のオブジェクト(例えば図8の「削除」)を押圧しようと意図していたが、誤って荷重基準P1のオブジェクト(例えば図8の「保存」)を押圧してしまった場合にも対処することができる。
 なお、本発明は、上述した実施の形態にのみ限定されるものではなく、幾多の変更または変形が可能である。例えば、上述した実施の形態においては、入力用オブジェクトの荷重基準の値P1、P2、および所定の間隔は、予め設定することを想定したが、必要に応じて、ユーザが適宜変更または調整できるようにするのが望ましい。このようにすれば、操作中に、ユーザが押圧荷重の設定について違和感がある場合、後から適宜設定を修正することができる。
 また、上述した実施の形態では、ユーザによる入力の押圧荷重がP1またはP2を超えた際、そのことをユーザに認識させるために、振動部50を振動させた。振動部50の発生する振動は、図5に記載した波形に基づく振動の態様に限定されるものではなく、ユーザによる入力の押圧荷重がP1を超えたか、またはP2を超えたかの区別が付くものであれば任意の振動とすることができる。また、このような場合に振動を発生させることは必須の要件ではなく、振動の他にも、例えば音声出力部80から特定の音を発生することもできる。さらに、当該入力を受け付けている入力用オブジェクトの色や表示態様を表示部32上で変化させることにより、ユーザによる入力の押圧荷重がP1またはP2を超えたことを示してもよい。
 また、上述した実施の形態では、入力用オブジェクト同士の間隔が所定の間隔未満の場合、ユーザの誤操作を防止するために、各入力用オブジェクトの荷重基準を相違させた。しかしながら、入力用オブジェクト同士の間隔が無く、隣接していたとしても、個々の入力用オブジェクトの入力受付範囲が広い場合、ユーザが入力を誤る可能性は低い。よって、このような場合、個々の入力用オブジェクトの入力受付範囲が所定の面積以上であれば、荷重基準を相違させなくてもよい。また、個々の入力用オブジェクトの入力受付範囲が広いと、ユーザが入力を誤る可能性が低いことに基づき、荷重基準を相違させるか否かの基準となる所定の間隔を入力用オブジェクトの入力受付範囲の大きさに依存させ、変動させてもよい。つまり、所定の間隔として1cmを設定したとしても、入力用オブジェクトの入力受付範囲が広い(つまりオブジェクトが大きい)場合、入力用オブジェクトの間隔が例えば0.1cm未満にならなければ荷重基準が相違せず、また、入力用オブジェクトの入力受付範囲が狭い場合、入力用オブジェクトの間隔が例えば2cm未満になったら荷重基準が相違するようにしてもよい。
 上述した実施の形態では、最も単純な例として、荷重基準がP1およびP2の2つの場合を説明したが、必要に応じて、この荷重基準を3つ以上にしてもよい。
 本発明の入力装置によれば、タッチパネルの入力部に対する押圧荷重を検出し、ある入力用オブジェクトに対する押圧入力を受け付ける荷重基準と、この入力用オブジェクトと隣り合っている入力用オブジェクトに対する押圧入力を受け付ける荷重基準とを相違させる。したがって、小型のタッチパネルの入力部において多数の入力用オブジェクトを隣接して表示させたとしても、ユーザは、各入力用オブジェクトに対する入力を区別して行うことができる。
10 携帯電話
20 制御部
30 タッチパネル
32 表示部
34 入力部
40 荷重検出部
50 振動部
60 記憶部
70 音声入力部
80 音声出力部
90 キー入力部

Claims (4)

  1.  入力用オブジェクトを表示する表示部と、
     前記表示部に表示される前記入力用オブジェクトに対する押圧入力を受け付ける入力部と、
     前記入力部に対する押圧荷重を検出する荷重検出部と、
     前記荷重検出部により検出される押圧荷重が荷重基準を満たした際に、前記押圧入力を受け付けるように制御する制御部と、を備え、
     前記制御部は、前記入力用オブジェクトに対する押圧入力を受け付ける荷重基準と、当該入力用オブジェクトと隣り合っている入力用オブジェクトに対する押圧入力を受け付ける荷重基準と、を相違させるように制御することを特徴とする入力装置。
  2.  前記入力部を振動させる振動部をさらに備え、
     前記制御部は、前記荷重検出部により検出される押圧荷重が荷重基準を満たした際に、前記振動部を駆動するように制御する、請求項1に記載の入力装置。
  3.  前記制御部は、前記荷重検出部により検出される押圧荷重が荷重基準を満たした後、前記荷重検出部により検出される押圧荷重が当該荷重基準を満たさなくなった際にも前記振動部を再度駆動するように制御する、請求項2に記載の入力装置。
  4.  前記制御部は、前記荷重検出部により検出される押圧荷重が荷重基準を満たした後、前記荷重検出部により検出される押圧荷重が当該荷重基準を満たさなくなった際に、前記入力部が受け付けている前記入力用オブジェクトに対する押圧入力を確定するように制御する、請求項1~3の何れか1項に記載の入力装置。
PCT/JP2009/007316 2008-12-25 2009-12-25 入力装置 WO2010073729A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN200980151358.1A CN102257459B (zh) 2008-12-25 2009-12-25 输入装置
US13/120,814 US9448649B2 (en) 2008-12-25 2009-12-25 Input apparatus
KR1020117012990A KR101283177B1 (ko) 2008-12-25 2009-12-25 입력 장치
EP09834535A EP2372502A4 (en) 2008-12-25 2009-12-25 INPUT DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-331056 2008-12-25
JP2008331056A JP4746085B2 (ja) 2008-12-25 2008-12-25 入力装置

Publications (1)

Publication Number Publication Date
WO2010073729A1 true WO2010073729A1 (ja) 2010-07-01

Family

ID=42287362

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/007316 WO2010073729A1 (ja) 2008-12-25 2009-12-25 入力装置

Country Status (6)

Country Link
US (1) US9448649B2 (ja)
EP (1) EP2372502A4 (ja)
JP (1) JP4746085B2 (ja)
KR (1) KR101283177B1 (ja)
CN (1) CN102257459B (ja)
WO (1) WO2010073729A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385478A (zh) * 2010-09-02 2012-03-21 索尼公司 信息处理设备、信息处理设备的输入控制方法以及程序

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10585493B2 (en) 2008-12-12 2020-03-10 Apple Inc. Touch sensitive mechanical keyboard
US20100149099A1 (en) * 2008-12-12 2010-06-17 John Greer Elias Motion sensitive mechanical keyboard
JP4746086B2 (ja) 2008-12-25 2011-08-10 京セラ株式会社 入力装置
JP4885938B2 (ja) 2008-12-25 2012-02-29 京セラ株式会社 入力装置
JP4746085B2 (ja) 2008-12-25 2011-08-10 京セラ株式会社 入力装置
WO2011024434A1 (ja) * 2009-08-27 2011-03-03 京セラ株式会社 触感呈示装置及び触感呈示装置の制御方法
JP5463240B2 (ja) * 2010-08-25 2014-04-09 京セラ株式会社 入力装置
JP5675324B2 (ja) * 2010-12-24 2015-02-25 シャープ株式会社 入力表示装置および加熱調理器
JP5883219B2 (ja) * 2010-12-24 2016-03-09 シャープ株式会社 加熱調理器
WO2012147346A1 (ja) * 2011-04-26 2012-11-01 京セラ株式会社 通信機器および通信システム
JP5461471B2 (ja) * 2011-05-12 2014-04-02 京セラ株式会社 入力装置および制御方法
US8952987B2 (en) * 2011-05-19 2015-02-10 Qualcomm Incorporated User interface elements augmented with force detection
JP5775849B2 (ja) * 2011-05-27 2015-09-09 京セラ株式会社 電子機器
JP5819114B2 (ja) * 2011-06-27 2015-11-18 京セラ株式会社 携帯電子機器
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
US8976128B2 (en) * 2011-09-12 2015-03-10 Google Technology Holdings LLC Using pressure differences with a touch-sensitive display screen
US9454239B2 (en) 2011-09-14 2016-09-27 Apple Inc. Enabling touch events on a touch sensitive mechanical keyboard
US9785251B2 (en) 2011-09-14 2017-10-10 Apple Inc. Actuation lock for a touch sensitive mechanical keyboard
US9041652B2 (en) 2011-09-14 2015-05-26 Apple Inc. Fusion keyboard
JP2013070303A (ja) 2011-09-26 2013-04-18 Kddi Corp 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
US8581870B2 (en) * 2011-12-06 2013-11-12 Apple Inc. Touch-sensitive button with two levels
KR101943435B1 (ko) * 2012-04-08 2019-04-17 삼성전자주식회사 플렉서블 디스플레이 장치 및 그 동작 방법
JP6082458B2 (ja) 2012-05-09 2017-02-15 アップル インコーポレイテッド ユーザインタフェース内で実行される動作の触知フィードバックを提供するデバイス、方法、及びグラフィカルユーザインタフェース
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169851A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for facilitating user interaction with controls in a user interface
WO2013169854A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
WO2013169842A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for selecting object within a group of objects
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
WO2013169843A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for manipulating framed graphical objects
AU2013259630B2 (en) 2012-05-09 2016-07-07 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to gesture
WO2013169865A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
CN104487930A (zh) 2012-05-09 2015-04-01 苹果公司 用于移动和放置用户界面对象的设备、方法和图形用户界面
EP2847657B1 (en) 2012-05-09 2016-08-10 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
WO2013169849A2 (en) 2012-05-09 2013-11-14 Industries Llc Yknots Device, method, and graphical user interface for displaying user interface objects corresponding to an application
JP6031186B2 (ja) 2012-05-09 2016-11-24 アップル インコーポレイテッド ユーザインタフェースオブジェクトを選択するためのデバイス、方法及びグラフィカルユーザインタフェース
JP2013257657A (ja) * 2012-06-11 2013-12-26 Fujitsu Ltd 情報端末装置及び表示制御方法
KR101946365B1 (ko) * 2012-08-20 2019-02-11 엘지전자 주식회사 디스플레이 디바이스 및 그 제어 방법
IL221862A (en) * 2012-09-10 2015-03-31 Elbit Systems Ltd Attacking a physical touch event on optical touch screens
WO2014105277A2 (en) * 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
KR101958582B1 (ko) * 2012-12-29 2019-07-04 애플 인크. 터치 입력에서 디스플레이 출력으로의 관계들 사이에서 전환하기 위한 디바이스, 방법, 및 그래픽 사용자 인터페이스
AU2013368441B2 (en) 2012-12-29 2016-04-14 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
KR101742808B1 (ko) 2012-12-29 2017-06-01 애플 인크. 사용자 인터페이스 계층을 내비게이션하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN107832003B (zh) 2012-12-29 2021-01-22 苹果公司 用于放大内容的方法和设备、电子设备和介质
US9626008B2 (en) * 2013-03-11 2017-04-18 Barnes & Noble College Booksellers, Llc Stylus-based remote wipe of lost device
JP5815612B2 (ja) * 2013-07-29 2015-11-17 京セラ株式会社 電子機器
US9665206B1 (en) 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
CN106575230A (zh) 2014-09-02 2017-04-19 苹果公司 用于可变触觉输出的语义框架
US10048757B2 (en) 2015-03-08 2018-08-14 Apple Inc. Devices and methods for controlling media presentation
US9632664B2 (en) 2015-03-08 2017-04-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10095396B2 (en) 2015-03-08 2018-10-09 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9645732B2 (en) 2015-03-08 2017-05-09 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9639184B2 (en) 2015-03-19 2017-05-02 Apple Inc. Touch input cursor manipulation
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US20170045981A1 (en) 2015-08-10 2017-02-16 Apple Inc. Devices and Methods for Processing Touch Inputs Based on Their Intensities
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
JP5976166B2 (ja) * 2015-06-02 2016-08-23 Kddi株式会社 画面への押圧で撮影が可能な撮影装置、撮影方法及びプログラム
US9860451B2 (en) 2015-06-07 2018-01-02 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9830048B2 (en) 2015-06-07 2017-11-28 Apple Inc. Devices and methods for processing touch inputs with instructions in a web page
US9674426B2 (en) 2015-06-07 2017-06-06 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US9891811B2 (en) 2015-06-07 2018-02-13 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
JP6187546B2 (ja) * 2015-06-22 2017-08-30 コニカミノルタ株式会社 操作表示システム、操作表示装置および操作表示プログラム
US9880735B2 (en) 2015-08-10 2018-01-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
DK201670737A1 (en) 2016-06-12 2018-01-22 Apple Inc Devices, Methods, and Graphical User Interfaces for Providing Haptic Feedback
DK179823B1 (en) 2016-06-12 2019-07-12 Apple Inc. DEVICES, METHODS, AND GRAPHICAL USER INTERFACES FOR PROVIDING HAPTIC FEEDBACK
JP2016192230A (ja) * 2016-07-19 2016-11-10 Kddi株式会社 保持する手の左右に応じて表示が可変なユーザインタフェース装置、表示制御方法及びプログラム
DK201670720A1 (en) 2016-09-06 2018-03-26 Apple Inc Devices, Methods, and Graphical User Interfaces for Generating Tactile Outputs
KR102628789B1 (ko) * 2016-09-09 2024-01-25 삼성전자주식회사 전자 장치 및 전자 장치의 제어 방법
DK201770372A1 (en) 2017-05-16 2019-01-08 Apple Inc. TACTILE FEEDBACK FOR LOCKED DEVICE USER INTERFACES

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0439344B2 (ja) 1984-10-12 1992-06-29
JPH05143226A (ja) * 1991-11-15 1993-06-11 Sharp Corp 感圧式座標入力装置
JPH10171600A (ja) * 1996-12-06 1998-06-26 Brother Ind Ltd 入力装置
WO2000065419A2 (en) * 1999-04-23 2000-11-02 Krishnan Ravi C Cluster key arrangement
JP2006195734A (ja) * 2005-01-13 2006-07-27 Sony Corp 触覚機能付きの入出力装置及び電子機器
JP2006311224A (ja) 2005-04-28 2006-11-09 Nec Saitama Ltd 折り畳み型携帯電話機

Family Cites Families (36)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06161660A (ja) 1992-11-27 1994-06-10 Toshiba Corp 感圧式タブレットを使用した位置情報入力装置
JPH0876925A (ja) 1994-09-02 1996-03-22 Kokusai Electric Co Ltd 入出力装置及びその制御方法
JP3009344B2 (ja) 1995-07-28 2000-02-14 三井化学株式会社 電子写真トナー用樹脂組成物および電子写真トナー
JPH0962446A (ja) 1995-08-22 1997-03-07 Matsushita Electric Works Ltd タッチパネル入力方法及びその装置
JP3727399B2 (ja) * 1996-02-19 2005-12-14 ミサワホーム株式会社 画面表示式キー入力装置
US7614008B2 (en) * 2004-07-30 2009-11-03 Apple Inc. Operation of a computer with touch screen interface
JP4582863B2 (ja) 2000-05-22 2010-11-17 株式会社バンダイナムコゲームス 立体視映像表示装置、及び情報記憶媒体
US6888537B2 (en) * 2002-02-13 2005-05-03 Siemens Technology-To-Business Center, Llc Configurable industrial input devices that use electrically conductive elastomer
US7456823B2 (en) * 2002-06-14 2008-11-25 Sony Corporation User interface apparatus and portable information apparatus
JP4115198B2 (ja) * 2002-08-02 2008-07-09 株式会社日立製作所 タッチパネルを備えた表示装置
US7453439B1 (en) * 2003-01-16 2008-11-18 Forward Input Inc. System and method for continuous stroke word-based text input
US7685538B2 (en) * 2003-01-31 2010-03-23 Wacom Co., Ltd. Method of triggering functions in a computer application using a digitizer having a stylus and a digitizer system
GB0312465D0 (en) 2003-05-30 2003-07-09 Therefore Ltd A data input method for a computing device
US20050044500A1 (en) * 2003-07-18 2005-02-24 Katsunori Orimoto Agent display device and agent display method
JP4037378B2 (ja) * 2004-03-26 2008-01-23 シャープ株式会社 情報処理装置、画像出力装置、情報処理プログラムおよび記録媒体
JP2005332063A (ja) * 2004-05-18 2005-12-02 Sony Corp 触覚機能付き入力装置、情報入力方法及び電子機器
US20060001654A1 (en) * 2004-06-30 2006-01-05 National Semiconductor Corporation Apparatus and method for performing data entry with light based touch screen displays
US7429993B2 (en) * 2004-09-17 2008-09-30 Microsoft Corporation Method and system for presenting functionally-transparent, unobtrusive on-screen windows
JP4166229B2 (ja) 2005-03-14 2008-10-15 株式会社日立製作所 タッチパネルを備えた表示装置
US7382357B2 (en) * 2005-04-25 2008-06-03 Avago Technologies Ecbu Ip Pte Ltd User interface incorporating emulated hard keys
US7609178B2 (en) * 2006-04-20 2009-10-27 Pressure Profile Systems, Inc. Reconfigurable tactile sensor input device
US7956846B2 (en) * 2006-01-05 2011-06-07 Apple Inc. Portable electronic device with content-dependent touch sensitivity
JP2008033739A (ja) * 2006-07-31 2008-02-14 Sony Corp 力覚フィードバックおよび圧力測定に基づくタッチスクリーンインターラクション方法および装置
JP4829070B2 (ja) 2006-10-23 2011-11-30 光洋電子工業株式会社 タッチパネルへのタッチ操作無効化方法およびタッチパネル式電子機器
JP4968515B2 (ja) * 2006-11-15 2012-07-04 ソニー株式会社 基板支持振動構造、触覚機能付きの入力装置及び電子機器
JP2010521022A (ja) * 2007-02-23 2010-06-17 ティーピーアイ カンパニー リミテッド デジタル機器に使われるポインティング装置を利用した仮想キーボード入力システム
JP2008225690A (ja) 2007-03-09 2008-09-25 Sony Corp 振動体、触覚機能付きの入力装置及び電子機器
US7973778B2 (en) * 2007-04-16 2011-07-05 Microsoft Corporation Visual simulation of touch pressure
JP2008305174A (ja) 2007-06-07 2008-12-18 Sony Corp 情報処理装置、情報処理方法、プログラム
TW200923758A (en) * 2007-11-27 2009-06-01 Wistron Corp A key-in method and a content display method of an electronic device, and the application thereof
JP5257197B2 (ja) * 2008-03-31 2013-08-07 住友化学株式会社 有機金属化合物供給装置
JP5100556B2 (ja) * 2008-07-30 2012-12-19 キヤノン株式会社 情報処理方法及び装置
US10983665B2 (en) * 2008-08-01 2021-04-20 Samsung Electronics Co., Ltd. Electronic apparatus and method for implementing user interface
US20100039393A1 (en) * 2008-08-15 2010-02-18 At&T Intellectual Property I, L.P. Text entry on touch screen cellphones by different pressure levels
JP4746086B2 (ja) * 2008-12-25 2011-08-10 京セラ株式会社 入力装置
JP4746085B2 (ja) 2008-12-25 2011-08-10 京セラ株式会社 入力装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0439344B2 (ja) 1984-10-12 1992-06-29
JPH05143226A (ja) * 1991-11-15 1993-06-11 Sharp Corp 感圧式座標入力装置
JPH10171600A (ja) * 1996-12-06 1998-06-26 Brother Ind Ltd 入力装置
WO2000065419A2 (en) * 1999-04-23 2000-11-02 Krishnan Ravi C Cluster key arrangement
JP2006195734A (ja) * 2005-01-13 2006-07-27 Sony Corp 触覚機能付きの入出力装置及び電子機器
JP2006311224A (ja) 2005-04-28 2006-11-09 Nec Saitama Ltd 折り畳み型携帯電話機

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2372502A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102385478A (zh) * 2010-09-02 2012-03-21 索尼公司 信息处理设备、信息处理设备的输入控制方法以及程序
EP2426580A3 (en) * 2010-09-02 2013-04-03 Sony Corporation Information processing apparatus, input control method of information processing apparatus, and program

Also Published As

Publication number Publication date
KR101283177B1 (ko) 2013-07-05
CN102257459B (zh) 2015-04-08
KR20110082613A (ko) 2011-07-19
US20110169765A1 (en) 2011-07-14
EP2372502A4 (en) 2012-06-13
JP2010152716A (ja) 2010-07-08
JP4746085B2 (ja) 2011-08-10
US9448649B2 (en) 2016-09-20
CN102257459A (zh) 2011-11-23
EP2372502A1 (en) 2011-10-05

Similar Documents

Publication Publication Date Title
JP4746085B2 (ja) 入力装置
JP4746086B2 (ja) 入力装置
JP4885938B2 (ja) 入力装置
US10871892B2 (en) Input device
JP4723656B2 (ja) 入力装置
JP4801228B2 (ja) 入力装置
JP5519020B2 (ja) 入力装置および入力装置の制御方法
JP5461471B2 (ja) 入力装置および制御方法
JP5774366B2 (ja) 入力装置および制御方法
JP5160683B2 (ja) 入力装置および入力装置の制御方法
JP5606984B2 (ja) 入力装置および入力装置の制御方法
JP2013058269A (ja) 入力装置および入力装置の制御方法
JP5518821B2 (ja) 入力装置および入力装置の制御方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980151358.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09834535

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13120814

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2009834535

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 20117012990

Country of ref document: KR

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE