WO2010032598A1 - 入力装置及びその制御方法並びに入力装置を備えた電子機器 - Google Patents

入力装置及びその制御方法並びに入力装置を備えた電子機器 Download PDF

Info

Publication number
WO2010032598A1
WO2010032598A1 PCT/JP2009/065017 JP2009065017W WO2010032598A1 WO 2010032598 A1 WO2010032598 A1 WO 2010032598A1 JP 2009065017 W JP2009065017 W JP 2009065017W WO 2010032598 A1 WO2010032598 A1 WO 2010032598A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
display
input device
panel
touch panel
Prior art date
Application number
PCT/JP2009/065017
Other languages
English (en)
French (fr)
Inventor
甲斐田壮
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to US13/062,260 priority Critical patent/US20110187667A1/en
Priority to JP2010529703A priority patent/JP5494485B2/ja
Priority to EP09814443.9A priority patent/EP2330485A4/en
Priority to CN200980136541.4A priority patent/CN102160021B/zh
Publication of WO2010032598A1 publication Critical patent/WO2010032598A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position

Definitions

  • the present invention relates to an input device, a control method therefor, and an electronic device including the input device. About.
  • 06-332607 discloses a configuration including a plurality of pressure sensors for detecting a pressing force to the touch panel.
  • the coordinate value of the contact position is detected by the touch panel, the pressing force at that time is detected by the pressure sensor, and the result is displayed on the display device.
  • a plurality of pressure sensors for detecting a pressing position on a touch panel made of a transparent acrylic plate or a glass bunker without a position detection function A configuration including a strain gauge sensor is disclosed. And these gazettes describe detecting the coordinate value and the pressing force of the contact position by a pressure sensor or a strain gauge sensor.
  • Japanese Patent Application Laid-Open No. 06-332607 Japanese Patent Application Laid-Open No. 10-511198, and Japanese Patent Application Laid-Open No. 2006-126997
  • Such a control method is employed. That is, when the user touches the touch panel at a position corresponding to the key display displayed on the display screen, the position of the key display is detected, and at the same time, the function corresponding to the key display is executed.
  • a method of selecting an arbitrary key display by touching the touch panel for the first time and executing a function corresponding to the key display by touching the touch panel for the second time is also known.
  • the user touches the touch panel once.
  • the selection of the key display on the screen and the selected function are executed substantially simultaneously. Therefore, the user has a problem that it is difficult to confirm whether or not a desired key display (that is, a function corresponding to the key display) has been correctly selected.
  • a desired key display that is, a function corresponding to the key display
  • the objective of this invention is providing the input device which solves the subject mentioned above, its control method, and the electronic device provided with the input device.
  • An input device includes a display unit that displays information, an input panel that is disposed on a display surface side of the display unit, has an input surface, detects contact on the input surface, and outputs contact information; Detection means for outputting a detection signal indicating that the pressing force is applied when a pressing force is applied to the input surface of the input panel; and on the input panel based on the contact information output by the input panel. And the display means sets the display information of the position corresponding to the contact position of the display means to the selected state, and the detection means detects the detection signal while the input panel continues to detect the contact. Control means for executing processing related to the display information based on the detection signal.
  • An input device control method is a control method for an input device having display means for displaying information and an input panel arranged on the display surface side of the display means, wherein the input panel is the input panel.
  • the display information of the position of the display means corresponding to the contact position on the input surface is set to the selected state, and the input panel continues to detect the contact
  • processing related to the display information is executed based on the detection state.
  • An electronic apparatus includes the input device and an operation function unit that executes a specific function based on an input operation to the input device.
  • the present invention it is possible to satisfactorily confirm the selection state of the key display corresponding to the function desired to be executed at the time of input operation on the touch panel. Further, the function corresponding to the key display can be executed with a simple number of steps (procedures).
  • FIG. 1 is a schematic block diagram showing a first embodiment of an input device according to the present invention.
  • FIG. 2 is a schematic block diagram showing an electronic apparatus including the input device according to the present invention.
  • FIG. 3 is a schematic block diagram showing a second embodiment of the input device according to the present invention.
  • FIG. 4A is a perspective view illustrating an example of a schematic configuration of the input device according to the second embodiment.
  • 4B is a perspective view showing an example of a state in which a predetermined pressing force or more is applied to the input surface of the touch panel of the input device shown in FIG. 4A.
  • FIG. 5 is a flowchart illustrating an example of the control method of the input device according to the second embodiment.
  • FIG. 6A is an example of a conceptual diagram for explaining the control method of the input device according to the present embodiment.
  • 6B is a conceptual diagram illustrating an example of a state in which a predetermined pressing force or more is applied to the input surface of the touch panel of the input device illustrated in FIG. 6A.
  • FIG. 7 is a diagram illustrating a display example of the display unit for explaining the control method of the input device according to the present embodiment.
  • FIG. 8A is a perspective view illustrating another configuration example of the input device according to the second embodiment.
  • FIG. 8B is a perspective view showing an example of a state in which a pressing force is applied to the input surface of the touch panel of the input device shown in FIG.
  • FIG. 9A is a perspective view illustrating still another configuration example of the input device according to the second embodiment.
  • FIG. 9B is a perspective view illustrating an example of a state in which a pressing force is applied to the input surface of the touch panel of the input device illustrated in FIG.
  • FIG. 10A is a perspective view showing a third embodiment of the input device according to the present invention.
  • FIG. 10B is an example of a side view of the input device shown in FIG. 10A.
  • FIG. 11 is a schematic block diagram showing a fourth embodiment of the input device according to the present invention.
  • FIG. 12A is a side view illustrating an example of a schematic configuration of the input device according to the present embodiment.
  • FIG. 12B is a diagram illustrating an example of a state in which a predetermined pressing force or more is applied to the input surface of the touch panel of the input device illustrated in FIG. 12A.
  • FIG. 13 is a flowchart illustrating an example of the control method of the input device according to the fourth embodiment.
  • FIG. 1 is a schematic block diagram showing a first embodiment of an input device according to the present invention.
  • the input device according to the first embodiment includes a display unit 10, an input panel 20, a detection unit 30, and a control unit 40.
  • the display means 10 is a display device for displaying at least various function information, stored information, and the like of an electronic device in which the input device according to the present embodiment is mounted.
  • the display means 10 displays these function information, accumulated information, and the like in the form of characters, images, and the like.
  • one or a plurality of menus or a plurality of icon buttons selected by the user are arranged in an arbitrary layout and displayed on the display unit 10.
  • a plurality of menus a plurality of icon buttons, etc.
  • one of the plurality of menus, the plurality of icon buttons, etc. is selected by touching the input panel 20 described later.
  • the display area of the display means 10 may not be displayed at once. In this case, when the user performs a specific input operation such as rubbing the surface of the touch panel, a screen including menus and icon buttons that are not displayed is scrolled or switched.
  • the input panel 20 is disposed on the display surface side (view side) of the display means 10.
  • the input panel 20 is a transparent contact position detection sensor that transmits various types of function information and accumulated information displayed on the display unit 10 to the visual field side.
  • the contact object when the user performs an input operation through the input surface of the input panel 20 may be a part of the body such as the user's finger or nail, or may be a dedicated touch pen or writing instrument. It may be a cap tip. In each embodiment described below, a case where a user performs an input operation by bringing a finger into contact with the input panel 20 will be described.
  • the detection means 30 is a switch that detects a state in which a pressing force is applied to the input surface (front surface) of the input panel 20. When detecting the application of a pressing force exceeding a predetermined value to the input surface of the input panel 20, the detecting means 30 outputs a detection signal to the control means 40 described later. Alternatively, the detection unit 30 outputs a predetermined detection signal (for example, detection voltage) to the control unit 40 in accordance with the pressing force applied to the input surface of the input panel 20. In this embodiment, the detection means 30 is arrange
  • control unit 40 sets a menu, an icon button, or the like corresponding to the contact position of the finger or the like detected by the input panel 20 to a selected state. Further, the control unit 40 outputs a control signal for executing a function corresponding to a menu, an icon button, or the like displayed on the display unit 10 based on the detection signal output from the detection unit 30. To do. This control signal is output to an internal circuit (corresponding to an operation function unit described later) of the electronic device. And the input device which concerns on this embodiment is controlled as follows. First, the control unit 40 displays a list of menus and icon buttons on the display unit 10. In this state, no menu or icon button is selected.
  • the user touches the input surface (front surface) of the input panel 20 on the specific menu or icon button having a desired function from the menu or icon button displayed on the display means 10 with a finger.
  • the input panel 20 detects this contact.
  • the contact information detected by the input panel 20 is output to the control means 40, and the control means 40 calculates the contact position of the finger on the input panel 20. If there is an anchor (that is, a selectable menu or icon button) at the position of the display means 10 corresponding to the calculated contact position, the control means 40 selects the menu or icon button at this position. And focus display.
  • the user is still placed in such a state that the user touches the surface of the input panel 20 lightly, that is, the input panel 20 detects contact, and this level of pressing force (that is, contact force) ) Does not operate the detection means 30.
  • the user applies a pressing force (that is, a pressing force) of a predetermined level or more to the input surface of the input panel 20 with a finger placed on the input panel 20 with the intention of selection.
  • the detection means 30 detects the application state of the pressing force to the input panel 20 and outputs a detection signal.
  • the control means 40 Based on the detection signal from the detection means 30, the control means 40 sends a control signal for executing a function corresponding to the menu or icon button focused on the display means 10 and set in the selected state to the inside of the electronic device. Output to the circuit (operation function unit). Accordingly, the control means 40 switches the menu or icon button displayed on the display means 10 and the function selected and executed to, for example, a display indicating the execution state, and then immediately displays the operation screen of the function on the display means 10. Is displayed. That is, in the present embodiment, as a first step, the user holds the finger on the input panel 20 with the detection unit 30 held in the off state (that is, without operating the detection unit 30 (turning on)). Touch with etc.
  • the control means 40 sets the menu and icon buttons displayed on the display means 10 to the selected state.
  • the detection means 30 is applied by applying a pressing force of a predetermined level or more to the input surface of the input panel 20 with a finger or the like that is in contact with the display means 10 with the intention of selection. It turns on and outputs a detection signal to the control means 40. Based on this detection signal, the control unit 40 causes the display unit 10 to execute a specific function corresponding to the selected menu or icon button.
  • a desired menu or icon button displayed on the display unit 10 is set to a selected state and displayed in focus. .
  • the function is not selected and executed immediately when the user touches the touch panel once. Therefore, according to the present embodiment, it is possible to satisfactorily confirm whether or not the user has correctly selected a desired menu or icon button by focus display or the like.
  • the selected function is applied by applying a pressing force of a predetermined level or more to the input surface of the input panel 20 as it is without releasing a finger or the like. Is executed. That is, according to the present embodiment, as shown in the background art described above, it is not necessary for the user to touch the touch panel a plurality of times in order to execute a desired function.
  • the user can execute a desired function with a simple number of steps (procedures). Furthermore, in this embodiment, after setting the selected function by touching a menu or icon button of a desired function with a finger or the like, a predetermined pressing force or more is applied to the input surface of the input panel 20 without continuously releasing the finger or the like. Only when applied will the selected function be performed. That is, according to the present embodiment, even when an input operation is performed such that the surface of the input panel 20 is rubbed, an undesired function is not erroneously executed.
  • FIG. 2 is a schematic block diagram showing an electronic apparatus including the input device according to the present invention.
  • an electronic device that performs a specific function based on an input operation to the input device having the configuration illustrated in FIG. 1 will be described.
  • a portable communication terminal, an audio-visual device, or the like can be used as an application example.
  • the electronic apparatus provided with the above-described input device includes an input device 100 including a display unit 10, an input panel 20, a detection unit 30, and a control unit 40, and a control signal output from the input device. And an operation function unit 200 that executes a predetermined function based on the operation function.
  • the input device 100 selects any one of the menus and icon buttons displayed in a list on the display unit 10.
  • the user applies a specific function corresponding to the selected menu or icon button by applying a pressing force of a predetermined level or more to the input surface of the input panel 20 (that is, turning on the detection means 30).
  • a control signal for generating the signal is generated and output to the operation function unit 200.
  • the operation function unit 200 is based on a control signal from the input device 100 (control means 40), for example, various operation functions such as communication control, video / music data playback operation, and stored data display operation. It is the internal circuit of the electronic device which implement
  • the detection unit 30 is turned on to control the detection signal. Output to means 40. Based on this detection signal, the control means 40 outputs a control signal for executing a specific function corresponding to the menu or icon button displayed and selected on the display means 10 to the operation function unit 200 of the electronic device.
  • the operation function unit 200 executes a desired operation function corresponding to the menu or icon button selected by the user based on the control signal from the control means 40.
  • the control unit 40 receives a command from the operation function unit 200 and causes the display unit 10 to display an operation screen or related data of the operation function.
  • the function is not selected and executed immediately when the user touches the input panel 20 once, whether or not a desired menu or icon button is correctly selected is determined. Can be confirmed satisfactorily. Therefore, this embodiment can suppress an erroneous operation during an input operation of the electronic device. Further, in the present embodiment, since the user does not need to touch the input panel 20 a plurality of times in order to execute a desired function, the desired function can be executed with a simple number of steps (procedures). Therefore, this embodiment can improve the complexity during the input operation of the electronic device.
  • FIG. 3 is a schematic block diagram showing a second embodiment of the input device according to the present invention.
  • FIG. 4A is a perspective view illustrating a schematic configuration of the input device according to the second embodiment.
  • the input device includes a display unit 11, a touch panel 21, a press detection unit 31, a control unit 41, and a storage unit 42.
  • the display unit 11 is an example of display means in the first embodiment
  • the touch panel 21 is an example of an input panel in the first embodiment.
  • the press detection unit 31 is an example of a detection unit in the first embodiment
  • the control unit 41 is an example of a control unit in the first embodiment.
  • the display unit 11 displays at least one or a plurality of menus, icon buttons, and the like selected by the user in an arbitrary layout, similarly to the display unit 10 described in the first embodiment. It is a display device.
  • the display unit 11 has a configuration in which a display region 11b is provided on one surface side (the upper surface side in the drawing) of the panel substrate 11a.
  • the touch panel 21 is a transparent contact position detection arranged on the display surface side (upper surface side of the drawing) which is one surface side of the panel substrate 11a of the display unit 11. It is a sensor. As shown in FIG. 4A, for example, the touch panel 21 is supported by pressing detection units 31 disposed at the four corners on the one surface side of the panel substrate 11a. As shown in FIG.
  • the touch panel 21 sinks in the direction of the display unit 11 (Z direction in FIG. 4A) when the user applies a pressing force P of a predetermined level or more to the input surface with a finger or the like. It is configured to move (or slide).
  • a contact position detection sensor applied to the touch panel 21 what employ
  • the press detection unit 31 is a switch that detects the application state of the pressing force to the input surface (front surface) of the touch panel 21, similarly to the detection unit 30 described in the first embodiment. As shown in FIG.
  • the pressing detection unit 31 is arranged at four corners on the display surface side (upper surface side), which is one surface side of the panel substrate 11a, and moves (or slides) the touch panel 21 in the direction of the display unit 11. It has a supported structure as possible.
  • the pressing detection unit 31 has an action unit 31a that operates in the Z direction in FIG. 4A with a predetermined stroke by applying a pressing force (ie, pressing force) to the input surface of the touch panel 21. is doing.
  • the action part 31a moves by a predetermined dimension in the direction of the display part 11 (that is, in the compression direction) in accordance with the application of the pressing force P to the input surface of the touch panel 21.
  • the press detection unit 31 detects the press state of the touch panel 21 and outputs a detection signal. Further, the action unit 31a of the press detection unit 31 is provided with a return mechanism inside or outside so as to return to the initial position when the application of the pressing force (pressing force) to the input surface of the touch panel 21 is released. It has been. Therefore, when the application of the pressing force to the input surface of the touch panel 21 is canceled, the touch panel 21 also returns to the initial position.
  • a plurality of press detection units 31 are arranged so as to support the four corners of the touch panel 21.
  • the control unit 41 displays menus, icon buttons, and the like on the display unit 11 in the same manner as the control unit 40 described in the first embodiment. Further, the control unit 41 sets a desired menu, icon button, or the like displayed on the display unit 11 to a selected state based on the contact information from the touch panel 21. Furthermore, the control unit 41 executes a function corresponding to the selected desired menu, icon button, or the like based on the detection signal from the press detection unit 31.
  • the storage unit 42 is, for example, information on display methods and display contents such as menus and icon buttons displayed on the display unit 11, information on an operation screen displayed when the selected function is executed, and control in the control unit 41. Stores program data required for processing. Specifically, for example, when a user touches a menu or icon button of a desired function to display it in focus, the storage unit 42 displays information about the display contents of the menu and icon buttons and display methods such as color inversion. Store. In addition, when the function displayed with this focus is executed to display the operation screen of this function, information on display methods such as display contents of menus and icon buttons and color inversion is stored. Next, a method for controlling the input device according to the present embodiment will be described. FIG.
  • FIG. 5 is a flowchart illustrating the control method of the input device according to the second embodiment.
  • FIG. 6A is an example of a conceptual diagram for explaining the control method of the input device according to the present embodiment.
  • 6B is a conceptual diagram illustrating an example of a state in which a predetermined pressing force or more is applied to the input surface of the touch panel of the input device illustrated in FIG. 6A.
  • FIGS. 6A and 6B only the touch panel 21 is hatched.
  • FIG. 7 is a diagram illustrating a display example of the display unit for explaining the control method of the input device according to the present embodiment. An example of the control method of the input device according to the present embodiment is as shown in the flowchart of FIG. 5.
  • the touch panel 21 is in a state where a list of menus and icon buttons is displayed on the display unit 11. It detects whether or not the finger has touched. Specifically, first, as shown in FIG. 7A, a menu screen including a plurality of menu buttons is displayed on the display unit 11. In FIG. 7A, a menu screen is displayed with a plurality of menu buttons such as “browser”, “mailer”, “music”, “phone book” arranged in a predetermined layout. Show. In a state where such a menu screen is displayed on the display unit 11, as shown in FIG. 6A, the user views the display on the display unit 11 while viewing the input surface of the touch panel 21 on a specific menu button having a desired function. Touch (surface) with finger FNG.
  • the touch panel 21 detects the contact of the finger FNG and outputs the contact information to the control unit 41.
  • the user places the finger FNG lightly on the surface of the touch panel 21. That is, a pressing force (contact force) P ⁇ b> 1 that is sufficiently weaker than the pressing force (pressing force) P ⁇ b> 2 at which the touch detection state is detected by pressing the touch panel 21 down is applied to the input surface of the touch panel 21.
  • a pressing force (contact force) P ⁇ b> 1 that is sufficiently weaker than the pressing force (pressing force) P ⁇ b> 2 at which the touch detection state is detected by pressing the touch panel 21 down is applied to the input surface of the touch panel 21.
  • the process waits until the finger or the like touches the touch panel 21.
  • step A ⁇ b> 104 the control unit 41 calculates the contact position of the finger FNG on the touch panel 21 based on the contact information detected by the touch panel 21.
  • step A106 the control unit 41 determines whether an anchor (that is, a selectable menu or icon button) exists in the display area 11b of the display unit 11 corresponding to the contact position calculated in step A104. To do. If the control unit 41 determines that there is no anchor, the control unit 41 ends the control process of the input device or returns to the above-described step A102 and waits until a finger or the like touches the touch panel 21.
  • an anchor that is, a selectable menu or icon button
  • step A108 the control unit 41 sets the anchor (menu or icon button) corresponding to the contact position to the selected state, Display focus. Specifically, as shown in FIG. 7B, the control unit 41 sets the menu button at the position where the user touched with the finger FNG among the plurality of menu buttons displayed on the display unit 11 to the selected state. And display it in reverse video. FIG. 7B shows a state in which “music” is selected from the menu buttons.
  • step A ⁇ b> 110 the press detection unit 31 detects whether or not the touch panel 21 is pressed down.
  • step A112 if the touch panel 21 detects a pressed state in which a predetermined dimension is pressed down, in step A112, the control unit 41 corresponds to the menu or icon button set in the selected state and displayed in focus in step A106. The function to perform is executed. On the other hand, if it is not detected in step A110 that the touch panel 21 is depressed, the process proceeds to step A114. In step A114, the touch panel 21 detects whether or not the finger is in contact, and when it is detected that the finger is in contact, the process returns to step A110. If the touch panel 21 does not detect that a finger is in contact, the process proceeds to step A116.
  • step A116 the control unit 41 cancels the anchor set in the selected state in step A108 from the selected state and cancels the focus display. And the control part 41 complete
  • step A112 a function corresponding to the focus-displayed anchor (menu or icon button) is executed.
  • the control unit 41 generates a control signal for executing a function corresponding to the menu button set in the selected state and highlighted on the display unit 11 based on the detection signal from the press detection unit 31. Output.
  • This control signal is input to an internal circuit (operation function unit) of an electronic device (not shown), and the function is executed. For example, as shown in FIG. 7B, a state in which the “music” menu button is selected will be described.
  • the control unit 41 sends a control signal for activating the music player function corresponding to “music” to the inside of the electronic device. Output to the circuit. Further, as shown in FIG. 7C, the control unit 41 displays the information on the display unit 11 in order to indicate that the function of the music player is activated in accordance with the detection of the pressed state of the touch panel 21. Highlight the “Music” menu button. Then, when the function of the music player is activated by the internal circuit of the electronic device, the control unit 41 switches the display unit 11 to display the operation screen of the music player as shown in FIG. FIG.
  • FIG. 7D shows a state in which, for example, a list of music data stored in the storage unit 42 is displayed by icon buttons.
  • a desired menu or icon button displayed on the display unit 11 is set to a selected state and displayed in focus.
  • the selected function is executed by pressing the touch panel 21 as it is without releasing a finger or the like placed on the touch panel 21. That is, according to the present embodiment, as in the first embodiment described above, the function is not selected and executed immediately when the user touches the touch panel once. For this reason, the user can satisfactorily confirm the selection state of the menu or icon button by focus display or the like.
  • this embodiment can suppress an erroneous operation during an input operation of the electronic device.
  • the user does not need to touch the touch panel 21 a plurality of times in order to execute the desired function, so that the user can simplify the desired function. It can be executed with a lot of effort (procedure). Therefore, this embodiment can improve the complexity during the input operation of the electronic device.
  • an input operation is performed such that the surface of the touch panel 21 is rubbed, an undesired function is not erroneously executed. For this reason, even when there are many display items, it is possible to satisfactorily execute scroll display of the screen.
  • this embodiment can suppress an erroneous operation during an input operation of the electronic device.
  • the selected desired function is executed by detecting the pressed state (sinking) of the touch panel 21. For this reason, the feeling at the time of the input operation to the electronic device can be realized as in the case of the key input method.
  • an input operation in which a user touches the touch panel surface once or a plurality of times is employed. For this reason, an electronic device equipped with a touch panel has a problem that the feeling at the time of input is poor compared to a key input method in which operation buttons are appropriately pushed at the time of input that is frequently used in general electronic devices. Have.
  • the press detection units 31 are arranged at the four corners on the one surface side of the panel substrate 11a constituting the display unit 11, and the touch panel 21 is configured based on the detection signal from the press detection unit 31. The configuration for detecting the pressed state (sinking) has been described.
  • the mutual relationship between the four press detection units 31 arranged at the four corners of the panel substrate 11a and the mutual relationship between the detection signals from the respective press detection units 31 will be described in detail. I didn't.
  • all of the press detection units 31 operate and all these detection signals are output in accordance with the application of the pressing force P to the input surface of the touch panel 21.
  • a method of detecting the pressed state of the touch panel 21 can be applied.
  • the present embodiment is not limited to the detection method described above. In the present embodiment, for example, when the pressing force P is applied to the input surface of the touch panel 21, at least one press detection unit 31 operates and a detection signal is output, so that the touch panel 21 is pressed.
  • FIG. 8A is a perspective view illustrating another configuration example of the input device according to the second embodiment.
  • FIG. 8B is a perspective view showing an example of a state in which a pressing force is applied to the input surface of the touch panel of the input device shown in FIG.
  • the input device according to this configuration example includes action portions 31a to 34a at four corners on one surface side (display surface side) of the panel substrate 11a as shown in FIG. 8A. Press detection units 31 to 34 are arranged.
  • the control unit 41 determines the pressed state of the touch panel 21 based on a detection signal output from at least one of the press detection units 31 to 34.
  • a detection signal output from at least one of the press detection units 31 to 34 For example, as shown in FIG. 8B, the case where the touch panel 21 is tilted and pushed down due to the bias of the pressing force (pressing force) P applied to the input surface of the touch panel 21 will be verified. In such a case, the pressing force applied to the action portions 31a to 34a of the press detection units 31 to 34 is different. As shown in FIG. 8B, for example, the action unit 32a of the press detection unit 32 is sufficiently compressed, and the press detection unit 32 outputs a predetermined detection signal.
  • the action units 31a, 33a, and 34a of the other press detection units 31, 33, and 34 are not sufficiently compressed. For this reason, the other press detection units 31, 33, and 34 do not output detection signals.
  • the control unit 41 can determine the pressed state of the touch panel 21. That is, when the user applies a pressing force P to the input surface of the touch panel 21 at that position in order to select and execute a function corresponding to, for example, a menu or icon button displayed at the corner of the display unit 11. Even if it exists, a desired function can be performed satisfactorily.
  • FIG. 9A is a perspective view illustrating still another configuration example of the input device according to the second embodiment.
  • FIG. 9B is a perspective view illustrating an example of a state in which a pressing force is applied to the input surface of the touch panel of the input device illustrated in FIG.
  • a single press detection unit 31 is arranged at one corner of one surface side (display surface side) of the panel substrate 11a.
  • the touch panel 21 is kept horizontal with respect to the display surface of the display unit 11 even when the pressing force P is applied to the input surface of the touch panel 21 in an uneven manner. In this state, it moves relative to the display surface in the vertical direction.
  • the rail 35 is provided.
  • the guide rail 35 is configured to support, for example, the four corners of the touch panel 21 and slide in the Z direction.
  • the control unit 41 determines the pressed state of the touch panel 21 based on the detection signal output from the single press detection unit 31. In such an input device, for example, as shown in FIG. 9B, when a pressing force (pressing force) P is applied to the input surface of the touch panel 21, the touch panel 21 supports guide rails 35 that support the four corners of the touch panel 21.
  • the press state of the touch panel 21 can be determined. That is, in the input device according to this configuration example, since the four corners of the touch panel 21 are supported by the guide rail 35, the touch panel 21 can be applied even when the pressing force is applied to the input surface of the touch panel 21 in an uneven manner.
  • the display unit 11 is kept horizontal with respect to the display surface. Further, at this time, the touch panel 21 moves along the guide rail 35 in a direction perpendicular to the display surface of the display unit 11.
  • the press detection unit 31 is arranged at the four corners or one corner on the one surface side of the panel substrate 11a configuring the display unit 11 . It is not limited to. That is, as long as the press detection unit according to the present embodiment can detect a state (pressed state) in which the touch panel 21 sinks with the application of the pressing force to the input surface of the touch panel 21, other detection units are possible. It may have a configuration.
  • FIG. 10A is a perspective view showing a third embodiment of the input device according to the present invention.
  • FIG. 10B is an example of a side view of the input device shown in FIG. 10A.
  • symbol is attached
  • the input device according to the third embodiment is characterized in that, in the configuration shown in the second embodiment (see FIGS. 4A and 4B), a pressure sensor is applied as a pressing detection unit.
  • the input device according to the present embodiment includes pressure sensors at four corners on one surface side (display surface side; upper surface side in the drawing) of the panel substrate 11 a of the display unit 11. 36 is arranged.
  • the pressure sensor 36 is an example of a detection unit in the first embodiment. That is, as shown in FIG.
  • the touch panel 21 is supported at the four corners by the pressure sensors 36 disposed at the four corners on the one surface side of the panel substrate 11a.
  • the pressure sensor 36 is a switch that detects an application state of a pressing force to the input surface (front surface) of the touch panel 21, and a predetermined detection signal (for example, a detection voltage) according to the pressing force applied to the input surface of the touch panel 21. ) Is output to the control unit 41 (not shown). Based on the detection signal output from the pressure sensor 36, the control unit 41 determines a state (pressed state) where a predetermined pressing force or more is applied to the input surface of the touch panel 21.
  • the control unit 41 determines whether or not the touch panel 21 is in the pressed state based on the detection signal output from the pressure sensor 36, but the touch panel 21 determines that the control unit 41 is in the pressed state. A pressing force sufficiently weaker than the pressing force is applied. Thereby, the control unit 41 sets the menu and icon button corresponding to the contact position detected by the touch panel 21 to the selected state and causes the focus display.
  • a detection signal (detection voltage) corresponding to the pressing force is output from the pressure sensor 36 to the control unit 41.
  • the control unit 41 omits illustration of a control signal for executing a function corresponding to a menu or icon button set in a selected state and displayed in focus on the display unit 11.
  • Output to the internal circuit (operation function unit) of the electronic device Thereby, the function corresponding to the menu or icon button selected in the electronic device is executed.
  • a desired menu or icon button is set to the selected state and the focus display is performed. The Then, the selected function is executed by applying a pressing force of a predetermined level or more to the input surface of the touch panel 21 without releasing the finger or the like placed on the touch panel 21. Therefore, according to the present embodiment, the user can execute the function after confirming the selection state of a desired menu or icon button well by focus display or the like. For this reason, an erroneous operation at the time of an input operation of the electronic device can be suppressed.
  • a desired function can be executed by applying a predetermined pressing force as it is without releasing a finger or the like placed on the touch panel in order to select a desired menu or icon button. Can do. For this reason, the complexity at the time of input operation of an electronic device can be improved. Furthermore, according to the present embodiment, an undesired function is erroneously executed even when an input operation such as rubbing the surface of the touch panel 21 is performed as in the case where there are many display items and screen scrolling is performed. There is nothing to do. For this reason, an erroneous operation at the time of an input operation of the electronic device can be suppressed. ⁇ Fourth Embodiment> FIG.
  • FIG. 11 is a schematic block diagram showing a fourth embodiment of the input device according to the present invention.
  • FIG. 12A is a side view illustrating an example of a schematic configuration of the input device according to the present embodiment.
  • FIG. 12B is a diagram illustrating an example of a state in which a predetermined pressing force or more is applied to the input surface of the touch panel of the input device illustrated in FIG. 12A. As shown in FIG.
  • the input device according to the fourth embodiment includes a piezoelectric element (piezo element) 51 in addition to the configuration of the input device according to the second embodiment (see FIG. 3).
  • the display unit 11, the touch panel 21, the press detection unit 31, and the storage unit 42 are the same as those in the above-described second embodiment, and thus description thereof is omitted.
  • the piezoelectric element 51 is an example of stopper means according to the present invention.
  • the piezoelectric element 51 is a control element that blocks the operation of the touch panel 21 that moves relative to the display surface of the display unit 11 in a vertical direction when a predetermined pressing force is applied to the input surface of the touch panel 21. . For example, as shown in FIG.
  • a plurality of piezoelectric elements 51 are provided on the inner wall surface of a casing 61 that houses at least the display unit 11, the touch panel 21, and the press detection unit 31. Further, the piezoelectric element 51 has a characteristic of deforming according to the control voltage. Furthermore, the piezoelectric element 51 is configured to control the movement (or slide) of the touch panel 21 in accordance with the menu or icon button selection state displayed on the display unit 11. In the present embodiment, the piezoelectric element 51 is configured such that the amount of protrusion in the vertical direction with respect to the inner wall surface of the housing 61 changes based on a control signal (control voltage) from the control unit 41, thereby touching the touch panel.
  • control voltage control voltage
  • a pressing force is generated in a direction perpendicular to the moving direction of 21. That is, when the piezoelectric element 51 applies a predetermined pressing force to the side surface of the touch panel 21, a frictional force is generated between the piezoelectric element 51 and the casing 61 and the touch panel 21, thereby preventing (prohibiting) the movement of the touch panel 21. Is done.
  • the control unit 41 corresponds to the contact information from the touch panel 21 and the selection state of menus and icon buttons displayed on the display unit 11. To control the operation. Accordingly, the control unit 41 controls whether the touch panel 21 can be moved (or slid) in the vertical direction with respect to the display surface of the display unit 11.
  • FIG. 13 is a flowchart illustrating an example of the control method of the input device according to the fourth embodiment.
  • the same control method as that of the above-described second embodiment is denoted by the same reference numeral, and the description thereof is simplified or omitted.
  • the control method of the input device according to the present embodiment will be described with reference to the schematic configuration shown in FIGS. 12A and 12B as appropriate.
  • the control method of the input device according to the present embodiment as shown in the flowchart of FIG. Is set to a state where the relative movement to the position is blocked (prohibited) (stopper “on” state).
  • the control unit 41 outputs a control signal for blocking the piezoelectric element 51 (that is, an operation for blocking the movement of the touch panel 21). Accordingly, the piezoelectric element 51 presses the side surface of the touch panel 21 to prevent the touch panel 21 from moving in the direction perpendicular to the display surface of the display unit 11.
  • the touch panel 21 detects whether or not the user's finger FNG is in contact with the menu or icon button list displayed on the display unit 11.
  • the touch panel 21 detects the contact of the finger FNG, the touch panel 21 outputs the contact information to the control unit 41. At this time, the touch panel 21 is prevented from moving in the direction of the display unit 11 by the piezoelectric element 51. For this reason, as shown to FIG.
  • step A102 when the contact of the finger FNG with the touch panel 21 is not detected, the control unit 41 continues the standby state.
  • step A ⁇ b> 104 the control unit 41 calculates the contact position of the finger FNG on the touch panel 21 based on the contact information detected by the touch panel 21.
  • step A106 the control unit 41 determines whether or not an anchor (that is, a selectable menu or icon button) exists in the portion of the display area 11b of the display unit 11 corresponding to the calculated contact position. .
  • an anchor that is, a selectable menu or icon button
  • step A204 the control unit 41 holds the state where the movement of the touch panel 21 is blocked (stopper “on” state). Thereafter, the control unit 41 ends the control process of the input device or returns to the above-described step A102 and waits until a finger or the like touches the touch panel 21.
  • step A108 the anchor (menu or icon button) corresponding to the contact position is set to the selected state and is displayed in focus.
  • control unit 41 precedes the step A108, after the step A108, or substantially simultaneously with the step A108, as shown in the step A206, the control unit 41 moves the touch panel 21 and the touch panel 21 is moved.
  • control unit 41 outputs a control signal for releasing the blocking operation of the piezoelectric element 51. This eliminates the pressing of the side surface of the touch panel 21 by the piezoelectric element 51, and allows movement in the vertical direction with respect to the display surface of the display unit 11.
  • step A110 the press detection unit 31 detects whether or not the touch panel 21 is pressed down.
  • step A204 when the pressing down of the touch panel 21 is not detected, in step A204, the control unit 41 holds the state where the movement of the touch panel 21 is prevented (stopper “on” state). Thereafter, the control unit 41 ends the control process of the input device or returns to the above-described step A102 and waits until a finger or the like touches the touch panel 21. On the other hand, if it is detected in step A110 that the touch panel 21 has been pressed down by a predetermined size, in step A112, the control unit 41 corresponds to the menu or icon button set to the selected state and displayed in focus. Execute the function.
  • the user continuously presses the input surface of the touch panel 21 with the finger FNG continuously placed on the touch panel 21 after step A102, as shown in FIG. (Pressing force) P2 is applied.
  • the touch panel 21 is pressed down, and the press detection unit 31 detects the pressed state of the touch panel 21 and outputs a detection signal to the control unit 41.
  • the touch panel 21 is not moved by the piezoelectric element 51 (stopper “on” state).
  • the touch panel 21 can be moved by the piezoelectric element 51 (stopper “off” state).
  • functions are not selected and executed inadvertently due to undesired contact with the touch panel 21 and application of a pressing force, so that malfunctions during input operations of electronic devices are suppressed. be able to.
  • the user can execute the function after confirming the selection state of a desired menu or icon button with a focus display or the like. For this reason, an erroneous operation at the time of an input operation of the electronic device can be suppressed.
  • a desired function can be executed by pressing with a predetermined pressing force without releasing a finger or the like placed on the touch panel 21 in order to select a desired menu or icon button. .
  • the complexity at the time of input operation of an electronic device can be improved.
  • an undesired function is not erroneously executed. For this reason, an erroneous operation at the time of an input operation of the electronic device can be suppressed.
  • the selected desired function is executed by detecting the pressed state (sinking) of the touch panel 21.
  • the present invention can hold the touch panel 21 in a state in which the touch panel 21 does not move in the direction of the display unit 11 (stopper “on” state) when the menu or icon button displayed on the display unit 11 is not selected. Any other configuration may be used. For example, specifically, when a menu or icon button is not selected, a member is inserted into the gap between the panel substrate 11a of the display unit 11 and the touch panel 21, and the touch panel 21 moves in the direction of the display unit 11.

Abstract

「課題」 キー表示を選択し、選択したキー表示に対応する機能を実行するために行う、ユーザーの入力操作の手数(手順)が多くならないようにする。 「解決手段」 入力装置であって、情報を表示する表示手段と、前記表示手段の表示面側に配置され、入力面を有しこの入力面での接触を検知して接触情報を出力する入力パネルと、前記入力パネルの前記入力面に押圧力が印加されたときに前記押圧力が印加されたことを示す検出信号を出力する検出手段と、前記入力パネルが出力した前記接触情報に基づき前記入力パネル上での接触位置を検出し、前記表示手段の前記接触位置に対応する位置の表示情報を選択状態に設定し、前記入力パネルが前記接触を検知しつづけている状態で前記検出手段が前記検出信号を出力した場合、この検出信号に基づいて前記表示情報に関連する処理を実行する制御手段と、を備える。

Description

入力装置及びその制御方法並びに入力装置を備えた電子機器
 本発明は、入力装置及びその制御方法並びに入力装置を備えた電子機器に関し、特に、表示装置の表示面側にタッチパネルを備えた入力装置及びその制御方法、並びに、該入力装置を備えた電子機器に関する。
 近年、携帯電話や音楽プレーヤー、ゲーム機、電子辞書等の携帯型の電子機器において、表示パネルの表示面側(視野側)にタッチパネルを配置した入力装置を備えた機種が増えてきている。このような入力装置を備えた電子機器の入力操作は、まず、表示パネルの画面にメニューやアイコン等のキー表示が行われ、ユーザーがその画面上に重ねられているタッチパネルに触れる。これにより、電子機器は、当該接触位置を検出し、当該接触位置のキー表示に対応する機能を実行する。
 ここで、タッチパネルを備えた入力装置について関連する技術を示す。
 例えば特開平06−332607号公報には、タッチパネルへの押圧力を検出する複数の圧力センサを備えた構成が開示されている。そして、この公報では、タッチパネルにより接触位置の座標値を検出するとともに、圧力センサによりそのときの押圧力を検出して、表示装置にその結果が表示されることが記載されている。
 また、例えば特表平10−511198号公報、及び特開2006−126997号公報には、位置検出機能を備えない透明なアクリル板やガラスバンカラなるタッチパネルへの押圧位置を検出する複数の圧力センサや歪ゲージセンサを備えた構成が開示されている。そして、これらの公報では、圧力センサや歪ゲージセンサにより接触位置の座標値及び押圧力を検出することが記載されている。
 これらの公報、特開平06−332607号公報、特表平10−511198号公報、及び特開2006−126997号公報に開示された入力装置を備えた電子機器においては、入力操作時に、例えば次のような制御方法が採用されている。すなわち、ユーザーが表示画面に表示されたキー表示に対応する位置のタッチパネルに触れることにより、当該キー表示の位置が検出されるとともに、同時に当該キー表示に対応する機能が実行される。
 また、他の制御方法としては、タッチパネルに1回目に触れることにより任意のキー表示を選択し、タッチパネルに2回目に触れることにより当該キー表示に対応する機能を実行する手法も知られている。
 上述した特開平06−332607号公報、特表平10−511198号公報、及び特開2006−126997号公報に開示された入力装置を備えた電子機器においては、ユーザーが1回タッチパネルに触れることにより、画面上のキー表示の選択と、当該選択された機能が略同時に実行される。そのため、ユーザーは所望のキー表示(すなわち、当該キー表示に対応する機能)を正しく選択できたのか否か確認しにくいという問題を有していた。
 また、上述した他の制御方法においては、タッチパネルに複数回接触する必要があるため、ユーザーの入力操作の手数(手順)が多くなるという問題を有していた。
 本発明の目的は、上述した課題を解決する入力装置及びその制御方法、並びに、入力装置を備えた電子機器を提供することにある。
 本発明の入力装置は、情報を表示する表示手段と、前記表示手段の表示面側に配置され、入力面を有しこの入力面での接触を検知して接触情報を出力する入力パネルと、前記入力パネルの前記入力面に押圧力が印加されたときに前記押圧力が印加されたことを示す検出信号を出力する検出手段と、前記入力パネルが出力した前記接触情報に基づき前記入力パネル上での接触位置を検出し、前記表示手段の前記接触位置に対応する位置の表示情報を選択状態に設定し、前記入力パネルが前記接触を検知しつづけている状態で前記検出手段が前記検出信号を出力した場合、この検出信号に基づいて前記表示情報に関連する処理を実行する制御手段と、を含む。
 本発明の入力装置の制御方法は、情報を表示する表示手段とこの表示手段の表示面側に配置された入力パネルとを有する入力装置の制御方法であって、前記入力パネルがこの入力パネルの入力面での接触を検知したときに、この入力面の接触した位置に対応する前記表示手段の位置の表示情報を選択状態に設定し、前記入力パネルが前記接触を検知しつづけている状態で前記入力パネルの前記入力面に押圧力が印加されたことを検出したときに、この検出状況に基づいて前記表示情報に関連する処理を実行するようにしている。
 本発明の電子機器は、上記の入力装置と、前記入力装置への入力操作に基づいて特定の機能を実行する動作機能部と、を備える。
 本発明によれば、タッチパネルへの入力操作時に、実行を所望する機能に対応するキー表示の選択状態を良好に確認することができる。また、キー表示に対応する機能を簡易な手数(手順)で実行することができる。
 図1は、本発明に係る入力装置の第1の実施形態を示す概略ブロック図である。
 図2は、本発明に係る入力装置を備えた電子機器を示す概略ブロック図である。
 図3は、本発明に係る入力装置の第2の実施形態を示す概略ブロック図である。
 図4Aは、第2の実施形態に係る入力装置の概略構成の一例を示す斜視図である。
 図4Bは、図4Aで示す入力装置のタッチパネルの入力面に所定以上の押圧力を印加している状態の一例を示す斜視図である。
 図5は、第2の実施形態に係る入力装置の制御方法の一例を示すフローチャート図である。
 図6Aは、本実施形態に係る入力装置の制御方法を説明するための概念図の一例である。
 図6Bは、図6Aで示す入力装置のタッチパネルの入力面に所定以上の押圧力を印加している状態の一例を示す概念図である。
 図7は、本実施形態に係る入力装置の制御方法を説明するための表示部の表示例を示す図である。
 図8Aは、第2の実施形態に係る入力装置の他の構成例を示す斜視図である。
 図8Bは、図8Aで示す入力装置のタッチパネルの入力面に押圧力を偏って印加している状態の一例を示す斜視図である。
 図9Aは、第2の実施形態に係る入力装置のさらに他の構成例を示す斜視図である。
 図9Bは、図9Aで示す入力装置のタッチパネルの入力面に押圧力を偏って印加している状態の一例を示す斜視図である。
 図10Aは、本発明に係る入力装置の第3の実施形態を示す斜視図である。
 図10Bは、図10Aで示す入力装置の側面図の一例である。
 図11は、本発明に係る入力装置の第4の実施形態を示す概略構成図である。
 図12Aは、本実施形態に係る入力装置の概略構成の一例を示す側面図である。
 図12Bは、図12Aで示す入力装置のタッチパネルの入力面に所定以上の押圧力を印加している状態の一例を示す図である。
 図13は、第4の実施形態に係る入力装置の制御方法の一例を示すフローチャート図である。
 10 表示手段
 11 表示部
 11a 基板
 11b 表示領域
 20 入力パネル
 21 タッチパネル
 30 検出手段
 31~34 押下検出部
 31a~34a 作用部
 35 ガイドレール
 36 圧力センサ
 40 制御手段
 41 制御部
 42 記憶部
 51 圧電素子
 61 筐体
 100 入力装置
 200 動作機能部
 FNG 指
 以下に、本発明に係る入力装置及びその制御方法、並びに、該入力装置を備えた電子機器の具体的な実施形態を、図面を参照して説明する。
 <第1の実施形態>
 図1は、本発明に係る入力装置の第1の実施形態を示す概略ブロック図である。図1に示すように、第1の実施形態に係る入力装置は、表示手段10と、入力パネル20と、検出手段30と、制御手段40と、を備えている。
 表示手段10は、少なくとも、本実施形態に係る入力装置が搭載される電子機器の各種の機能情報や蓄積情報等を表示するための表示デバイスである。表示手段10は、これらの機能情報や蓄積情報等を文字や画像等の形式で表示する。本実施形態においては、例えば、ユーザーによって選択される1又は複数のメニューや複数のアイコンボタン等が、任意のレイアウトで配置されて表示手段10に表示される。ここで、複数のメニューや複数のアイコンボタン等は、ユーザーが、後述する入力パネル20に触れることにより、複数のメニューや複数のアイコンボタン等のうちのいずれかのメニューやアイコンボタン等が選択される。また、メニューやアイコンボタン等の表示項目が多いときには表示手段10の表示領域を越えて一度に表示できない場合がある。この場合には、ユーザーがタッチパネルの表面を擦る等の特定の入力操作を行うことにより、未表示のメニューやアイコンボタン等を含む画面がスクロール表示や切り替え表示される。表示手段10に表示されるメニューやアイコンボタン等は、背景技術に示した「キー表示」の一例である。
 入力パネル20は、表示手段10の表示面側(視野側)に配置される。入力パネル20は、表示手段10に表示される各種の機能情報や蓄積情報等を視野側に透過する透明な接触位置検出センサである。ここで、ユーザーが入力パネル20の入力面を介して入力操作を行う際の接触対象物は、例えばユーザーの指や爪等の身体の一部であってもよいし、専用のタッチペンや筆記具のキャップ先端部等であってもよい。以下に示す各実施形態においては、ユーザーが入力パネル20に指を接触させて入力操作を行う場合について説明する。
 検出手段30は、入力パネル20の入力面(表面)への押圧力の印加状態を検出するスイッチである。検出手段30は、入力パネル20の入力面への所定以上の押圧力の印加を検出すると、後述する制御手段40にその検出信号を出力する。あるいは、検出手段30は、入力パネル20の入力面に印加される押圧力に応じて所定の検出信号(例えば、検出電圧)を制御手段40に出力する。本実施形態においては、検出手段30は、例えば入力パネル20と表示手段10の間に介在するように配置される。
 制御手段40は、例えば、表示手段10に各種の機能情報や蓄積情報等を表示させる制御を行う。また、制御手段40は、入力パネル20により検出された指等の接触位置に対応する、メニューやアイコンボタン等を選択状態に設定する。さらに、制御手段40は、検出手段30から出力される検出信号に基づいて、表示手段10に表示され、ユーザーにより選択されたメニューやアイコンボタン等に対応する機能を実行させるための制御信号を出力する。この制御信号は、電子機器の内部回路(後述する動作機能部に対応する)に出力される。
 そして、本実施形態に係る入力装置は、次のように制御される。まず、制御手段40により表示手段10にメニューやアイコンボタンの一覧が表示される。この状態ではいずれのメニューやアイコンボタンも選択されていない。
 次いで、ユーザーが表示手段10に表示されたメニューやアイコンボタンの中から、所望の機能を有する特定のメニューやアイコンボタン上の入力パネル20の入力面(表面)に指で触れる。入力パネル20はこの接触を検出する。この入力パネル20により検出された接触情報は、制御手段40へ出力され、制御手段40は入力パネル20上での当該指の接触位置を算出する。
 そして、算出された接触位置に対応する表示手段10の位置に、アンカー(すなわち、選択可能なメニューやアイコンボタン)が存在する場合には、制御手段40はこの位置のメニューやアイコンボタンを選択状態に設定するとともに、フォーカス表示させる。この時点では、まだユーザーが入力パネル20の表面に指を軽く触れる程度に載置した状態、すなわち、入力パネル20が接触を検出している状態であって、この程度の押圧力(すなわち接触力)では検出手段30は動作しない。
 次いで、ユーザーが選択の意図を持って、入力パネル20上に載置されている指で、入力パネル20の入力面に所定以上の押圧力(すなわち押下力)を印加する。このことにより、検出手段30が入力パネル20への押圧力の印加状態を検出し検出信号を出力する。
 この検出手段30からの検出信号に基づいて、制御手段40は、表示手段10でフォーカス表示され選択状態に設定されているメニューやアイコンボタンに対応する機能を実行させる制御信号を、電子機器の内部回路(動作機能部)に出力する。また、これにより、制御手段40は、表示手段10に表示され機能が選択実行されたメニューやアイコンボタンを、例えば実行状態を示す表示に切り換えた後、即座に表示手段10に当該機能の操作画面を表示させる。
 すなわち、本実施形態においては、第1のステップとして、ユーザーが検出手段30をオフ状態に保持した状態で(すなわち、検出手段30を動作させる(オン動作させる)ことなく)、入力パネル20に指等で触れる。このことにより、制御手段40は表示手段10に表示されたメニューやアイコンボタンを選択状態に設定する。
そして、第2のステップとして、ユーザーが選択の意図を持って、引き続き当該表示手段10に接触した指等により入力パネル20の入力面に所定以上の押圧力を印加することにより、検出手段30がオン動作して、制御手段40に検出信号を出力する。制御手段40は、この検出信号に基づいて、表示手段10に表示され、選択されたメニューやアイコンボタンに対応する特定の機能を実行させる。
 このように、本実施形態においては、ユーザーが入力パネル20に指等で軽く触れることにより、表示手段10に表示された所望のメニューやアイコンボタンが選択状態に設定されるとともに、フォーカス表示される。すなわち、本実施形態によれば、上述した背景技術に示したように、ユーザーが1回タッチパネルに触れることにより即座に機能が選択されて実行されることがない。したがって、本実施形態によれば、ユーザーが所望のメニューやアイコンボタンを正確に選択したか否かをフォーカス表示等により良好に確認することができる。
 また、本実施形態においては、メニューやアイコンボタンが選択状態に設定された後に、指等を離すことなく、そのまま入力パネル20の入力面に所定以上の押圧力を印加することにより、選択した機能が実行される。すなわち、本実施形態によれば、上述した背景技術に示したように、所望の機能を実行させるために、ユーザーがタッチパネルに複数回接触する必要がない。したがって、本実施形態によれば、ユーザーが所望の機能を簡易な手数(手順)で実行することができる。
 さらに、本実施形態においては、指等で所望の機能のメニューやアイコンボタンに触れて選択状態に設定した後に、引き続き指等を離すことなく、入力パネル20の入力面に所定以上の押圧力を印加した場合にのみ、選択した機能が実行される。すなわち、本実施形態によれば、入力パネル20の表面を擦るような入力操作を行った場合であっても、所望しない機能が誤って実行されることがない。したがって、本実施形態によれば、表示手段10に表示されるメニューやアイコンボタン等の表示項目が多く、表示手段10の表示領域を越えて一度に表示できない場合であっても、入力パネル20の表面を擦る等の入力操作により、画面のスクロール表示や切り替え表示を良好に実行することができる。
 次に、上述した実施形態に係る入力装置を備えた電子機器について説明する。
 図2は、本発明に係る入力装置を備えた電子機器を示す概略ブロック図である。ここでは、図1に示した構成を有する入力装置への入力操作に基づいて特定の機能を実行する電子機器について説明する。また、本発明に係る電子機器としては、携帯型の通信端末や音響映像機器等を適用例とすることができる。
 上述した入力装置を備えた電子機器は、図2に示すように、表示手段10、入力パネル20、検出手段30及び制御手段40を含む入力装置100と、該入力装置から出力される制御信号に基づいて所定の機能を実行する動作機能部200と、を有している。
 入力装置100は、ユーザーが入力パネル20に指等で触れることにより、表示手段10に一覧表示されているメニューやアイコンボタンのうちのいずれかのメニューやアイコンボタンを選択する。そして、ユーザーが入力パネル20の入力面に所定以上の押圧力を印加する(すなわち、検出手段30をオン状態にする)ことにより、この選択されたメニューやアイコンボタンに対応する特定の機能を実行させるための制御信号を生成して、動作機能部200に出力する。
 動作機能部200は、具体的には、入力装置100(制御手段40)からの制御信号に基づいて、例えば通信制御や映像・楽曲データの再生動作、蓄積データの表示動作等の各種の動作機能を実現する電子機器の内部回路である。
 そして、このような構成を有する電子機器は、次のように動作する。
 上述した構成を有する電子機器においては、ユーザーが検出手段30をオフ状態に保持した状態で、入力パネル20に指等で触れることにより、表示手段10に一覧表示されているメニューやアイコンボタンのうちのいずれかのメニューやアイコンボタンが選択状態に設定される。そして、ユーザーが選択の意図を持って表示手段10に接触した指等により入力パネル20の入力面に所定以上の押圧力を印加することにより、検出手段30がオン動作して、検出信号を制御手段40に出力する。制御手段40は、この検出信号に基づいて、表示手段10に表示され選択されたメニューやアイコンボタンに対応する特定の機能を実行させる制御信号を、電子機器の動作機能部200に出力する。動作機能部200は、制御手段40からの制御信号に基づいて、ユーザーが選択したメニューやアイコンボタンに対応した所望の動作機能を実行する。このとき、制御手段40は、例えば動作機能部200からの指令を受けて、表示手段10に当該動作機能の操作画面や関連データを表示させる。
 このように、本実施形態においては、ユーザーが1回入力パネル20に触れることにより即座に機能が選択されて実行されることがないので、所望のメニューやアイコンボタンが正確に選択されたか否かを良好に確認することができる。したがって、本実施形態は、電子機器の入力操作時における誤操作を抑制することができる。
 また、本実施形態においては、所望の機能を実行させるために、ユーザーが入力パネル20に複数回接触する必要がないので、所望の機能を簡易な手数(手順)で実行することができる。したがって、本実施形態は、電子機器の入力操作時における繁雑さを改善することができる。
 さらに、本実施形態においては、入力パネル20の表面を擦るような入力操作を行った場合であっても、表面を擦る操作に続けて入力パネル20に押圧力を印加する操作を行わない限り選択した機能を実行しない。このため、所望しない機能が誤って実行されることがないので、画面のスクロール表示や切り替え表示を良好に実行することができる。したがって、本実施形態は、電子機器の入力操作時における誤操作を抑制することができる。
 <第2の実施形態>
 図3は、本発明に係る入力装置の第2の実施形態を示す概略ブロック図である。図4Aは、第2の実施形態に係る入力装置の概略構成を示す斜視図である。図4Bは、図4Aで示す入力装置のタッチパネル21の入力面に所定以上の押圧力を印加している状態の一例を示す斜視図である。ここで、図4A及び図4Bにおいては、各構成相互の位置関係や動作状態を明確にするために、タッチパネル21に便宜的にハッチングを施して示す。
 図3に示すように、第2の実施形態に係る入力装置は、表示部11と、タッチパネル21と、押下検出部31と、制御部41と、記憶部42と、を備えている。本実施形態において、表示部11は、第1の実施形態における表示手段の一例であり、タッチパネル21は、第1の実施形態における入力パネルの一例である。また、本実施形態において、押下検出部31は、第1の実施形態における検出手段の一例であり、制御部41は、第1の実施形態における制御手段の一例である。
 表示部11は、上述した第1の実施形態に示した表示手段10と同様に、少なくとも、ユーザーによって選択される1又は複数のメニューやアイコンボタン等が、任意のレイアウトで配置されて表示される表示デバイスである。表示部11は、例えば図4Aに示すように、パネル基板11aの一面側(図面上面側)に表示領域11bが設けられた構成を有している。
 なお、表示部11に適用される表示デバイスとしては、例えば液晶表示(LCD;Liquid Crystal Display)パネルやエレクトロルミネッセンス(EL;Electro−Luminescence)表示パネル等のフラットパネルディスプレイ(FPD;Flat Panel Display)が良好に適用される。
 タッチパネル21は、上述した第1の実施形態に示した入力パネル20と同様に、表示部11のパネル基板11aの一面側である表示面側(図面上面側)に配置される透明な接触位置検出センサである。タッチパネル21は、例えば図4Aに示すように、パネル基板11aの一面側の四隅に配置された押下検出部31に支持されている。タッチパネル21は、図4Bに示すように、ユーザーが指等により、入力面に所定以上の押圧力Pを印加することにより、表示部11方向(図4A中のZ方向)に沈み込み、相対的に移動(又は、スライド)するように構成されている。
 なお、タッチパネル21に適用される接触位置検出センサとしては、例えば抵抗膜方式や静電容量方式、表面弾性波方式、振動検出方式等、各種の動作方式を採用したものが良好に適用される。
 押下検出部31は、上述した第1の実施形態に示した検出手段30と同様に、タッチパネル21の入力面(表面)への押圧力の印加状態を検出するスイッチである。押下検出部31は、例えば図4Aに示すように、パネル基板11aの一面側である表示面側(図面上面側)の四隅に配置され、タッチパネル21を表示部11方向に移動(又は、スライド)可能なように支持した構成を有している。
 ここで、押下検出部31は、タッチパネル21の入力面への押圧力(すなわち、押下力)の印加により、所定のストロークを有して、図4A中のZ方向に動作する作用部31aを有している。作用部31aは、図4Bに示すように、タッチパネル21の入力面への押圧力Pの印加に伴って表示部11方向(すなわち、圧縮方向)に所定の寸法移動する。このことにより、押下検出部31は、タッチパネル21の押下状態を検出して検出信号を出力する。
 また、押下検出部31の作用部31aは、タッチパネル21の入力面への押圧力(押下力)の印加が解除されることにより、初期位置に復帰するように、内部や外部に復帰機構が設けられている。したがって、タッチパネル21の入力面への押圧力の印加が解除されることにより、タッチパネル21も初期位置に復帰する。本実施形態においては、押下検出部31は、タッチパネル21の四隅を支持するように複数個配置される。
 なお、押下検出部31に適用されるスイッチとしては、例えばバネ部材等を用いた復帰機構とシートスイッチとを組み合わせた構成や、所定の押下ストロークを有するメカニカルスイッチ等が良好に適用される。
 制御部41は、上述した第1の実施形態に示した制御手段40と同様に、表示部11にメニューやアイコンボタン等を表示させる。また、制御部41は、タッチパネル21からの接触情報に基づいて、表示部11に表示された所望のメニューやアイコンボタン等を選択状態に設定する。さらに、制御部41は、押下検出部31からの検出信号に基づいて、選択された所望のメニューやアイコンボタン等に対応する機能を実行させる。
 記憶部42は、例えば表示部11に表示されるメニューやアイコンボタン等の表示方法や表示内容に関する情報や、選択された機能を実行した際に表示される操作画面に関する情報、制御部41における制御処理に必要なプログラムデータ等を蓄積する。記憶部42は、具体的には、例えばユーザーが所望の機能のメニューやアイコンボタンに触れてこれをフォーカス表示させる場合に、メニューやアイコンボタンの表示内容や色反転等の表示方法についての情報を格納する。また、このフォーカス表示させた機能を実行させてこの機能の操作画面を表示する場合に、メニューやアイコンボタンの表示内容や色反転等の表示方法についての情報を格納する。
 次に、本実施形態に係る入力装置の制御方法について説明する。
 図5は、第2の実施形態に係る入力装置の制御方法を示すフローチャート図である。図6Aは、本実施形態に係る入力装置の制御方法を説明するための概念図の一例である。図6Bは、図6Aで示す入力装置のタッチパネルの入力面に所定以上の押圧力を印加している状態の一例を示す概念図である。ここで、図6A及び図6Bにおいては、タッチパネル21にのみハッチングを施して示す。図7は、本実施形態に係る入力装置の制御方法を説明するための表示部の表示例を示す図である。
 本実施形態に係る入力装置の制御方法の一例は、図5のフローチャートに示すように、まず、ステップA102において、タッチパネル21は、表示部11にメニューやアイコンボタンの一覧が表示された状態で、指が接触したか否かを検出する。
 具体的には、まず、表示部11に図7(a)に示すように、複数のメニューボタンからなるメニュー画面が表示されている。なお、図7(a)においては、メニュー画面として、「ブラウザ」、「メーラー」、「ミュージック」、「電話帳」等の複数のメニューボタンが所定のレイアウトで配置されて表示されている場合を示す。
 このようなメニュー画面が表示部11に表示された状態で、図6Aに示すように、ユーザーが表示部11の表示を見ながら、所望の機能を有する特定のメニューボタン上のタッチパネル21の入力面(表面)に指FNGで触れる。これにより、当該タッチパネル21は、指FNGの接触を検出して当該接触情報を制御部41に出力する。この状態では、ユーザーはタッチパネル21の表面に指FNGを軽く触れる程度に載置する。すなわち、タッチパネル21を押し下げて押下検出部31により押下状態が検出される程度の押圧力(押下力)P2よりも十分弱い押圧力(接触力)P1がタッチパネル21の入力面に印加される。なお、ステップA102において、タッチパネル21への指FNGの接触が検出されない場合には、タッチパネル21に指等が接触するまで待機する。
 次いで、ステップA104において、タッチパネル21により検出された接触情報に基づいて、制御部41がタッチパネル21上での当該指FNGの接触位置を算出する。
 次いで、ステップA106において、制御部41が、ステップA104で算出された接触位置に対応する表示部11の表示領域11bにアンカー(すなわち、選択可能なメニューやアイコンボタン)が存在するか否かを判定する。ここで、制御部41がアンカーが存在しないと判定した場合には、入力装置の制御処理を終了するか、又は、上述したステップA102に戻って、タッチパネル21に指等が接触するまで待機する。
 一方、ステップA106において、制御部41が、アンカーが存在すると判定した場合には、ステップA108において、制御部41は、接触位置に対応するアンカー(メニューやアイコンボタン)を選択状態に設定するとともに、フォーカス表示させる。
 具体的には、制御部41は、図7(b)に示すように、表示部11に表示された複数のメニューボタンのうちのユーザーが指FNGで触れた位置のメニューボタンを選択状態に設定するとともに、反転表示させる。なお、図7(b)においては、メニューボタンのうち、「ミュージック」が選択された状態を示す。
 次いで、ステップA110において、押下検出部31が、タッチパネル21が押し下げられたか否かを検出する。
 ここで、タッチパネル21が、所定の寸法押し下げられた押下状態が検出された場合には、ステップA112において、制御部41は、ステップA106で選択状態に設定されフォーカス表示されたメニューやアイコンボタンに対応する機能を実行させる。一方、ステップA110において、タッチパネル21の押し下げが検出されない場合には、ステップA114に進む。ステップA114において、タッチパネル21が指が接触しているか否かを検出し、指が接触していることを検出したときには、ステップA110に戻る。また、タッチパネル21が指が接触していることを検出しなかったときには、ステップA116に進む。ステップA116において、制御部41は、ステップA108で選択状態に設定したアンカーを選択状態から解除するとともに、フォーカス表示を解除させる。そして、制御部41は、入力装置の制御処理を終了するか、又は、上述したステップA102に戻って、タッチパネル21に指等が接触するまで待機する。
 具体的には、ユーザーが選択の意図を持って、ステップA102以降継続してタッチパネル21上に載置されている指FNGで、図6Bに示すように、タッチパネル21の入力面に所定以上の押圧力(押下力)P2を印加する。これにより、タッチパネル21が押し下げられ、これに伴って、押下検出部31の作用部31aが圧縮されることにより、タッチパネル21の押下状態が検出され、押下検出部31から検出信号が出力される。
 そして、ステップA112において、フォーカス表示されたアンカー(メニューやアイコンボタン)に対応する機能が実行される。
 具体的には、制御部41は、選択状態に設定され表示部11に反転表示されているメニューボタンに対応する機能を、押下検出部31からの検出信号に基づいて実行させるための制御信号を出力する。この制御信号は、図示を省略した電子機器の内部回路(動作機能部)に入力されて、当該機能が実行される。
 例えば、図7(b)に示したように、「ミュージック」のメニューボタンが選択された状態について説明する。この状態において、タッチパネル21が押し下げられて、押下検出部31により押下状態が検出されると、制御部41は「ミュージック」に対応するミュージックプレーヤの機能を起動させるための制御信号を電子機器の内部回路に出力する。また、制御部41は、図7(c)に示すように、タッチパネル21の押下状態の検出に伴って、ミュージックプレーヤの機能が起動されることを示す(報知する)ために、表示部11の「ミュージック」のメニューボタンを強調表示させる。そして、制御部41は、電子機器の内部回路により、ミュージックプレーヤの機能が起動されると、図7(d)に示すように、表示部11を切り替えて、ミュージックプレーヤの操作画面を表示する。
なお、図7(d)においては、例えば記憶部42に格納されている楽曲データの一覧がアイコンボタンにより表示された状態を示す。
 このように、本実施形態においては、ユーザーがタッチパネル21に指等で軽く触れることにより、表示部11に表示された所望のメニューやアイコンボタンが選択状態に設定されるとともに、フォーカス表示される。また、本実施形態においては、メニューやアイコンボタンを選択する際に、タッチパネル21に載置された指等を離すことなく、そのままタッチパネル21を押し下げることにより、選択した機能が実行される。
 すなわち、本実施形態によれば、上述した第1の実施形態と同様に、ユーザーが1回タッチパネルに触れることにより即座に機能が選択、実行されることがない。このため、ユーザーがメニューやアイコンボタンの選択状態をフォーカス表示等により良好に確認することができる。したがって、本実施形態は、電子機器の入力操作時における誤操作を抑制することができる。
 また、本実施形態によれば、上述した第1の実施形態と同様に、所望の機能を実行させるために、ユーザーがタッチパネル21に複数回接触する必要がないので、ユーザーが所望の機能を簡易な手数(手順)で実行することができる。したがって、本実施形態は、電子機器の入力操作時における繁雑さを改善することができる。
 さらに、本実施形態によれば、タッチパネル21の表面を擦るような入力操作を行った場合であっても、所望しない機能が誤って実行されることがない。このため、表示項目が多い場合であっても、画面のスクロール表示等を良好に実行することができる。したがって、本実施形態は、電子機器の入力操作時における誤操作を抑制することができる。
 加えて、本実施形態によれば、タッチパネル21の押下状態(沈み込み)を検出することにより、選択された所望の機能を実行させる。このため、電子機器への入力操作時の感覚を、キー入力方式における場合と同様に実現することができる。
 なお、背景技術に示したような、周知のタッチパネルを搭載した電子機器においては、ユーザーがタッチパネル表面に1回又は複数回触れるようにした入力操作が採用されている。このため、タッチパネルを搭載した電子機器は、一般の電子機器等で多用されている入力時に操作ボタン等を適度に押し込むようにしたキー入力方式と比較して、入力時の感覚が乏しいという問題を有している。
 これに対して、本実施形態によれば、タッチパネル21の入力面への押圧力の印加に伴って、タッチパネル21の沈み込む状態を検出して、所望の機能を実行させている。このため、入力操作時の感覚をキー入力方式における場合と同様に実現することができる。
 なお、上述した第2の実施形態においては、表示部11を構成するパネル基板11aの一面側の四隅に押下検出部31を配置し、押下検出部31からの検出信号に基づいて、タッチパネル21の押下状態(沈み込み)を検出する構成について説明した。ここで、本実施形態においては、パネル基板11aの四隅に配置された4個の押下検出部31の相互の関係、及び、各押下検出部31からの検出信号相互の関係については、詳細に説明しなかった。上述した実施形態においては、図4Bに示したように、タッチパネル21の入力面への押圧力Pの印加に伴って、全ての押下検出部31が動作して、これら全ての検出信号が出力されることにより、タッチパネル21の押下状態を検出する方法を適用することができる。
 ここで、本実施形態は、上述した検出方法に限定されるものではない。本実施形態は、例えば、タッチパネル21の入力面への押圧力Pの印加に伴って、少なくとも1個の押下検出部31が動作して検出信号が出力されることにより、タッチパネル21の押下状態を検出する方法を適用するものであってもよい。以下に、本実施形態の他の構成例を示して具体的に説明する。
 (他の構成例)
 図8Aは、第2の実施形態に係る入力装置の他の構成例を示す斜視図である。
 図8Bは、図8Aで示す入力装置のタッチパネルの入力面に押圧力を偏って印加している状態の一例を示す斜視図である。本構成例に係る入力装置は、図4Aに示した構成と同様に、図8Aに示すように、パネル基板11aの一面側(表示面側)の四隅に、各々作用部31a~34aを備えた押下検出部31~34が配置されている。図示を省略した制御部41は、各押下検出部31~34のうち、少なくとも1個から出力される検出信号に基づいて、タッチパネル21の押下状態を判定する。
 このような入力装置において、例えば図8Bに示すように、タッチパネル21の入力面への押圧力(押下力)Pの印加が偏ることにより、タッチパネル21が傾いて押し下げられた場合について検証する。このような場合、各押下検出部31~34の作用部31a~34aに印加される押圧力はそれぞれ異なる。図8Bに示すように、例えば押下検出部32の作用部32aは十分に圧縮され、押下検出部32は所定の検出信号を出力する。一方、他の押下検出部31、33、34の作用部31a、33a、34aは十分には圧縮されず、このため、他の押下検出部31、33、34は検出信号を出力しない。
 本構成例に係る入力装置においては、このような場合であっても、押下検出部31~34のうちの少なくとも1個(図8Bでは押下検出部32)から出力される検出信号に基づいて、制御部41がタッチパネル21の押下状態を判定することができる。すなわち、ユーザーが、例えば表示部11の隅部に表示されたメニューやアイコンボタンに対応する機能を選択して実行するために、当該位置のタッチパネル21の入力面に押圧力Pを印加した場合であっても、良好に所望の機能を実行させることができる。
 図9Aは、第2の実施形態に係る入力装置のさらに他の構成例を示す斜視図である。図9Bは、図9Aで示す入力装置のタッチパネルの入力面に押圧力を偏って印加している状態の一例を示す斜視図である。本構成例に係る入力装置は、図9Aに示すように、パネル基板11aの一面側(表示面側)の一隅に、唯一の押下検出部31が配置されている。また、本構成例に係る入力装置においては、タッチパネル21は、このタッチパネル21の入力面に押圧力Pが偏って印加される場合であっても、表示部11の表示面に対して水平を保持した状態で、当該表示面に対して垂直方向に相対的に移動する。これは、タッチパネル21が、表示部11の表示面に対して水平を保持した状態で、この表示面に対して垂直方向に相対的に移動して図9A中のZ方向に押し下げられるようにガイドレール35が設けられているためである。ここで、ガイドレール35は、例えばタッチパネル21の四隅を支持してZ方向へのスライドが可能なように構成されている。図示を省略した制御部41は、唯一の押下検出部31から出力される検出信号に基づいて、タッチパネル21の押下状態を判定する。
 このような入力装置においては、例えば図9Bに示すように、タッチパネル21の入力面に押圧力(押下力)Pが印加されることにより、タッチパネル21がこのタッチパネル21の四隅を支持するガイドレール35に沿って表示部11の表示面に対して垂直方向に移動する。
 これにより、本構成例に係る入力装置によれば、唯一の押下検出部31から出力される検出信号に基づいて、タッチパネル21の押下状態を判定することができる。すなわち、本構成例に係る入力装置においては、タッチパネル21の四隅がガイドレール35により支持されているため、タッチパネル21の入力面に押圧力が偏って印加される場合であっても、タッチパネル21は表示部11の表示面に対して水平を保持する。さらに、このとき、タッチパネル21はガイドレール35に沿って、表示部11の表示面に対して垂直方向に移動する。したがって、押下検出部31が1個のみ設けられた構成であっても、タッチパネル21の押下状態を的確に検出して、所望の機能を良好に選択、実行させることができる。
 なお、上述した第2の実施形態及び各構成例においては、表示部11を構成するパネル基板11aの一面側の四隅や一隅に押下検出部31を配置した構成を示したが、本発明はこれに限定されるものではない。すなわち、本実施形態に係る押下検出部は、タッチパネル21の入力面への押圧力の印加に伴って、タッチパネル21が沈み込む状態(押下状態)を検出することができるものであれば、他の構成を有するものであってもよい。すなわち、押下検出部は、例えばパネル基板11aの周縁部や、パネル基板11aの表示領域11b以外の任意の領域に、1又は複数個配置されるものであってもよい。
 <第3の実施形態>
 図10Aは、本発明に係る入力装置の第3の実施形態を示す斜視図である。
 図10Bは、図10Aで示す入力装置の側面図の一例である。ここで、上述した第2の実施形態(図3、図4A、図4B参照)と同等の構成については同一の符号を付してその説明を簡略化又は省略する。また、図10A及び図10Bにおいても、図示の都合上、各構成相互の位置関係を明確にするために、タッチパネル21に便宜的にハッチングを施して示す。
 第3の実施形態に係る入力装置は、第2の実施形態に示した構成(図4A、図4B参照)において、押下検出部として圧力センサを適用したことを特徴としている。
 具体的には、本実施形態に係る入力装置は、図10A、図10Bに示すように、表示部11のパネル基板11aの一面側(表示面側;図面上面側)の四隅に、各々圧力センサ36を配置した構成を有している。本実施形態において、圧力センサ36は、第1の実施形態における検出手段の一例である。
 すなわち、タッチパネル21は、図10Aに示すように、パネル基板11aの一面側の四隅に配置された圧力センサ36により四隅が支持されている。
 圧力センサ36は、タッチパネル21の入力面(表面)への押圧力の印加状態を検出するスイッチであり、タッチパネル21の入力面に印加された押圧力に応じて所定の検出信号(例えば、検出電圧)を、図示を省略した制御部41に出力する。
 制御部41は、圧力センサ36から出力される検出信号に基づいて、タッチパネル21の入力面に所定以上の押圧力が印加された状態(押圧状態)を判定する。
 このような構成を有する入力装置の制御方法においては、まず、ユーザーが表示部11に表示された所望のメニューやアイコンボタンに対応する位置の、タッチパネル21の入力面(表面)に軽く触れる程度に指等を載置する。すなわち、制御部41は圧力センサ36から出力される検出信号に基づいてタッチパネル21が押圧状態であるか否かを判定するが、タッチパネル21には、制御部41が押圧状態であると判定する程度の押圧力よりも十分弱い押圧力が印加される。これにより、制御部41は、タッチパネル21により検出された接触位置に対応するメニューやアイコンボタンを選択状態に設定するとともに、フォーカス表示させる。
 次いで、ユーザーが選択の意図を持って、タッチパネル21上に載置されている指等で、タッチパネル21の入力面に所定以上の押圧力を印加する。これにより、圧力センサ36からその押圧力に応じた検出信号(検出電圧)が制御部41に出力される。制御部41は、圧力センサ36からの検出信号に基づいて、表示部11で選択状態に設定されフォーカス表示されたメニューやアイコンボタンに対応する機能を実行させるための制御信号を、図示を省略した電子機器の内部回路(動作機能部)に出力する。これにより、電子機器において選択されたメニューやアイコンボタンに対応する機能が実行される。
 このように、本実施形態においても、上述した各実施形態と同様に、ユーザーがタッチパネル21に指等で軽く触れることにより、所望のメニューやアイコンボタンが選択状態に設定されるとともに、フォーカス表示される。そして、ユーザーがタッチパネル21に載置された指等を離すことなく、そのままタッチパネル21の入力面に所定以上の押圧力を印加することにより、選択した機能が実行される。
 したがって、本実施形態によれば、ユーザーは所望のメニューやアイコンボタンの選択状態をフォーカス表示等により良好に確認した後に、当該機能を実行させることができる。このため、電子機器の入力操作時における誤操作を抑制することができる。
 また、本実施形態によれば、所望のメニューやアイコンボタンを選択するためにタッチパネル上に載置した指等を離すことなく、そのまま所定の押圧力を印加することにより所望の機能を実行させることができる。このため、電子機器の入力操作時における繁雑さを改善することができる。
 さらに、本実施形態によれば、表示項目が多く、画面のスクロール表示等を行う場合のように、タッチパネル21の表面を擦るような入力操作を行った場合でも、所望しない機能が誤って実行されることがない。このため、電子機器の入力操作時における誤操作を抑制することができる。
 <第4の実施形態>
 図11は、本発明に係る入力装置の第4の実施形態を示す概略構成図である。ここで、上述した第2の実施形態(図3、図4A、図4B参照)と同等の構成については同一の符号を付してその説明を簡略化又は省略する。図12Aは、本実施形態に係る入力装置の概略構成の一例を示す側面図である。図12Bは、図12Aで示す入力装置のタッチパネルの入力面に所定以上の押圧力を印加している状態の一例を示す図である。
 図11に示すように、第4の実施形態に係る入力装置は、第2の実施形態に係る入力装置の構成(図3参照)に加えて、圧電素子(ピエゾ素子)51を備えている。ここで、表示部11と、タッチパネル21と、押下検出部31と、記憶部42については、上述した第2の実施形態と同等であるのでその説明を省略する。本実施形態において、圧電素子51は、本発明に係るストッパ手段の一例である。
 圧電素子51は、タッチパネル21の入力面に所定の押圧力が印加されることにより、表示部11の表示面に対して垂直方向に相対的に移動するタッチパネル21の動作を阻止する制御素子である。圧電素子51は、例えば図12Aに示すように、少なくとも表示部11、タッチパネル21及び押下検出部31を収納する筐体61の内壁面に複数個設けられている。また、圧電素子51は、制御電圧に応じて変形する特性を有している。さらに、圧電素子51は、表示部11に表示されたメニューやアイコンボタンの選択状態に応じて、タッチパネル21の移動(又は、スライド)を制御するように構成されている。
 そして、本実施形態においては、圧電素子51は、制御部41からの制御信号(制御電圧)に基づいて、筐体61の内壁面に対して垂直方向への突出量が変化することにより、タッチパネル21の移動方向に対して垂直方向に押圧力を生じる。すなわち、圧電素子51が、タッチパネル21の側面に所定の押圧力を印加することにより、圧電素子51及び筐体61と、タッチパネル21間に摩擦力が生じて、タッチパネル21の移動が阻止(禁止)される。
 制御部41は、上述した第2の実施形態に示した制御動作に加え、タッチパネル21からの接触情報、及び、表示部11に表示されたメニューやアイコンボタンの選択状態に応じて、圧電素子51の動作を制御する。これにより、制御部41は、表示部11の表示面に対して垂直方向へのタッチパネル21の移動(又は、スライド)の可否を制御する。
 次に、本実施形態に係る入力装置の制御方法について説明する。
 図13は、第4の実施形態に係る入力装置の制御方法の一例を示すフローチャート図である。ここで、上述した第2の実施形態(図6A、図6B参照)と同等の制御方法については同一の符号を付してその説明を簡略化又は省略する。また、ここでは、図12A、図12Bに示した概略構成を適宜参照して、本実施形態に係る入力装置の制御方法を説明する。
 本実施形態に係る入力装置の制御方法においては、図13のフローチャートに示すように、ステップA202において、まず初期状態として、図示を省略した制御部41は、タッチパネル21をタッチパネル21の表示部11方向への相対的な移動が阻止(禁止)された状態(ストッパ“オン”状態)に設定する。
具体的には、制御部41から圧電素子51を阻止動作(すなわち、タッチパネル21の移動を阻止する動作)させるための制御信号を出力する。これにより圧電素子51がタッチパネル21の側面を押圧して、表示部11の表示面に対して垂直方向へのタッチパネル21の移動を阻止する。
 次いで、ステップA102において、表示部11にメニューやアイコンボタンの一覧が表示された状態で、タッチパネル21がユーザーの指FNGが接触したか否かを検出する。そして、タッチパネル21は、指FNGの接触を検出した場合には、当該接触情報を制御部41に出力する。このとき、タッチパネル21は圧電素子51により表示部11方向への移動が阻止されている。このため、図12Aに示すように、タッチパネル21の入力面(表面)に指FNGで任意の押圧力P3を印加した場合であっても、タッチパネル21は移動(又は、スライド)しない。なお、ステップA102において、タッチパネル21への指FNGの接触が検出されない場合には、制御部41は、待機状態を継続する。
 次いで、ステップA104において、タッチパネル21により検出された接触情報に基づいて、制御部41がタッチパネル21上での指FNGの接触位置を算出する。
 次いで、ステップA106において、算出された接触位置に対応する表示部11の表示領域11bの部分に、アンカー(すなわち、選択可能なメニューやアイコンボタン)が存在するか否かを制御部41が判定する。ここで、制御部41が、アンカーが存在しないと判定した場合には、ステップA204において、タッチパネル21の移動を阻止した状態(ストッパ“オン”状態)を保持する。その後、制御部41は、入力装置の制御処理を終了するか、又は、上述したステップA102に戻って、タッチパネル21に指等が接触するまで待機する。
 一方、ステップA106において、制御部41が、アンカーが存在すると判定した場合には、ステップA108において、接触位置に対応するアンカー(メニューやアイコンボタン)を選択状態に設定するとともに、フォーカス表示させる。
 また、制御部41は、このステップA108に先立って、又は、ステップA108の後に、あるいは、このステップA108と略同時に、ステップA206に示すように、制御部41はタッチパネル21を、タッチパネル21の移動が許可された状態(ストッパ“オフ”状態)に設定する。具体的には、制御部41が圧電素子51の阻止動作を解除させるための制御信号を出力する。このことにより、圧電素子51によるタッチパネル21の側面への押圧がなくなり、表示部11の表示面に対して垂直方向への移動が許可される。
 次いで、ステップA110において、押下検出部31によりタッチパネル21が押し下げられたか否かを検出する。ここで、タッチパネル21の押し下げが検出されない場合には、ステップA204において、制御部41は、タッチパネル21の移動を阻止した状態(ストッパ“オン”状態)を保持する。その後、制御部41は、入力装置の制御処理を終了するか、又は、上述したステップA102に戻って、タッチパネル21に指等が接触するまで待機する。
 一方、ステップA110において、タッチパネル21が所定の寸法押し下げられた押下状態が検出された場合には、ステップA112において、制御部41は、選択状態に設定されフォーカス表示されたメニューやアイコンボタンに対応する機能を実行させる。
 このとき、ユーザーは、選択の意図を持って、ステップA102以降継続してタッチパネル21上に載置されている指FNGで、図12Bに示すように、タッチパネル21の入力面に所定以上の押圧力(押下力)P2を印加する。これにより、タッチパネル21が押し下げられて、押下検出部31により、タッチパネル21の押下状態が検出され、検出信号が制御部41に出力される。
 このように、本実施形態においては、第4のステップとして、メニューやアイコンボタンが選択されていない状態(非選択状態)では、圧電素子51によりタッチパネル21が移動しない状態(ストッパ“オン”状態)に設定される。そして、ユーザーが所望のメニューやアイコンボタンを選択状態に設定することにより、圧電素子51によりタッチパネル21が移動可能な状態(ストッパ“オフ”状態)に設定される。これにより、本実施形態によれば、所望しないタッチパネル21への接触及び押圧力の印加により、不用意に機能が選択、実行されることがないので、電子機器の入力操作時における誤動作を抑制することができる。
 また、本実施形態においても、上述した各実施形態と同様に、ユーザーは所望のメニューやアイコンボタンの選択状態をフォーカス表示等により良好に確認した後に、当該機能を実行させることができる。このため、電子機器の入力操作時における誤操作を抑制することができる。
 また、本実施形態においても、所望のメニューやアイコンボタンを選択するためにタッチパネル21上に載置した指等を離すことなく、所定の押圧力で押し込むことにより所望の機能を実行させることができる。このため、電子機器の入力操作時における繁雑さを改善することができる。
 さらに、本実施形態においても、画面のスクロール表示等を行う場合のように、タッチパネル21の表面を擦るような入力操作を行った場合でも、所望しない機能が誤って実行されることがない。このため、電子機器の入力操作時における誤操作を抑制することができる。
 加えて、本実施形態においても、タッチパネル21の押下状態(沈み込み)を検出することにより、選択された所望の機能を実行させる。このため、電子機器への入力操作時の感覚を、キー入力方式における場合と同様に実現することができる。
 なお、本実施形態においては、ストッパ手段の一例として圧電素子51を適用した入力装置の構造を示したが、本発明はこれに限定されるものではない。すなわち、本発明は、表示部11に表示されたメニューやアイコンボタンが選択されていない状態では、タッチパネル21を表示部11方向に移動しない状態(ストッパ“オン”状態)に保持することができるものであれば他の構成を有するものであってもよい。例えば、具体的には、メニューやアイコンボタンが選択されていない状態のとき、表示部11のパネル基板11aとタッチパネル21との間隙に部材を挿入して、タッチパネル21の表示部11方向への移動を阻止するようにした機構を適用することができる。
 また、上述した各実施形態においては、表示部のパネル基板とタッチパネルとの間に、押下検出部を介在させた構成を示したが、本発明はこれに限定されるものではない。すなわち、本発明は、ユーザーが所望のメニューやアイコンボタンを選択する際に印加する押圧力(接触力)と、選択されたメニューやアイコンボタンに対応する機能を実行させる際に印加する押圧力(押下力)とを、判別することができるものであれば他の構成を適用するものであってもよい。
 以上、実施形態を参照して本願発明を説明したが、本願発明は上記実施形態に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2008年9月17日に出願された日本出願特願2008−238063を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (16)

  1. 情報を表示する表示手段と、
     前記表示手段の表示面側に配置され、入力面を有しこの入力面での接触を検知して接触情報を出力する入力パネルと、
     前記入力パネルの前記入力面に押圧力が印加されたときに前記押圧力が印加されたことを示す検出信号を出力する検出手段と、
     前記入力パネルが出力した前記接触情報に基づき前記入力パネル上での接触位置を検出し、前記表示手段の前記接触位置に対応する位置の表示情報を選択状態に設定し、前記入力パネルが前記接触を検知しつづけている状態で前記検出手段が前記検出信号を出力した場合、この検出信号に基づいて前記表示情報に関連する処理を実行する制御手段と、を含む入力装置。
  2. 請求項1記載の入力装置において、
     前記制御手段は、前記選択状態に設定した前記表示情報が特定の機能に関連する情報の場合、前記検出手段が前記検出信号を出力したときに、この検出信号に基づいて前記特定の機能を実行する。
  3. 請求項1又は2記載の入力装置において、
     前記入力パネルは、前記入力面に所定以上の前記押圧力が印加された場合に、前記表示手段の前記表示面の方向に移動し、
     前記検出手段は、前記入力パネルの前記移動を検出し、前記検出信号を出力する。
  4. 請求項3記載の入力装置において、
     前記入力パネルは、前記表示手段の前記表示面に対して水平を保持した状態で移動する。
  5. 請求項3又は4記載の入力装置において、
     前記表示手段の前記表示面に対する前記入力パネルの移動を阻止するストッパ手段をさらに備える。
  6. 請求項5記載の入力装置において、
     前記制御手段は、前記表示手段における前記表示情報が非選択状態の場合には、前記入力パネルの移動を阻止するように前記ストッパ手段を制御する。
  7. 請求項5又は6記載の入力装置において、
     前記ストッパ手段は、前記入力パネルの移動方向に対して垂直方向に突出する機構を有する。
  8. 請求項1又は2記載の入力装置において、
     前記検出手段は、圧力センサである。
  9. 請求項1乃至8のいずれかに記載の入力装置において、
     前記検出手段は複数個設けられ、前記制御手段は、前記複数の前記検出手段のうちの所定の数の前記検出手段が前記検出信号を出力した場合、前記表示情報に関連する処理を実行する。
  10. 請求項1乃至9のいずれかに記載の入力装置において、
     前記検出手段は、前記入力パネルの周縁部に配置される。
  11. 情報を表示する表示手段とこの表示手段の表示面側に配置された入力パネルとを有する入力装置の制御方法であって、
     前記入力パネルがこの入力パネルの入力面での接触を検知したときに、この入力面の接触した位置に対応する前記表示手段の位置の表示情報を選択状態に設定し、
     前記入力パネルが前記接触を検知しつづけている状態で前記入力パネルの前記入力面に押圧力が印加されたことを検出したときに、この検出状況に基づいて前記表示情報に関連する処理を実行する。
  12. 請求項11記載の入力装置の制御方法において、
     前記選択状態に設定した前記表示情報が特定の機能に関連する情報の場合、前記入力パネルの前記入力面に押圧力が印加されたことを検出したときに、この検出状況に基づいて前記特定の機能を実行する。
  13. 請求項11又は12記載の入力装置の制御方法において、
     前記入力面に所定以上の前記押圧力が印加された場合に、前記入力パネルが前記表示手段の前記表示面の方向に移動したことを検出し、検出したときに前記表示情報に関連する処理を実行する。
  14. 請求項13記載の入力装置の制御方法において、
     前記表示手段における前記表示情報が非選択状態の場合には、前記入力パネルの前記移動を阻止する。
  15. 請求項11乃至14のいずれかに記載の入力装置の制御方法において、
     前記入力装置は前記入力パネルの前記入力面に押圧力が印加されたことを検出する複数の検出手段を有し、これらの検出手段のうちの所定の数の前記検出手段により、前記入力パネルの前記入力面に押圧力が印加されたことを検出したときに、この検出状況に基づいて前記表示情報に関連する処理を実行する。
  16. 請求項1乃至10のいずれかに記載の前記入力装置と、
     前記入力装置への入力操作に基づいて特定の機能を実行する動作機能部と、
    を備える電子機器。
PCT/JP2009/065017 2008-09-17 2009-08-21 入力装置及びその制御方法並びに入力装置を備えた電子機器 WO2010032598A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/062,260 US20110187667A1 (en) 2008-09-17 2009-08-21 Input unit, method for controling for the same, and electronic device provided with input unit
JP2010529703A JP5494485B2 (ja) 2008-09-17 2009-08-21 入力装置及びその制御方法並びに入力装置を備えた電子機器
EP09814443.9A EP2330485A4 (en) 2008-09-17 2009-08-21 INPUT UNIT, METHOD FOR CONTROLLING IT AND EQUIPPED WITH THE INPUT DEVICE ELECTRONIC DEVICE
CN200980136541.4A CN102160021B (zh) 2008-09-17 2009-08-21 输入单元及其控制方法和具有输入单元的电子装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-238063 2008-09-17
JP2008238063 2008-09-17

Publications (1)

Publication Number Publication Date
WO2010032598A1 true WO2010032598A1 (ja) 2010-03-25

Family

ID=42039435

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/065017 WO2010032598A1 (ja) 2008-09-17 2009-08-21 入力装置及びその制御方法並びに入力装置を備えた電子機器

Country Status (5)

Country Link
US (1) US20110187667A1 (ja)
EP (1) EP2330485A4 (ja)
JP (3) JP5494485B2 (ja)
CN (1) CN102160021B (ja)
WO (1) WO2010032598A1 (ja)

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012181703A (ja) * 2011-03-01 2012-09-20 Fujitsu Ten Ltd 表示装置
JP2013192000A (ja) * 2012-03-13 2013-09-26 Ntt Docomo Inc 通信装置および通信制御方法
JP2015043214A (ja) * 2014-09-19 2015-03-05 Kddi株式会社 画面への押圧でページ捲りが可能な電子書籍表示装置、ページ捲り方法及びプログラム
JP2015114767A (ja) * 2013-12-10 2015-06-22 キヤノン株式会社 情報処理装置、及び情報処理装置の制御方法、並びにプログラム
US9753567B2 (en) 2011-09-08 2017-09-05 Kddi Corporation Electronic medium display device that performs page turning in response to user operation pressing screen, page turning method, and program
WO2018123355A1 (ja) * 2016-12-28 2018-07-05 デクセリアルズ株式会社 ユーザーインターフェイス装置及び電子機器
JP2018106735A (ja) * 2012-05-09 2018-07-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10222980B2 (en) 2015-03-19 2019-03-05 Apple Inc. Touch input cursor manipulation
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101725563B1 (ko) * 2009-03-31 2017-04-10 니혼샤신 인사츠 가부시키가이샤 정보입력장치 및 정보입력장치에 이용되는 압력검출 유니트
US9417754B2 (en) 2011-08-05 2016-08-16 P4tents1, LLC User interface system, method, and computer program product
WO2013169875A2 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for displaying content associated with a corresponding affordance
WO2013169845A1 (en) 2012-05-09 2013-11-14 Yknots Industries Llc Device, method, and graphical user interface for scrolling nested regions
KR20130142301A (ko) * 2012-06-19 2013-12-30 삼성전자주식회사 단말기의 메뉴환경 설정 장치 및 방법
KR102052960B1 (ko) * 2012-11-23 2019-12-06 삼성전자주식회사 입력장치, 디스플레이장치, 디스플레이시스템 및 그 제어 방법
FR2999742B1 (fr) * 2012-12-13 2018-03-30 Dav Interface de commande tactile
EP3435220B1 (en) 2012-12-29 2020-09-16 Apple Inc. Device, method and graphical user interface for transitioning between touch input to display output relationships
WO2014105279A1 (en) 2012-12-29 2014-07-03 Yknots Industries Llc Device, method, and graphical user interface for switching between user interfaces
CN109375853A (zh) 2012-12-29 2019-02-22 苹果公司 对用户界面分级结构导航的设备、方法和图形用户界面
TW201502747A (zh) * 2013-07-02 2015-01-16 Elan Microelectronics Corp 輸入裝置結構及應用於輸入裝置之升降結構
CN104123040B (zh) * 2013-10-21 2017-07-28 三星电子(中国)研发中心 一种显示设备、使用其的电子设备和识别方法
JP6061426B2 (ja) * 2013-11-27 2017-01-18 アルプス電気株式会社 入力装置及びその情報入力方法
PL2911300T3 (pl) * 2014-02-21 2021-12-20 Berker Gmbh & Co. Kg Czułe na dotyk elektryczne urządzenie sterujące z haptycznym sprzężeniem zwrotnym
KR102240828B1 (ko) * 2014-08-28 2021-04-15 엘지디스플레이 주식회사 터치 패널 및 이의 구동 장치
US11433937B2 (en) 2014-10-03 2022-09-06 Kyocera Corporation Vehicle and steering unit
US9990107B2 (en) 2015-03-08 2018-06-05 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US9785305B2 (en) 2015-03-19 2017-10-10 Apple Inc. Touch input cursor manipulation
US10067653B2 (en) 2015-04-01 2018-09-04 Apple Inc. Devices and methods for processing touch inputs based on their intensities
CN105487273A (zh) * 2016-01-15 2016-04-13 京东方科技集团股份有限公司 显示面板及其驱动方法和制作方法、显示装置
CN109313496B (zh) * 2016-06-09 2021-11-09 艾托有限公司 压电触摸装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06332607A (ja) 1993-05-19 1994-12-02 Mitsubishi Electric Corp 表示一体型入力装置
JPH10511198A (ja) 1995-06-02 1998-10-27 エイヴィアイ システムズ インコーポレイテッド タッチスクリーン
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
JP2006126997A (ja) 2004-10-27 2006-05-18 Pfu Ltd 3次元タッチパネル
JP2008140182A (ja) * 2006-12-01 2008-06-19 Sharp Corp 入力装置、送受信システム、入力処理方法、および制御プログラム
JP2008238063A (ja) 2007-03-27 2008-10-09 Nippon Shokubai Co Ltd 有機酸含有排ガス処理用触媒および処理方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6118435A (en) * 1997-04-10 2000-09-12 Idec Izumi Corporation Display unit with touch panel
JP2000222129A (ja) * 1999-02-03 2000-08-11 Harness Syst Tech Res Ltd タッチパネルスイッチ
CA2449447C (en) * 2001-06-06 2011-05-17 Cirque Corporation System for disposing a proximity sensitive touchpad behind a mobile phone keymat
JP2003323259A (ja) * 2002-05-02 2003-11-14 Nec Corp 情報処理装置
JP2004287640A (ja) * 2003-03-20 2004-10-14 Hitachi Ltd 入力表示装置
US20040263483A1 (en) * 2003-06-24 2004-12-30 Aufderheide Brian E Sensing device
JP4531358B2 (ja) * 2003-07-10 2010-08-25 株式会社エヌ・ティ・ティ・ドコモ タッチパネルディスプレイ装置
US20060181517A1 (en) * 2005-02-11 2006-08-17 Apple Computer, Inc. Display actuator
US7499040B2 (en) * 2003-08-18 2009-03-03 Apple Inc. Movable touch pad with added functionality
JP2005078194A (ja) * 2003-08-28 2005-03-24 Fujitsu Component Ltd タッチパネル
US20050162402A1 (en) * 2004-01-27 2005-07-28 Watanachote Susornpol J. Methods of interacting with a computer using a finger(s) touch sensing input device with visual feedback
CN101512468A (zh) * 2006-09-09 2009-08-19 F-原点股份有限公司 集成压力敏感透镜组件
JP4294668B2 (ja) * 2006-09-14 2009-07-15 株式会社日立製作所 点図ディスプレイ装置
WO2008069629A1 (en) * 2006-12-07 2008-06-12 Tp-I Co., Ltd Pointing apparatus for computer comprising touch pad
GB2446702A (en) * 2007-02-13 2008-08-20 Qrg Ltd Touch Control Panel with Pressure Sensor
JP2008222129A (ja) * 2007-03-14 2008-09-25 Railway Technical Res Inst 握り部高さ可変車両用吊り手
CN101663681A (zh) * 2007-05-04 2010-03-03 汤姆逊许可证公司 基于因特网协议的内容递送技术
US20090237374A1 (en) * 2008-03-20 2009-09-24 Motorola, Inc. Transparent pressure sensor and method for using

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06332607A (ja) 1993-05-19 1994-12-02 Mitsubishi Electric Corp 表示一体型入力装置
JPH10511198A (ja) 1995-06-02 1998-10-27 エイヴィアイ システムズ インコーポレイテッド タッチスクリーン
JP2003271294A (ja) * 2002-03-15 2003-09-26 Canon Inc データ入力装置、データ入力方法、及びプログラム
JP2006126997A (ja) 2004-10-27 2006-05-18 Pfu Ltd 3次元タッチパネル
JP2008140182A (ja) * 2006-12-01 2008-06-19 Sharp Corp 入力装置、送受信システム、入力処理方法、および制御プログラム
JP2008238063A (ja) 2007-03-27 2008-10-09 Nippon Shokubai Co Ltd 有機酸含有排ガス処理用触媒および処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2330485A4 *

Cited By (68)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012181703A (ja) * 2011-03-01 2012-09-20 Fujitsu Ten Ltd 表示装置
US9753567B2 (en) 2011-09-08 2017-09-05 Kddi Corporation Electronic medium display device that performs page turning in response to user operation pressing screen, page turning method, and program
JP2013192000A (ja) * 2012-03-13 2013-09-26 Ntt Docomo Inc 通信装置および通信制御方法
JP2018106735A (ja) * 2012-05-09 2018-07-05 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
US10592041B2 (en) 2012-05-09 2020-03-17 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US11947724B2 (en) 2012-05-09 2024-04-02 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10496260B2 (en) 2012-05-09 2019-12-03 Apple Inc. Device, method, and graphical user interface for pressure-based alteration of controls in a user interface
US10481690B2 (en) 2012-05-09 2019-11-19 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for media adjustment operations performed in a user interface
US11354033B2 (en) 2012-05-09 2022-06-07 Apple Inc. Device, method, and graphical user interface for managing icons in a user interface region
US11314407B2 (en) 2012-05-09 2022-04-26 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
JP6993256B2 (ja) 2012-05-09 2022-01-13 アップル インコーポレイテッド ジェスチャに応答して表示状態間を遷移するためのデバイス、方法、及びグラフィカルユーザインタフェース
US11221675B2 (en) 2012-05-09 2022-01-11 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US11068153B2 (en) 2012-05-09 2021-07-20 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11023116B2 (en) 2012-05-09 2021-06-01 Apple Inc. Device, method, and graphical user interface for moving a user interface object based on an intensity of a press input
US10775999B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for displaying user interface objects corresponding to an application
US11010027B2 (en) 2012-05-09 2021-05-18 Apple Inc. Device, method, and graphical user interface for manipulating framed graphical objects
US10996788B2 (en) 2012-05-09 2021-05-04 Apple Inc. Device, method, and graphical user interface for transitioning between display states in response to a gesture
US10969945B2 (en) 2012-05-09 2021-04-06 Apple Inc. Device, method, and graphical user interface for selecting user interface objects
US10775994B2 (en) 2012-05-09 2020-09-15 Apple Inc. Device, method, and graphical user interface for moving and dropping a user interface object
US10942570B2 (en) 2012-05-09 2021-03-09 Apple Inc. Device, method, and graphical user interface for providing tactile feedback for operations performed in a user interface
US10782871B2 (en) 2012-05-09 2020-09-22 Apple Inc. Device, method, and graphical user interface for providing feedback for changing activation states of a user interface object
US10908808B2 (en) 2012-05-09 2021-02-02 Apple Inc. Device, method, and graphical user interface for displaying additional information in response to a user contact
US10884591B2 (en) 2012-05-09 2021-01-05 Apple Inc. Device, method, and graphical user interface for selecting object within a group of objects
US10437333B2 (en) 2012-12-29 2019-10-08 Apple Inc. Device, method, and graphical user interface for forgoing generation of tactile output for a multi-contact gesture
US10915243B2 (en) 2012-12-29 2021-02-09 Apple Inc. Device, method, and graphical user interface for adjusting content selection
US10620781B2 (en) 2012-12-29 2020-04-14 Apple Inc. Device, method, and graphical user interface for moving a cursor according to a change in an appearance of a control icon with simulated three-dimensional characteristics
US11704013B2 (en) 2013-12-10 2023-07-18 Canon Kabushiki Kaisha Apparatus, method, and medium for scrolling text
US11016652B2 (en) 2013-12-10 2021-05-25 Canon Kabushiki Kaisha Apparatus, method, and medium for scrolling text
JP2015114767A (ja) * 2013-12-10 2015-06-22 キヤノン株式会社 情報処理装置、及び情報処理装置の制御方法、並びにプログラム
JP2015043214A (ja) * 2014-09-19 2015-03-05 Kddi株式会社 画面への押圧でページ捲りが可能な電子書籍表示装置、ページ捲り方法及びプログラム
US10338772B2 (en) 2015-03-08 2019-07-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10268342B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US11112957B2 (en) 2015-03-08 2021-09-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11977726B2 (en) 2015-03-08 2024-05-07 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US10613634B2 (en) 2015-03-08 2020-04-07 Apple Inc. Devices and methods for controlling media presentation
US10180772B2 (en) 2015-03-08 2019-01-15 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10268341B2 (en) 2015-03-08 2019-04-23 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10387029B2 (en) 2015-03-08 2019-08-20 Apple Inc. Devices, methods, and graphical user interfaces for displaying and using menus
US10860177B2 (en) 2015-03-08 2020-12-08 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10402073B2 (en) 2015-03-08 2019-09-03 Apple Inc. Devices, methods, and graphical user interfaces for interacting with a control object while dragging another object
US11550471B2 (en) 2015-03-19 2023-01-10 Apple Inc. Touch input cursor manipulation
US10222980B2 (en) 2015-03-19 2019-03-05 Apple Inc. Touch input cursor manipulation
US11054990B2 (en) 2015-03-19 2021-07-06 Apple Inc. Touch input cursor manipulation
US10599331B2 (en) 2015-03-19 2020-03-24 Apple Inc. Touch input cursor manipulation
US11231831B2 (en) 2015-06-07 2022-01-25 Apple Inc. Devices and methods for content preview based on touch input intensity
US10303354B2 (en) 2015-06-07 2019-05-28 Apple Inc. Devices and methods for navigating between user interfaces
US11681429B2 (en) 2015-06-07 2023-06-20 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10455146B2 (en) 2015-06-07 2019-10-22 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10346030B2 (en) 2015-06-07 2019-07-09 Apple Inc. Devices and methods for navigating between user interfaces
US10200598B2 (en) 2015-06-07 2019-02-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10841484B2 (en) 2015-06-07 2020-11-17 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US11835985B2 (en) 2015-06-07 2023-12-05 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10705718B2 (en) 2015-06-07 2020-07-07 Apple Inc. Devices and methods for navigating between user interfaces
US11240424B2 (en) 2015-06-07 2022-02-01 Apple Inc. Devices and methods for capturing and interacting with enhanced digital images
US10416800B2 (en) 2015-08-10 2019-09-17 Apple Inc. Devices, methods, and graphical user interfaces for adjusting user interface objects
US10963158B2 (en) 2015-08-10 2021-03-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10209884B2 (en) 2015-08-10 2019-02-19 Apple Inc. Devices, Methods, and Graphical User Interfaces for Manipulating User Interface Objects with Visual and/or Haptic Feedback
US11182017B2 (en) 2015-08-10 2021-11-23 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US10235035B2 (en) 2015-08-10 2019-03-19 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US11327648B2 (en) 2015-08-10 2022-05-10 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10248308B2 (en) 2015-08-10 2019-04-02 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interfaces with physical gestures
US10203868B2 (en) 2015-08-10 2019-02-12 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10698598B2 (en) 2015-08-10 2020-06-30 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10162452B2 (en) 2015-08-10 2018-12-25 Apple Inc. Devices and methods for processing touch inputs based on their intensities
US11740785B2 (en) 2015-08-10 2023-08-29 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
US10884608B2 (en) 2015-08-10 2021-01-05 Apple Inc. Devices, methods, and graphical user interfaces for content navigation and manipulation
US10754542B2 (en) 2015-08-10 2020-08-25 Apple Inc. Devices, methods, and graphical user interfaces for manipulating user interface objects with visual and/or haptic feedback
WO2018123355A1 (ja) * 2016-12-28 2018-07-05 デクセリアルズ株式会社 ユーザーインターフェイス装置及び電子機器

Also Published As

Publication number Publication date
JP2013254529A (ja) 2013-12-19
US20110187667A1 (en) 2011-08-04
JP2015158949A (ja) 2015-09-03
EP2330485A4 (en) 2014-08-06
CN102160021B (zh) 2014-07-09
JP5494485B2 (ja) 2014-05-14
EP2330485A1 (en) 2011-06-08
CN102160021A (zh) 2011-08-17
JPWO2010032598A1 (ja) 2012-02-09

Similar Documents

Publication Publication Date Title
JP5494485B2 (ja) 入力装置及びその制御方法並びに入力装置を備えた電子機器
JP5295328B2 (ja) スクリーンパッドによる入力が可能なユーザインタフェース装置、入力処理方法及びプログラム
US11656711B2 (en) Method and apparatus for configuring a plurality of virtual buttons on a device
US10795492B2 (en) Input device and method for controlling input device
WO2014103085A1 (ja) タッチパネルデバイスとタッチパネルデバイスの制御方法
US10198163B2 (en) Electronic device and controlling method and program therefor
JP2011048606A (ja) 入力装置
US20070236474A1 (en) Touch Panel with a Haptically Generated Reference Key
JP6246640B2 (ja) 電子機器
US20070263014A1 (en) Multi-function key with scrolling in electronic devices
WO2012150697A1 (ja) タッチパネル方式の携帯端末及び入力操作方法
WO2007007682A1 (ja) タッチパネル表示装置および携帯機器
JPWO2010090033A1 (ja) 画像表示装置
CN104520798A (zh) 便携电子设备及其控制方法和程序
WO2015079688A1 (ja) 電子機器
US20140347276A1 (en) Electronic apparatus including touch panel, position designation method, and storage medium
US9417724B2 (en) Electronic apparatus
JP2006092321A (ja) 電子機器およびタッチパッド装置
KR20130005451A (ko) 터치 스크린을 이용한 문자 입력 장치 및 그의 문자 입력 방법
JP2014016743A (ja) 情報処理装置、情報処理装置の制御方法、および情報処理装置の制御プログラム
KR101682527B1 (ko) 박형 햅틱 모듈을 이용한 마우스 겸용 터치 키패드
JP2015069540A (ja) 情報機器端末および情報機器端末のデータ保存方法
KR20090046189A (ko) 프로그래스 바를 이용한 동작 제어 방법 및 장치
JP6475883B2 (ja) タッチ入力表示装置、表示制御方法及びプログラム
JP6418119B2 (ja) 表示装置、及びそれを備えた画像形成装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980136541.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09814443

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2009814443

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2010529703

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13062260

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE