WO2015098061A1 - 電子機器 - Google Patents

電子機器 Download PDF

Info

Publication number
WO2015098061A1
WO2015098061A1 PCT/JP2014/006332 JP2014006332W WO2015098061A1 WO 2015098061 A1 WO2015098061 A1 WO 2015098061A1 JP 2014006332 W JP2014006332 W JP 2014006332W WO 2015098061 A1 WO2015098061 A1 WO 2015098061A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch sensor
electronic device
control unit
displayed
back surface
Prior art date
Application number
PCT/JP2014/006332
Other languages
English (en)
French (fr)
Inventor
隼 武田
Original Assignee
京セラ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2013266053A external-priority patent/JP6367547B2/ja
Priority claimed from JP2013266055A external-priority patent/JP2015121996A/ja
Application filed by 京セラ株式会社 filed Critical 京セラ株式会社
Priority to US15/106,760 priority Critical patent/US10318044B2/en
Publication of WO2015098061A1 publication Critical patent/WO2015098061A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/045Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means using resistive elements, e.g. a single continuous surface or two parallel surfaces put in contact
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04105Pressure sensors for measuring the pressure or force exerted on the touch surface without providing the touch position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04803Split screen, i.e. subdividing the display area or the window area into separate subareas

Definitions

  • the present invention relates to an electronic device having a touch sensor on the back surface.
  • Patent Document 1 electronic devices having touch sensors on the back surface in addition to the front surface are known.
  • two touch sensors are provided on the front surface and the back surface, respectively, and input to the first back surface or the second back surface is performed based on a predetermined correspondence relationship associated with the use state.
  • a portable terminal capable of improving convenience by receiving input as input to the second surface is described.
  • An object of the present invention made in view of such circumstances is to provide an electronic device capable of improving operability when operating the electronic device with one hand.
  • an electronic device is an electronic device having touch sensors on the front surface and the back surface.
  • touch sensors On the front surface and the back surface.
  • an object displayed on the upper part of the display unit is displayed.
  • a control unit that changes the position downward is provided.
  • the object does not move by an operation of a surface touch sensor.
  • control unit swaps the upper and lower objects when changing the position of the object.
  • the electronic device includes a pressure detection unit that detects a pressure on the touch sensor on the back surface, and the control unit satisfies a predetermined standard in data based on the pressure detected by the pressure detection unit. In this case, the position of the object is changed.
  • the electronic device is an electronic device having touch sensors on the front surface and the back surface, and when the operation of the touch sensor on the back surface is detected, the control unit that slides the screen displayed on the display portion downward It is characterized by providing.
  • the electronic device includes a pressure detection unit that detects a pressure on the touch sensor on the back surface, and the control unit satisfies a predetermined standard in data based on the pressure detected by the pressure detection unit.
  • the screen is slid downward.
  • the electronic device is an electronic device having touch sensors on the front surface and the back surface, and includes a control unit that displays an object that is not displayed on the display unit when an operation of the touch sensor on the back surface is detected. It is characterized by.
  • control unit when the control unit detects a slide with respect to the touch sensor on the back surface, the control unit displays the object while sliding the object in the sliding direction.
  • the electronic device includes a pressure detection unit that detects a pressure on the touch sensor on the back surface, and the control unit satisfies a predetermined standard in data based on the pressure detected by the pressure detection unit. In this case, the object is displayed.
  • control unit detects the slide with respect to the touch sensor on the back surface after the data based on the pressure detected by the pressure detection unit satisfies a predetermined standard, and then detects the object.
  • the display is performed while sliding in the sliding direction.
  • control unit detects a slide with respect to the touch sensor on the back surface while the data based on the pressure detected by the pressure detection unit satisfies a predetermined standard.
  • the object is displayed while being slid in the sliding direction.
  • FIG. 1 is a block diagram showing a schematic configuration of an electronic device according to a first embodiment of the present invention. It is a figure which shows an example of the mounting structure of the electronic device which concerns on the 1st Embodiment of this invention. It is a figure which shows the state in which the user hold
  • FIG. 1 is a block diagram illustrating a schematic configuration of the electronic apparatus according to the first embodiment.
  • the electronic device 1 includes a display unit 11, a front surface touch sensor 12, a back surface touch sensor 13, a control unit 14, a storage unit 15, a communication unit 16, a microphone 17, and a speaker 18.
  • a display unit 11 a front surface touch sensor 12, a back surface touch sensor 13, a control unit 14, a storage unit 15, a communication unit 16, a microphone 17, and a speaker 18.
  • Display unit 11 displays images such as characters, photos, and objects.
  • the object includes an icon, a tab, an input window for inputting characters, and the like.
  • the display unit 11 is configured using a liquid crystal panel (LCD: Liquid Crystal Display), an organic EL panel (OELD: Organic Electroluminescence Display), or the like.
  • LCD Liquid Crystal Display
  • OELD Organic Electroluminescence Display
  • the display unit 11 displays icons for performing various operations such as telephone, mail, Internet communication, and camera shooting.
  • the surface touch sensor 12 detects a finger contact or release of contact on the input surface of the surface touch sensor 12. Then, the surface touch sensor 12 detects a contact position with respect to the input surface, and outputs a signal indicating the detected contact position to the control unit 14.
  • the front surface touch sensor 12 is made of a transparent member, and is superposed on the front surface of the display unit 11. The user visually recognizes the image on the display unit 11 via the transparent surface touch sensor 12 and operates the surface touch sensor 12 at the display position of the object displayed on the display unit 11 to execute predetermined processing on the electronic device 1.
  • the operation of the touch sensor refers to all operations such as touch, tap, double tap, slide, flick, and swipe that bring a finger into contact with the touch sensor.
  • the back touch sensor 13 is disposed on the back surface of the electronic device 1 in order to improve operability when operating the electronic device 1 with one hand, and detects contact or release of a finger on the input surface of the back touch sensor 13. The detection result is output to the control unit 14.
  • the front surface touch sensor 12 and the rear surface touch sensor 13 are realized by a known method such as a resistive film method or a capacitance method, for example.
  • control unit 14 When the control unit 14 detects an operation of the surface touch sensor 12 based on a signal input from the surface touch sensor 12, the control unit 14 executes a process corresponding to the object displayed at the contact position.
  • control unit 14 detects a predetermined operation of the back touch sensor 13 based on a signal input from the back touch sensor 13, the control unit 14 changes the position of the object being displayed on the display unit 11 or the upper screen. A specific example of such processing will be described later.
  • control unit 14 detects a predetermined operation of the back touch sensor 13 based on a signal input from the back touch sensor 13, the control unit 14 displays an object that is not displayed (hidden) on the display unit 11 on the display unit 11. Let A specific example of such processing will be described later.
  • the storage unit 15 can be composed of a semiconductor memory or the like, and stores various information, a program for operating the electronic device 1, and the like, and also functions as a work memory.
  • the communication unit 16 communicates with the base station or other communication devices wirelessly, and enables Internet connection, telephone line connection, transmission / reception of e-mail, and the like.
  • the microphone 17 collects ambient sounds such as user's utterances.
  • the sound collected by the microphone 17 is converted into an electrical signal and sent to the control unit 14.
  • Speaker 18 outputs sounds such as voice, music, and ringtone.
  • FIG. 2 is a diagram illustrating an example of a mounting structure of the electronic device 1 according to the first embodiment.
  • 2 (a) is a front view
  • FIG. 2 (b) is a cross-sectional view along the line AA in FIG. 2 (a)
  • FIG. 2 (c) is a rear view.
  • the display unit 11 the front surface touch sensor 12, the rear surface touch sensor 13, and the bonding member 40 is omitted.
  • the electronic device 1 can include elements such as a control unit 14, a substrate, and various components.
  • the microphone 17 is disposed below the surface touch sensor 12, and the speaker 18 is disposed above the surface touch sensor 12.
  • the surface touch sensor 12 is disposed on the surface 10 a of the housing 10 (for example, a metal or resin case) and supported by the housing 10.
  • the housing 10 for example, a metal or resin case
  • the display unit 11 is disposed inside the housing 10.
  • the display unit 11 may be bonded to the back surface of the front surface touch sensor 12, or directly fixed inside the housing 10, or fixed to a substrate or a display unit holder disposed inside the housing 10. May be.
  • the display unit 11 is bonded to the surface touch sensor 12 via the bonding member 40.
  • the bonding member 40 is a thermosetting or ultraviolet curable adhesive, a double-sided tape, or the like, and may be an optical elastic resin that is a colorless and transparent acrylic ultraviolet curable adhesive, for example.
  • the back touch sensor 13 is disposed on the back surface 10b of the housing 10 and supported by the housing 10 so as to include a range that can be contacted with an index finger when the electronic device 1 is held with one hand.
  • the back surface touch sensor 13 is disposed on the top of the back surface 10 b of the housing 10.
  • FIG. 3 is a diagram illustrating a state where the user holds the electronic device 1 with the left hand.
  • 3A is a view seen from the front side
  • FIG. 3B is a view seen from the back side.
  • the index finger is positioned on the back touch sensor 13. Therefore, the user can easily operate the back touch sensor 13 by bending the index finger without moving other fingers.
  • the back touch sensor 13 is limited to a position where the index finger can contact, but may be disposed over a wider range.
  • FIG. 4 is a flowchart illustrating processing of the electronic device 1 according to the first embodiment.
  • step S101 When the control unit 14 detects a predetermined operation of the surface touch sensor 12 based on a signal input from the surface touch sensor 12 (step S101—Yes), the control unit 14 executes a process corresponding to the object displayed at the contact position (step S101). S102). For example, when the display unit 11 displays a browser icon for starting an Internet connection, if the surface touch sensor 12 detects a tap at the display position of the browser icon, the communication unit 16 starts the Internet connection, And the acquired site screen is displayed on the display unit 11. If the process in step S102 is a process for terminating the browser of the electronic device 1 (step S103-Yes), the process is terminated and, for example, the home screen (standby screen) is displayed on the display unit 11.
  • step S104 when the control unit 14 detects a predetermined operation (for example, sliding) of the back surface touch sensor 13 based on a signal input from the back surface touch sensor 13 (step S104—Yes), the position of the object being displayed or the upper screen is determined. The object that is changed or not displayed is displayed on the display unit 11 (step S105). A specific example of the process in step S105 will be described below.
  • FIG. 5 is a diagram illustrating a first mode of processing performed by operating the back touch sensor 13.
  • FIG. 5A shows a screen on which a plurality of objects (icons) such as a home screen and a folder screen are displayed.
  • objects icons
  • square objects A to X are shown as an example of display, the shape and number of objects are not limited to this.
  • the control unit 14 detects a predetermined operation (for example, slide) of the back touch sensor 13, the position of the object displayed on the upper part of the display unit 11 is changed to the lower part. .
  • the position of the object can be changed in various forms.
  • the control unit 14 detects a predetermined operation of the back touch sensor 13
  • the upper half objects A to L and the lower half objects M to X may be exchanged as shown in FIG. 5B.
  • the upper and lower objects may be switched by sequentially shifting the objects downward by several rows.
  • FIG. 5C shows a state in which the objects are shifted down one line from the arrangement of FIG. 5A, and the objects U to X displayed at the bottom are replaced with the top.
  • FIG. 6 is a diagram illustrating a second mode of processing performed by operating the back touch sensor 13.
  • three screens are displayed in a pseudo-overlapping manner, and tabs 51, 52, and 53 are displayed so that a plurality of screens can be switched and displayed.
  • An input window 54 for inputting characters such as a search bar is also displayed.
  • the upper screen means a screen included in the upper half of the screen displayed on the display unit 11. Therefore, although the upper screen 50 includes the tabs 51, 52, 53 and the input window 54 in the example shown in FIG. 6, the upper screen 50 is not limited to this.
  • the downward sliding of the upper screen 50 can be performed in various forms.
  • the control unit 14 may slide the upper screen 50 to the center of the display unit 11 as illustrated in FIG.
  • the upper screen 50 may be sequentially slid downward by a predetermined width.
  • images such as characters, photos, objects, etc. displayed below the upper screen 50 may be slid downward along with the upper screen 50 as shown in FIG. You may divide and display on the upper and lower sides of the screen 50.
  • the upper screen 50 may be the upper half of the screen, and the control unit 14 may exchange the upper half and the lower half of the screen when detecting a predetermined operation of the back touch sensor 13.
  • control unit 14 may enable an object that is not moved by the operation of the front surface touch sensor 12 to be moved by the operation of the rear surface touch sensor 13.
  • the objects A to X shown in FIG. 5 and the upper screen 50 shown in FIG. 6 often do not move depending on the operation of the surface touch sensor 12, and in such a case, convenience can be particularly provided.
  • control unit 14 may move the object or the upper screen in the slide direction. For example, when the control unit 14 detects a slide from the top to the bottom with respect to the back touch sensor 13, the control unit 14 moves the object or the upper screen from the top to the bottom, and then the bottom touch sensor 13 from below to the top When the slide is detected, the object or the upper screen is moved upward from the bottom.
  • FIG. 7 is a diagram illustrating a third mode of processing performed by operating the back touch sensor 13.
  • FIG. 7A shows a home screen as an example, but the back touch sensor 13 can be operated while displaying an arbitrary screen as well as the home screen.
  • an object that is not displayed on the display unit 11 unless a specific operation is performed.
  • Such an object is referred to herein as a “hidden object”.
  • a launcher application that displays a hidden object for notifying the user of the status of various settings such as a communication function from a notification bar 111 displayed at the top of the display unit 11 is known.
  • FIG. 7B shows a state in which the hidden object 55 is displayed while sliding.
  • the hidden object 55 is generally displayed when the notification bar 111 displayed at the top of the display unit 11 is touched and slid downward from that position.
  • the notification bar 111 since the notification bar 111 is displayed at the top of the display unit 11, the thumb may not reach when the user operates with one hand. Therefore, in the electronic device 1 according to the present invention, the hidden object 55 can be displayed on the display unit 11 by operating (for example, sliding) the back surface touch sensor 13. That is, when detecting the operation of the back touch sensor 13, the control unit 14 causes the display unit 11 to display the hidden object 55.
  • the control unit 14 when the control unit 14 detects a slide with respect to the back touch sensor 13, it is preferable to display the hidden object 55 while sliding the hidden object 55 in the sliding direction. That is, when the rear touch sensor 13 detects a downward slide from the top, the control unit 14 causes the hidden object 55 to be displayed while sliding downward from the top, as indicated by the arrow in FIG. .
  • the hidden object 55 may be displayed from below the display unit 11 or from the left and right.
  • the control unit 14 displays the hidden object 55 while sliding from the bottom to the top, and from the left to the right with respect to the back touch sensor 13.
  • the hidden object 55 is displayed while sliding from the left to the right.
  • the operability can be improved by matching the sliding direction with respect to the back touch sensor 13 and the sliding direction when the hidden object 55 is displayed.
  • the hidden object 55 In general, in order to hide (hide) the hidden object 55 again, an operation of touching the bar displayed at the bottom of the hidden object 55 and sliding the hidden object 55 upward from the position is performed.
  • the hidden object 55 When the hidden object 55 is displayed on the entire display unit 11, the thumb may not reach the bar displayed at the bottom of the hidden object 55, so the back touch sensor 13 is operated (for example, slid).
  • the hidden object 55 may be hidden.
  • the operability can be improved by matching the sliding direction with respect to the back touch sensor 13 and the sliding direction when the hidden object 55 is hidden. For example, when the control unit 14 detects a downward slide from the top with respect to the back touch sensor 13, as shown in FIG. 7B, the control unit 14 displays the hidden object 55 while sliding from the top to the bottom. When a slide from the bottom to the top with respect to the back touch sensor 13 is detected, the hidden object 55 is hidden while sliding from the bottom to the top.
  • the electronic device 1 when the electronic device 1 according to the first embodiment detects an operation of the back touch sensor 13 by the control unit 14, the electronic device 1 changes the position of the displayed object or the upper screen. Therefore, according to the electronic device 1, the object or the upper screen can be moved within a range where the thumb of the hand holding the electronic device 1 can reach and the operation with one hand can be continued. It becomes possible to improve the operability when operating.
  • the electronic device 1 when the electronic device 1 according to the first embodiment detects an operation of the back touch sensor 13 by the control unit 14, the electronic device 1 displays the hidden object 55 on the display unit 11. For this reason, according to the electronic device 1, the hidden object 55 can be displayed only by the operation of the hand holding the electronic device 1, and the operability when the electronic device 1 is operated with one hand can be improved. It becomes possible.
  • FIG. 8 is a block diagram showing a schematic configuration of an electronic apparatus according to the second embodiment of the present invention.
  • the electronic device 2 according to the second embodiment further includes a press detection unit 20 as compared with the electronic device 1 according to the first embodiment. Since other configurations are the same as those of the first embodiment, the same reference numerals are given and description thereof is omitted.
  • the press detection unit 20 detects a press when the user performs an operation on the back touch sensor 13, and outputs data based on the press to the control unit 14.
  • the press detection unit 20 is configured using, for example, a strain gauge sensor or a piezoelectric element whose physical or electrical characteristics (strain, resistance, voltage, etc.) change according to the press.
  • the piezoelectric element of the pressure detection unit 20 has a load (force) magnitude (or a load magnitude) due to the pressure applied to the back touch sensor 13 changed.
  • the voltage value data based on the pressure
  • the data based on the pressure may be the magnitude of the load due to the pressure, the power value, the resistance value, or the like instead of the voltage value.
  • the pressure detection unit 20 may detect the pressure when the user performs an operation on the surface touch sensor 12 in the same manner. In the present embodiment, the pressure detection unit 20 detects the pressure on the surface touch sensor 12. The following description will be made on the assumption that a pressure when the user performs an operation is also detected.
  • the control unit 14 acquires data based on the pressure applied to the back surface touch sensor 13 (and the surface touch sensor 12) from the pressure detection unit 20. And the control part 14 judges that predetermined
  • the press detection part 20 can be comprised according to a contact detection system.
  • a contact detection method is a resistance film method
  • a strain gauge sensor, a piezoelectric element, or the like can be obtained by associating the magnitude of the resistance according to the size of the contact area with the load of pressing against the touch surface of the touch sensor.
  • the press detection unit 20 can be configured without using it.
  • the capacitance can be configured without using a strain gauge sensor, a piezoelectric element, or the like by associating the magnitude of the capacitance with a load applied to the touch sensor.
  • FIG. 9 is a diagram illustrating an example of a mounting structure of the electronic device 2 according to the second embodiment.
  • 9A is a front view
  • FIG. 9B is a cross-sectional view taken along line AA in FIG. 9A
  • FIG. 9C is a rear view.
  • FIG. 9 further illustrates piezoelectric elements 21 to 24 constituting the pressure detection unit 20 with respect to the mounting structure of the electronic device 1 shown in FIG. Note that the number and arrangement position of the piezoelectric elements are not limited to the illustrated example.
  • the press detection unit 20 includes a first piezoelectric element 21, a second piezoelectric element 22, a third piezoelectric element 23, and a fourth piezoelectric element 24, and the first piezoelectric element 21 and the second piezoelectric element 24.
  • the element 22 detects a pressure when the user performs an operation on the back surface touch sensor 13, and the third piezoelectric element 23 and the fourth piezoelectric element 24 detect when the user performs an operation on the surface touch sensor 12. Detects pressing.
  • the area on the surface touch sensor 12 that does not need to transmit the display by the display unit 11, that is, the area where the surface touch sensor 12 and the display unit 11 do not overlap each other is an area of the surface touch sensor 12. It is preferred to paint or cover the area near the edge with a bezel. In this way, it is possible to prevent the third piezoelectric element 23, the fourth piezoelectric element 24, and the like from being visible from the outside of the electronic device 2.
  • FIG. 10 is a flowchart illustrating processing of the electronic device 2 according to the second embodiment.
  • control unit 14 detects a predetermined operation of the surface touch sensor 12 based on a signal input from the surface touch sensor 12 (step S201—Yes)
  • the control unit 14 acquires data based on the pressure on the surface touch sensor 12 from the pressure detection unit 20.
  • Step S202 the control unit 14 determines whether or not the acquired data based on the pressure satisfies a predetermined threshold (reference) (step S203), and when the data based on the pressure satisfies the predetermined threshold (step S203- Yes), it is determined that the pressing operation of the surface touch sensor 12 has been performed, and processing corresponding to the object displayed at the pressing position is executed (step S204).
  • the time when the data based on the pressure satisfies the predetermined threshold may be the time when the data based on the pressure reaches the predetermined reference value, or the data based on the pressure exceeds the predetermined reference value. It may be when the data based on the pressure equal to the predetermined reference value is detected. If the process in step S204 is a process for ending an application, a menu, or the like (step S205—Yes), the process ends, and a home screen (standby screen) is displayed on the display unit 11, for example.
  • step S206 when the control unit 14 detects a predetermined operation of the back surface touch sensor 13 based on a signal input from the back surface touch sensor 13 (step S206—Yes), data based on the pressure applied to the back surface touch sensor 13 from the pressure detection unit 20 is obtained. Obtain (step S207). Then, the control unit 14 determines whether or not the data based on the acquired pressure satisfies a predetermined threshold (reference) (step S208), and when the data based on the pressure satisfies a predetermined threshold (step S208- Yes), it is determined that the operation of the back touch sensor 13 has been performed, and the position of the object being displayed or the upper screen is changed, or the hidden object 55 that is not displayed is displayed on the display unit 11 ( Step S209).
  • a specific example of the processing in step S209 is as described in the first embodiment.
  • the control unit 14 causes the hidden object 55 to be displayed while being slid in the sliding direction when the sliding based on the back touch sensor 13 is detected after the data based on the pressure applied to the back touch sensor 13 satisfies a predetermined standard.
  • the hidden object 55 is displayed while sliding in the slide direction. You may make it make it.
  • the electronic device 2 further includes the press detection unit 20, and the control unit 14 is configured to display the back surface when the data based on the press against the back touch sensor 13 satisfies a predetermined standard. It is determined that the touch sensor 13 has been operated. Therefore, it is possible for the electronic device 2 to prevent the user from determining that an operation has been performed simply by lightly touching another object. In particular, when the electronic device is held, a finger comes in contact with the back surface, but by detecting the pressure by the pressure detection unit 20, it is erroneously determined that the user has operated it even though the user does not intend the operation. Can be prevented.
  • FIG. 11 is a block diagram showing a schematic configuration of an electronic apparatus according to the third embodiment of the present invention.
  • the electronic device 3 according to the third embodiment further includes a tactile sensation providing unit 30 as compared with the electronic device 2 according to the second embodiment. Since other configurations are the same as those of the second embodiment, the same reference numerals are given and description thereof is omitted.
  • the tactile sensation providing unit 30 generates a predetermined vibration based on the drive signal supplied from the control unit 14.
  • the drive signal may be any drive signal that expresses the vibration of the realistic button to be expressed at the position where the finger touches.
  • the tactile sensation providing unit 30 is configured using a piezoelectric element, an ultrasonic vibrator, a vibration motor (eccentric motor), or the like, and a user who presses the back touch sensor 13 by generating vibration according to a predetermined vibration pattern.
  • the tactile sensation is presented to the user's finger, and the user is sensibly notified that the rear touch sensor 13 has been operated.
  • the tactile sensation providing unit 30 presents a tactile sensation to the user's finger pressing the back touch sensor 13 by controlling the charge of the film pasted on the back touch sensor 13 without using mechanical vibration. May be.
  • the tactile sensation providing unit 30 may generate vibrations in the same manner for the surface touch sensor 12 so as to present a tactile sensation to the user's finger pressing the surface touch sensor 12. .
  • the tactile sensation providing unit 30 can be configured integrally with the press detection unit 20.
  • the piezoelectric elements can be shared. This is because the piezoelectric element generates a voltage when pressure is applied and deforms when the voltage is applied.
  • An example of the mounting structure in this case is as shown in FIG.
  • the control unit 14 performs a predetermined process when the voltage value of the piezoelectric element satisfies a predetermined threshold, You may make it generate a vibration by driving.
  • the time when the voltage value of the piezoelectric element satisfies a predetermined threshold value may be when the voltage value reaches a predetermined reference value or when the voltage value exceeds a predetermined reference value. However, it may be when a voltage value equal to a predetermined reference value is detected.
  • the electronic device 3 further includes the tactile sensation providing unit 30 and generates a predetermined vibration based on the drive signal supplied from the control unit 14. Therefore, when the user operates the back surface touch sensor 13 (and the front surface touch sensor 12), the electronic device 3 can sensibly notify the user that the intended operation has been performed.

Abstract

 片手で電子機器を操作する際の操作性を向上させる。 電子機器1は、表面および背面にタッチセンサを有し、制御部14は、背面のタッチセンサ13の操作を検出すると、表示部11の上部に表示されているオブジェクトの位置を下部に変更する。また、制御部14は、背面のタッチセンサ13の操作を検出すると、表示されていないオブジェクトを表示部11に表示させる。

Description

電子機器 関連出願の相互参照
 本出願は、2013年12月24日に日本に特許出願された特願2013-266053号および特願2013-266055号の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
 本発明は、背面にタッチセンサを有する電子機器に関する。
 近年、ユーザによる接触を検知するタッチセンサを備えた携帯電話等の電子機器が増加している。接触の検出方式は、抵抗膜方式、静電容量方式等、種々の検出方式が知られており、いずれの方式もユーザの指やスタイラスペン等による接触物の接触を検出する。
 また、表面に加え、背面にもタッチセンサを有する電子機器が知られている。例えば、特許文献1には、表面および背面にそれぞれ2つのタッチセンサを備え、使用状態に対応付けられた所定の対応関係に基づいて、第1背面または第2背面に対する入力を、第1表面または第2表面に対する入力として受け付けることにより、利便性を高めることが可能な携帯端末が記載されている。
特開2012-230567号公報
 片手で電子機器を操作する場合には、親指以外の4本の指と手のひらで電子機器の側面および背面を保持しながら、表面に表示されるアイコン、タブ等のオブジェクトを親指で操作する必要がある。しかし、電子機器が大きくなると表面の上部に表示されるオブジェクトには親指が届かなくなり、片手で電子機器を操作することが困難になるという問題があった。
 かかる事情に鑑みてなされた本発明の目的は、片手で電子機器を操作する際の操作性を向上させることが可能な電子機器を提供することにある。
 上記課題を解決するため、本発明に係る電子機器は、表面および背面にタッチセンサを有する電子機器であって、背面のタッチセンサの操作を検出すると、表示部の上部に表示されているオブジェクトの位置を下部に変更する制御部を備えることを特徴とする。
 さらに、本発明に係る電子機器において、前記オブジェクトは、表面のタッチセンサの操作によっては移動しないことを特徴とする。
 さらに、本発明に係る電子機器において、前記制御部は、前記オブジェクトの位置を変更する際には、上下のオブジェクトを入れ替えることを特徴とする。
 さらに、本発明に係る電子機器において、前記背面のタッチセンサに対する押圧を検出する押圧検出部を備え、前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たした場合に、前記オブジェクトの位置を変更することを特徴とする。
 また、本発明に係る電子機器は、表面および背面にタッチセンサを有する電子機器であって、背面のタッチセンサの操作を検出すると、表示部に表示されている画面を下方向へスライドさせる制御部を備えることを特徴とする。
 さらに、本発明に係る電子機器において、前記背面のタッチセンサに対する押圧を検出する押圧検出部を備え、前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たした場合に、前記画面を下方向へスライドさせることを特徴とする。
 また、本発明に係る電子機器は、表面および背面にタッチセンサを有する電子機器であって、背面のタッチセンサの操作を検出すると、表示されていないオブジェクトを表示部に表示させる制御部を備えることを特徴とする。
 さらに、本発明に係る電子機器において、前記制御部は、前記背面のタッチセンサに対するスライドを検出すると、前記オブジェクトを該スライド方向にスライドさせながら表示させることを特徴とする。
 さらに、本発明に係る電子機器において、前記背面のタッチセンサに対する押圧を検出する押圧検出部を備え、前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たした場合に、前記オブジェクトを表示させることを特徴とする。
 さらに、本発明に係る電子機器において、前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たした後に、前記背面のタッチセンサに対するスライドを検出すると、前記オブジェクトを該スライド方向にスライドさせながら表示させることを特徴とする。
 さらに、本発明に係る電子機器において、前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たしている最中に、前記背面のタッチセンサに対するスライドを検出すると、前記オブジェクトを該スライド方向にスライドさせながら表示させることを特徴とする。
 本発明によれば、片手で電子機器を操作する際の操作性を向上させることができるようになる。
本発明の第1の実施形態に係る電子機器の概略構成を示すブロック図である。 本発明の第1の実施形態に係る電子機器の実装構造の一例を示す図である。 ユーザが電子機器を左手で保持した状態を示す図である。 本発明の第1の実施形態に係る電子機器の処理を示すフローチャートである。 本発明の第1の実施形態に係る電子機器の背面タッチセンサの操作により行う処理の第1の態様を説明する図である。 本発明の第1の実施形態に係る電子機器の背面タッチセンサの操作により行う処理の第2の態様を説明する図である。 本発明の第1の実施形態に係る電子機器の背面タッチセンサの操作により行う処理の第3の態様を説明する図である。 本発明の第2の実施形態に係る電子機器の概略構成を示すブロック図である。 本発明の第2の実施形態に係る電子機器の実装構造の一例を示す図である。 本発明の第2の実施形態に係る電子機器の処理を示すフローチャートである。 本発明の第3の実施形態に係る電子機器の概略構成を示すブロック図である。
 以下、本発明の実施形態について、図面を参照して詳細に説明する。
[第1の実施形態]
 図1は、第1の実施形態に係る電子機器の概略構成を示すブロック図である。図1に示す例では、電子機器1は、表示部11と、表面タッチセンサ12と、背面タッチセンサ13と、制御部14と、記憶部15と、通信部16と、マイク17と、スピーカ18とを備える。
 表示部11は、文字、写真、オブジェクト等の画像を表示する。オブジェクトには、アイコン、タブ、文字入力が可能な入力窓等が含まれる。表示部11は、液晶パネル(LCD:Liquid Crystal Display)や有機ELパネル(OELD:Organic Electroluminescence Display)等を用いて構成される。例えばホーム画面では、表示部11は、電話、メール、インターネット通信、カメラ撮影等の各操作を行うためのアイコンを表示させる。
 表面タッチセンサ12は、表面タッチセンサ12の入力面において、指の接触または接触の解除を検出する。そして、表面タッチセンサ12は、入力面に対する接触位置を検出し、検出した接触位置を示す信号を制御部14へ出力する。表面タッチセンサ12は透明な部材で構成され、表示部11の前面に重畳配置される。ユーザは透明の表面タッチセンサ12を介して表示部11の画像を視認し、表示部11が表示するオブジェクトの表示位置において表面タッチセンサ12を操作することにより、電子機器1に所定の処理を実行させる。ここで、タッチセンサの操作とは、タッチ、タップ、ダブルタップ、スライド、フリック、スワイプ等の、指をタッチセンサに接触させるあらゆる操作をいう。
 背面タッチセンサ13は、片手で電子機器1を操作する際の操作性を向上させるために電子機器1の背面に配置され、背面タッチセンサ13の入力面において、指による接触または接触の解除を検出し、検出結果を制御部14へ出力する。表面タッチセンサ12および背面タッチセンサ13は、例えば、抵抗膜方式、静電容量方式等の周知の方式で実現される。
 制御部14は、表面タッチセンサ12から入力される信号により表面タッチセンサ12の操作を検出すると、接触位置に表示されているオブジェクトに対応する処理を実行する。
 また、制御部14は、背面タッチセンサ13から入力される信号により背面タッチセンサ13の所定の操作を検出すると、表示部11に表示中のオブジェクトまたは上部画面の位置を変更する。かかる処理の具体例については後述する。
 また、制御部14は、背面タッチセンサ13から入力される信号により背面タッチセンサ13の所定の操作を検出すると、表示部11に表示されていない(隠れている)オブジェクトを、表示部11に表示させる。かかる処理の具体例については後述する。
 記憶部15は、半導体メモリ等で構成することができ、各種情報や電子機器1を動作させるためのプログラム等を記憶するとともに、ワークメモリとしても機能する。
 通信部16は、基地局または他の通信機器と無線により通信し、インターネット接続、電話回線接続、電子メールの送受信等を可能にする。
 マイク17は、ユーザの発話等の周囲の音を集音する。マイク17が集音した音は、電気信号に変換して制御部14に送られる。
 スピーカ18は、音声、音楽、着信音等の音を出力する。
 図2は、第1の実施形態に係る電子機器1の実装構造の一例を示す図である。図2(a)は正面図であり、図2(b)は図2(a)におけるA-A線に沿った断面図であり、図2(c)は背面図である。
 なお、図2においては、筐体10、表示部11、表面タッチセンサ12、背面タッチセンサ13、および接合部材40以外の要素の図示は省略している。電子機器1は、図2に示した以外にも、例えば、制御部14、基板、及び各種部品等の要素を備えることができる。また、典型的にはマイク17は表面タッチセンサ12の下部に配置され、スピーカ18は表面タッチセンサ12の上部に配置される。
 図2に示すように、表面タッチセンサ12は筐体10(例えば、金属や樹脂のケース)の表面10aに配置され、筐体10に支持される。
 表示部11は、筐体10の内部に配置される。例えば、表示部11を表面タッチセンサ12の裏面に接着してもよいし、筐体10の内部に直接固定するか、筐体10の内部に配置される基板または表示部用ホルダ等に固定してもよい。図2では、表示部11は、接合部材40を介して表面タッチセンサ12に接着されている。図2(b)に示すように、表示部11を、表面タッチセンサ12の裏面側に配置すれば、表面タッチセンサ12および表示部11によりタッチパネルを構成する際に、表示部11に自由なユーザインタフェースを表示して、ユーザの操作を表面タッチセンサ12により検出することができる。なお、接合部材40は、熱硬化性あるいは紫外線硬化性等を有する接着剤や両面テープ等であり、例えば無色透明のアクリル系紫外線硬化型接着剤である光学弾性樹脂でもよい。
 背面タッチセンサ13は、電子機器1を片手で保持した際に、人差し指で接触可能な範囲を含むように、筐体10の背面10bに配置され、筐体10に支持される。例えば、図2(b)(c)に示すように、背面タッチセンサ13は筐体10の背面10bの上部に配置される。
 図3は、ユーザが電子機器1を左手で保持した状態を示す図である。図3(a)は表面側から見た図であり、図3(b)は背面側から見た図である。図3(b)に示すように電子機器1を左手で保持すると、人差し指は背面タッチセンサ13上に位置する。よって、ユーザは人差し指を折り曲げるだけで他の指は動かすことなく容易に背面タッチセンサ13を操作することができる。なお、本実施形態では、背面タッチセンサ13を人差し指が接触可能な位置に限定して配置しているが、より広範囲にわたって配置させてもよい。
 次に、本発明に係る電子機器1による処理を、図4を参照して説明する。図4は、第1の実施形態に係る電子機器1の処理を示すフローチャートである。
 制御部14は、表面タッチセンサ12から入力される信号により表面タッチセンサ12の所定の操作を検出すると(ステップS101-Yes)、接触位置に表示されているオブジェクトに対応する処理を実行する(ステップS102)。例えば、表示部11がインターネット接続を開始させるためのブラウザアイコンを表示している場合に、表面タッチセンサ12によりブラウザアイコンの表示位置におけるタップを検出すると、通信部16によりインターネット接続を開始させ、所定のURLにアクセスし、取得したサイト画面を表示部11に表示させる。ステップS102による処理が、電子機器1のブラウザを終了させる処理であった場合には(ステップS103-Yes)、処理を終了して、例えば表示部11にホーム画面(待ち受け画面)を表示させる。
 また、制御部14は、背面タッチセンサ13から入力される信号により背面タッチセンサ13の所定の操作(例えば、スライド)を検出すると(ステップS104-Yes)、表示中のオブジェクトまたは上部画面の位置を変更するか、あるいは、表示されていないオブジェクトを表示部11に表示させる(ステップS105)。ステップS105の処理の具体例について、以下に説明する。
 図5は、背面タッチセンサ13の操作により行う処理の第1の態様を説明する図である。図5(a)は、ホーム画面やフォルダ画面などの複数のオブジェクト(アイコン)が表示されている画面を示している。なお、表示の一例として正方形のオブジェクトA~Xを示しているが、オブジェクトの形状や数はこれに限定されるものではない。片手で電子機器1を操作する際、図5(a)に示す画面において、上部に表示されるオブジェクトを親指で選択するのは困難である。そこで、本発明に係る電子機器1では、制御部14は背面タッチセンサ13の所定の操作(例えば、スライド)を検出すると、表示部11の上部に表示されているオブジェクトの位置を下部に変更する。
 ここで、オブジェクトの位置の変更は、様々な形態により行うことができる。例えば、制御部14は背面タッチセンサ13の所定の操作を検出すると、図5(b)に示すようにオブジェクト群の上半分のオブジェクトA~Lと下半分のオブジェクトM~Xとを入れ替えてもよいし、背面タッチセンサ13の所定の操作を検出するたびに、オブジェクトを数列ずつ順次下にずらすようにして上下のオブジェクトを入れ替えてもよい。図5(c)は、図5(a)の配置からオブジェクトを一列下にずらし、最下部に表示されていたオブジェクトU~Xを最上部に入れ替えた様子を示している。
 図6は、背面タッチセンサ13の操作により行う処理の第2の態様を説明する図である。図6(a)に示す例では、3つの画面が擬似的に重ねて表示されており、複数の画面を切り替えて表示可能とするためのタブ51,52,53が表示されている。また、検索バー等の文字入力が可能な入力窓54も表示されている。片手で電子機器1を操作する際、図6(a)に示す画面において、上部に表示される上部画面50を親指で操作するのは困難である。そこで、本発明に係る電子機器1では、制御部14は背面タッチセンサ13の所定の操作(例えば、スライド)を検出すると、表示部11の上部に表示されている上部画面50を下方向へスライドさせる。本明細書において、上部画面とは、表示部11に表示される画面の上半分に含まれる画面のことをいう。よって、図6に示す例では上部画面50はタブ51,52,53、及び入力窓54を含んでいるが、上部画面50はこれに限定されるものではない。
 ここで、上部画面50の下方向へのスライドは、様々な形態により行うことができる。例えば、制御部14は背面タッチセンサ13の所定の操作を検出すると、図6(b)に示すように上部画面50を表示部11の中央部までスライドしてもよいし、背面タッチセンサ13の所定の操作を検出するたびに、上部画面50を所定の幅ずつ順次下方向へスライドしてもよい。また、上部画面50の下に表示されていた文字、写真、オブジェクト等の画像については、図6(b)に示すように上部画面50とともに下方向へスライドさせてもよいし、スライド後の上部画面50の上下に分割して表示させてもよい。また、上部画面50を画面の上半分とし、制御部14は背面タッチセンサ13の所定の操作を検出すると、画面の上半分と下半分とを入れ替えてもよい。
 また、制御部14は、表面タッチセンサ12の操作によっては移動しないオブジェクトを対象に、該オブジェクトを背面タッチセンサ13の操作により移動可能とするようにしてもよい。図5に示すオブジェクトA~Xや、図6に示す上部画面50は、表面タッチセンサ12の操作によっては移動しない場合が多く、このような場合に特に利便性を提供することができる。
 また、制御部14は、背面タッチセンサ13に対するスライドを検出すると、オブジェクトまたは上部画面を該スライド方向に移動させるようにしてもよい。例えば、制御部14は、背面タッチセンサ13に対して上から下方向のスライドを検出すると、オブジェクトまたは上部画面を上から下方向に移動させ、その後、背面タッチセンサ13に対して下から上方向のスライドを検出すると、オブジェクトまたは上部画面を下から上方向に移動させる。
 図7は、背面タッチセンサ13の操作により行う処理の第3の態様を説明する図である。図7(a)は、一例としてホーム画面を示しているが、ホーム画面に限らず任意の画面を表示中に背面タッチセンサ13を操作することができる。任意の画面において、特定の操作をしない限り表示部11に表示されないオブジェクトが存在することがある。かかるオブジェクトを本明細書においては「隠れオブジェクト」と称する。例えば、表示部11の最上部に表示された通知バー111から、通信機能等の各種設定の状況等をユーザに通知するための隠れオブジェクトを表示させるランチャーアプリケーションが知られている。図7(b)は、隠れオブジェクト55をスライドしながら表示させている様子を示している。
 隠れオブジェクト55は、一般的に、表示部11の上部に表示された通知バー111をタッチし、その位置から下方向へスライドした場合に表示される。しかし、通知バー111は表示部11の最上部に表示されるため、ユーザが片手で操作する際には親指が届かないことがある。そこで、本発明に係る電子機器1では、背面タッチセンサ13を操作(例えば、スライド)することによっても、隠れオブジェクト55を表示部11に表示させることを可能とする。つまり、制御部14は、背面タッチセンサ13の操作を検出すると、隠れオブジェクト55を表示部11に表示させる。
 より具体的には、制御部14は、背面タッチセンサ13に対するスライドを検出すると、隠れオブジェクト55を該スライド方向にスライドさせながら表示させるのが好適である。つまり、背面タッチセンサ13に対して上から下方向のスライドを検出すると、制御部14は、図7(b)の矢印で示すように、隠れオブジェクト55を上から下方向にスライドさせながら表示させる。なお、隠れオブジェクト55を表示部11の下から、あるいは左右から表示させてもよい。この場合には、制御部14は、背面タッチセンサ13に対する下から上方向へのスライドを検出すると、隠れオブジェクト55を下から上方向にスライドさせながら表示させ、背面タッチセンサ13に対する左から右方向へのスライドを検出すると、隠れオブジェクト55を左から右方向にスライドさせながら表示させる。このように、背面タッチセンサ13に対するスライド方向と、隠れオブジェクト55を表示させる際のスライド方向を一致させることにより、操作性を向上させることができる。
 また、一般的に、隠れオブジェクト55を再度非表示にする(隠す)ためには、隠れオブジェクト55の最下部に表示されるバーをタッチし、その位置から上方向へスライドさせるという操作を行う。隠れオブジェクト55を表示部11の全体に表示させた場合には、親指が隠れオブジェクト55の最下部に表示されるバーに届かないこともあるため、背面タッチセンサ13を操作(例えば、スライド)することによっても、隠れオブジェクト55を非表示にできるようにしてもよい。この場合も、背面タッチセンサ13に対するスライド方向と、隠れオブジェクト55を隠す際のスライド方向を一致させることにより、操作性を向上させることができる。例えば、制御部14は、背面タッチセンサ13に対して上から下方向のスライドを検出すると、図7(b)に示すように隠れオブジェクト55を上から下方向にスライドさせながら表示させ、その後、背面タッチセンサ13に対して下から上方向のスライドを検出すると、隠れオブジェクト55を下から上方向にスライドさせながら隠す。
 上述したように、第1の実施形態に係る電子機器1は、制御部14により、背面タッチセンサ13の操作を検出すると、表示中のオブジェクトまたは上部画面の位置を変更する。このため、電子機器1によれば、電子機器1を保持した手の親指が届く範囲内にオブジェクトまたは上部画面を移動させ、引き続き片手による操作を続行することができるため、電子機器1を片手で操作する際の操作性を向上させることが可能となる。
 また、第1の実施形態に係る電子機器1は、制御部14により、背面タッチセンサ13の操作を検出すると、隠れオブジェクト55を表示部11に表示させる。このため、電子機器1によれば、電子機器1を保持した方の手による操作のみで隠れオブジェクト55を表示させることができ、電子機器1を片手で操作する際の操作性を向上させることが可能となる。
[第2の実施形態]
 次に、本発明の第2の実施形態について説明する。図8は、本発明の第2の実施形態に係る電子機器の概略構成を示すブロック図である。第2の実施形態に係る電子機器2は、第1の実施形態に係る電子機器1と比較して、更に押圧検出部20を備える。その他の構成については第1の実施形態と同一であるため、同一の参照番号を付して説明を省略する。
 押圧検出部20は、背面タッチセンサ13に対してユーザが操作を行う際の押圧を検出し、押圧に基づくデータを制御部14に出力する。押圧検出部20は、例えば、押圧に応じて物理的または電気的な特性(歪み、抵抗、電圧等)が変化する歪みゲージセンサや圧電素子等を用いて構成される。押圧検出部20が、例えば圧電素子を用いて構成された場合、押圧検出部20の圧電素子は、背面タッチセンサ13に対する押圧による荷重(力)の大きさ(または、荷重の大きさが変化する速さ(加速度))に応じて、電気的な特性である電圧値(押圧に基づくデータ)が変化する。なお、押圧に基づくデータは、電圧値の代わりに、押圧による荷重の大きさ、電力値、抵抗値等でもよい。
 また、押圧検出部20は、表面タッチセンサ12に対してユーザが操作を行う際の押圧を同様にして検出してもよく、本実施形態では、押圧検出部20が表面タッチセンサ12に対してユーザが操作を行う際の押圧も検出するものとして、以下説明する。
 制御部14は、押圧検出部20から背面タッチセンサ13(および表面タッチセンサ12)に対する押圧に基づくデータを取得する。そして、制御部14は、押圧に基づくデータが所定の基準を満たした場合に、所定の操作が行われたと判断する。
 また、押圧検出部20は、接触検出方式に応じて構成することができる。例えば、接触検出方式が抵抗膜方式の場合には、接触面積の大きさに応じた抵抗の大きさを、タッチセンサのタッチ面に対する押圧の荷重に対応付けることにより、歪みゲージセンサや圧電素子等を用いることなく押圧検出部20を構成することができる。あるいは、タッチセンサが静電容量方式の場合には、静電容量の大きさを、タッチセンサに対する押圧の荷重に対応付けることにより、歪みゲージセンサや圧電素子等を用いることなく構成することができる。
 図9は、第2の実施形態に係る電子機器2の実装構造の一例を示す図である。図9(a)は正面図であり、図9(b)は図9(a)におけるA-A線に沿った断面図であり、図9(c)は背面図である。図9は、図2に示した電子機器1の実装構造に対して、更に押圧検出部20を構成する圧電素子21~24を図示している。なお、圧電素子の個数や配置位置は、図示した例に限定されるものではない。
 図9に示す例では、押圧検出部20は、第1圧電素子21、第2圧電素子22、第3圧電素子23、および第4圧電素子24を有し、第1圧電素子21および第2圧電素子22により、背面タッチセンサ13に対してユーザが操作を行う際の押圧を検出し、第3圧電素子23および第4圧電素子24により、表面タッチセンサ12に対してユーザが操作を行う際の押圧を検出する。
 なお、図9(a)において、表面タッチセンサ12上において表示部11による表示を透過させる必要がない領域、すなわち、表面タッチセンサ12と表示部11とが重ならない領域は、表面タッチセンサ12の端辺付近の領域を塗装したりベゼルで覆ったりするのが好適である。このようにすれば、第3圧電素子23および第4圧電素子24等が電子機器2の外部から見えてしまうことを防ぐことができる。
 次に、本発明に係る電子機器2による処理を、図10を参照して説明する。図10は、第2の実施形態に係る電子機器2の処理を示すフローチャートである。
 制御部14は、表面タッチセンサ12から入力される信号により表面タッチセンサ12の所定の操作を検出すると(ステップS201-Yes)、押圧検出部20から表面タッチセンサ12に対する押圧に基づくデータを取得する(ステップS202)。そして、制御部14は、取得した押圧に基づくデータが所定の閾値(基準)を満たしたか否かを判定し(ステップS203)、押圧に基づくデータが所定の閾値を満たした場合に(ステップS203-Yes)、表面タッチセンサ12の押圧操作が行われたと判断し、押圧位置に表示されているオブジェクトに対応する処理を実行する(ステップS204)。ここで、押圧に基づくデータが所定の閾値を満たした際とは、押圧に基づくデータが所定の基準値に達した際であってもよいし、押圧に基づくデータが所定の基準値を超えた際でもよいし、所定の基準値と等しい押圧に基づくデータが検出された際でもよい。ステップS204による処理が、アプリケーションやメニュー等を終了させる処理であった場合には(ステップS205-Yes)、処理を終了して、例えば表示部11にホーム画面(待ち受け画面)を表示させる。
 また、制御部14は、背面タッチセンサ13から入力される信号により背面タッチセンサ13の所定の操作を検出すると(ステップS206-Yes)、押圧検出部20から背面タッチセンサ13に対する押圧に基づくデータを取得する(ステップS207)。そして、制御部14は、取得した押圧に基づくデータが所定の閾値(基準)を満たしたか否かを判定し(ステップS208)、押圧に基づくデータが所定の閾値を満たした場合に(ステップS208-Yes)、背面タッチセンサ13の操作が行われたと判断し、表示中のオブジェクトまたは上部画面の位置を変更するか、あるいは、表示されていないオブジェクトである隠れオブジェクト55を表示部11に表示させる(ステップS209)。ステップS209の処理の具体例については、第1の実施形態で説明した通りである。
 制御部14は、背面タッチセンサ13に対する押圧に基づくデータが所定の基準を満たした後に、背面タッチセンサ13に対するスライドを検出したときに、隠れオブジェクト55を該スライド方向にスライドさせながら表示させるようにしてもよいし、背面タッチセンサ13に対する押圧に基づくデータが所定の基準を満たしている最中に、背面タッチセンサ13に対するスライドを検出したときに、隠れオブジェクト55を該スライド方向にスライドさせながら表示させるようにしてもよい。
 上述したように、第2の実施形態に係る電子機器2は、押圧検出部20を更に備え、制御部14は、背面タッチセンサ13に対する押圧に基づくデータが所定の基準を満たした場合に、背面タッチセンサ13の操作が行われたと判断する。そのため、電子機器2は、他の物体と軽く接触しただけでユーザによる操作が行われたと判断することを防止できる。特に、電子機器を保持する際には背面に指が接触するが、押圧検出部20により押圧を検出することにより、ユーザが操作を意図していないのにもかかわらず操作したものと誤判断することを防止できる。
[第3の実施形態]
 次に、本発明の第3の実施形態について説明する。図11は、本発明の第3の実施形態に係る電子機器の概略構成を示すブロック図である。第3の実施形態に係る電子機器3は、第2の実施形態に係る電子機器2と比較して、更に触感呈示部30を備える。その他の構成については第2の実施形態と同一であるため、同一の参照番号を付して説明を省略する。
 触感呈示部30は、制御部14から供給される駆動信号に基づいて所定の振動を発生する。駆動信号については、表現したいリアルなボタンが挙動する振動を、指が接触する位置において表現する駆動信号であればよい。
 触感呈示部30は、圧電素子、超音波振動子、または振動モータ(偏心モータ)等を用いて構成され、所定の振動パターンによる振動を発生させることにより、背面タッチセンサ13を押圧しているユーザの指に対して触感を呈示し、ユーザに背面タッチセンサ13を操作したことを感覚的に通知する。触感呈示部30は、機械的な振動を使わずに、背面タッチセンサ13上に貼ったフィルムの電荷を制御する等により、背面タッチセンサ13を押圧しているユーザの指に対して触感を呈示してもよい。
 また、触感呈示部30は、表面タッチセンサ12に対しても、同様にして振動を発生させて、表面タッチセンサ12を押圧しているユーザの指に対して触感を呈示するようにしてもよい。
 なお、触感呈示部30は、押圧検出部20と一体化して構成することもできる。特に、押圧検出部20および触感呈示部30を圧電素子を用いて構成する場合は、圧電素子を共用することもできる。圧電素子は、圧力が加わると電圧を発生し、電圧が加えられると変形するためである。この場合の実装構造例は、図9に示した通りである。
 押圧検出部20および触感呈示部30を圧電素子を用いて構成する場合、制御部14は、圧電素子の電圧値が所定の閾値を満たした際に、所定の処理を行うとともに、該圧電素子を駆動することにより振動を発生させるようにしてもよい。ここで、圧電素子の電圧値が所定の閾値を満たした際とは、電圧値が所定の基準値に達した際であってもよいし、電圧値が所定の基準値を超えた際でもよいし、所定の基準値と等しい電圧値が検出された際でもよい。
 上述したように、第3の実施形態に係る電子機器3は、触感呈示部30を更に備え、制御部14から供給される駆動信号に基づいて所定の振動を発生する。そのため、電子機器3は、ユーザが背面タッチセンサ13(および表面タッチセンサ12)を操作した際に、意図した操作が行われたことを感覚的にユーザに通知することができる。
 上述の実施形態は代表的な例として説明したが、本発明の趣旨及び範囲内で、多くの変更及び置換ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。
 1,2,3 電子機器
 11    表示部
 12    表面タッチセンサ
 13    背面タッチセンサ
 14    制御部
 15    記憶部
 16    通信部
 17    マイク
 18    スピーカ
 20    押圧検出部
 21    第1圧電素子
 22    第2圧電素子
 23    第3圧電素子
 24    第4圧電素子
 30    触感呈示部
 40    接合部材
 50    上部画面
 51,52,53 タブ
 54    入力窓
 55    隠れオブジェクト
 111   通知バー

Claims (11)

  1.  表面および背面にタッチセンサを有する電子機器であって、
     背面のタッチセンサの操作を検出すると、表示部の上部に表示されているオブジェクトの位置を下部に変更する制御部を備えることを特徴とする電子機器。
  2.  前記オブジェクトは、表面のタッチセンサの操作によっては移動しないことを特徴とする、請求項1に記載の電子機器。
  3.  前記制御部は、前記オブジェクトの位置を変更する際には、上下のオブジェクトを入れ替えることを特徴とする、請求項1に記載の電子機器。
  4.  前記背面のタッチセンサに対する押圧を検出する押圧検出部を備え、
     前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たした場合に、前記オブジェクトの位置を変更することを特徴とする、請求項1に記載の電子機器。
  5.  表面および背面にタッチセンサを有する電子機器であって、
     背面のタッチセンサの操作を検出すると、表示部の上部に表示されている画面を下方向へスライドさせる制御部を備えることを特徴とする電子機器。
  6.  前記背面のタッチセンサに対する押圧を検出する押圧検出部を備え、
     前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たした場合に、前記画面を下方向へスライドさせることを特徴とする、請求項5に記載の電子機器。
  7.  表面および背面にタッチセンサを有する電子機器であって、
     背面のタッチセンサの操作を検出すると、表示されていないオブジェクトを表示部に表示させる制御部を備えることを特徴とする電子機器。
  8.  前記制御部は、前記背面のタッチセンサに対するスライドを検出すると、前記オブジェクトを該スライド方向にスライドさせながら表示させることを特徴とする、請求項7に記載の電子機器。
  9.  前記背面のタッチセンサに対する押圧を検出する押圧検出部を備え、
     前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たした場合に、前記オブジェクトを表示させることを特徴とする、請求項7に記載の電子機器。
  10.  前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たした後に、前記背面のタッチセンサに対するスライドを検出すると、前記オブジェクトを該スライド方向にスライドさせながら表示させることを特徴とする、請求項9に記載の電子機器。
  11.  前記制御部は、前記押圧検出部により検出される押圧に基づくデータが所定の基準を満たしている最中に、前記背面のタッチセンサに対するスライドを検出すると、前記オブジェクトを該スライド方向にスライドさせながら表示させることを特徴とする、請求項9に記載の電子機器。
PCT/JP2014/006332 2013-12-24 2014-12-18 電子機器 WO2015098061A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/106,760 US10318044B2 (en) 2013-12-24 2014-12-18 Electronic device having touch sensors on both front and back surfaces

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2013-266055 2013-12-24
JP2013-266053 2013-12-24
JP2013266053A JP6367547B2 (ja) 2013-12-24 2013-12-24 電子機器
JP2013266055A JP2015121996A (ja) 2013-12-24 2013-12-24 電子機器

Publications (1)

Publication Number Publication Date
WO2015098061A1 true WO2015098061A1 (ja) 2015-07-02

Family

ID=53477964

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/006332 WO2015098061A1 (ja) 2013-12-24 2014-12-18 電子機器

Country Status (2)

Country Link
US (1) US10318044B2 (ja)
WO (1) WO2015098061A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018057265A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Device, method, and graphical user interface for force-sensitive gestures on the back of a device
US10547776B2 (en) 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112463002A (zh) * 2020-11-13 2021-03-09 维沃移动通信有限公司 电子设备和单手操作方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
JP2013097563A (ja) * 2011-10-31 2013-05-20 Sony Computer Entertainment Inc 入力制御装置、入力制御方法、及び入力制御プログラム
JP2013142907A (ja) * 2012-01-06 2013-07-22 Canon Inc 入力装置及び入力装置の制御方法
JP2015028688A (ja) * 2013-07-30 2015-02-12 シャープ株式会社 情報処理装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6954899B1 (en) * 1997-04-14 2005-10-11 Novint Technologies, Inc. Human-computer interface including haptically controlled interactions
US8519964B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
JP2011036424A (ja) 2009-08-11 2011-02-24 Sony Computer Entertainment Inc ゲーム装置、ゲーム制御プログラム、及びゲーム制御方法
JP5661547B2 (ja) 2011-04-26 2015-01-28 京セラ株式会社 携帯端末装置およびプログラム
US20130026528A1 (en) * 2011-07-27 2013-01-31 Safety Traffic Equipment Co., Ltd. Waterproof transparent led shield structure
EP2648086A3 (en) * 2012-04-07 2018-04-11 Samsung Electronics Co., Ltd Object control method performed in device including transparent display, the device, and computer readable recording medium thereof
TWI474266B (zh) * 2012-12-20 2015-02-21 Inst Information Industry 觸控方法及手持裝置
JP2014126949A (ja) * 2012-12-25 2014-07-07 Kyocera Corp 携帯端末装置、画面制御方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010154090A (ja) * 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
JP2013097563A (ja) * 2011-10-31 2013-05-20 Sony Computer Entertainment Inc 入力制御装置、入力制御方法、及び入力制御プログラム
JP2013142907A (ja) * 2012-01-06 2013-07-22 Canon Inc 入力装置及び入力装置の制御方法
JP2015028688A (ja) * 2013-07-30 2015-02-12 シャープ株式会社 情報処理装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018057265A1 (en) * 2016-09-23 2018-03-29 Apple Inc. Device, method, and graphical user interface for force-sensitive gestures on the back of a device
CN109643214A (zh) * 2016-09-23 2019-04-16 苹果公司 用于设备后部上的力敏手势的设备、方法和图形用户界面
US10547776B2 (en) 2016-09-23 2020-01-28 Apple Inc. Devices, methods, and graphical user interfaces for capturing and recording media in multiple modes
US10691330B2 (en) 2016-09-23 2020-06-23 Apple Inc. Device, method, and graphical user interface for force-sensitive gestures on the back of a device

Also Published As

Publication number Publication date
US20170038893A1 (en) 2017-02-09
US10318044B2 (en) 2019-06-11

Similar Documents

Publication Publication Date Title
WO2015079688A1 (ja) 電子機器
JP6246640B2 (ja) 電子機器
US10353567B2 (en) Electronic device
WO2011024461A1 (ja) 入力装置
US10795492B2 (en) Input device and method for controlling input device
JPWO2013061605A1 (ja) 触感呈示装置
WO2015098061A1 (ja) 電子機器
WO2015079687A1 (ja) 電子機器
US10996712B2 (en) Electronic device
JP6356411B2 (ja) 電子機器
JP6530160B2 (ja) 電子機器
JP6367547B2 (ja) 電子機器
JP6062351B2 (ja) 電子機器
JP6348948B2 (ja) 電子機器
JP2015106734A (ja) 電子機器
JP2015121996A (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14874666

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15106760

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14874666

Country of ref document: EP

Kind code of ref document: A1