WO2013080704A1 - 電子機器、動作制御方法および記録媒体 - Google Patents

電子機器、動作制御方法および記録媒体 Download PDF

Info

Publication number
WO2013080704A1
WO2013080704A1 PCT/JP2012/077328 JP2012077328W WO2013080704A1 WO 2013080704 A1 WO2013080704 A1 WO 2013080704A1 JP 2012077328 W JP2012077328 W JP 2012077328W WO 2013080704 A1 WO2013080704 A1 WO 2013080704A1
Authority
WO
WIPO (PCT)
Prior art keywords
touch
electronic device
input
processing unit
detecting
Prior art date
Application number
PCT/JP2012/077328
Other languages
English (en)
French (fr)
Inventor
政彰 大竹
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US14/357,473 priority Critical patent/US9671881B2/en
Publication of WO2013080704A1 publication Critical patent/WO2013080704A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to an electronic device, an operation control method, and a recording medium, for example, an electronic device having a touch panel, an operation control method, and a recording medium.
  • Patent Document 1 describes an information terminal device with a touch panel having a monitor for displaying an object, a first touch panel provided on the front surface of the monitor, and a second touch panel provided on the back surface of the monitor. Yes.
  • the information terminal device described in Patent Document 1 accepts an input for selecting an object displayed on a monitor on the first touch panel, and inputs for operating the selected object (for example, moving or enlarging the object). Input to perform) is received by the second touch panel.
  • An object of the present invention is to provide an electronic device, an operation control method, and a recording medium that can solve the above-described problems.
  • the electronic device of the present invention is An electronic device that accepts input and performs an action, First detection means for detecting a touch position on a first surface among surfaces of the electronic device; A second detection means for detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; A reference position is set on the first surface or the second surface according to a touch operation on the second surface, and the electronic device is based on a relative positional relationship between the reference position and the touch position on the first surface. And a control means for controlling the operation.
  • the electronic device of the present invention is An electronic device that accepts input and performs an action, First detection means for detecting a touch operation on the first surface among the surfaces of the electronic device; A second detection means for detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; Based on the time difference between the timing at which the first detection means detects the touch operation on the first surface and the timing at which the second detection means detects the touch operation on the second surface, the operation of the electronic device is determined. Control means for controlling.
  • the electronic device of the present invention is An electronic device that accepts input and performs an action, First detection means for detecting a touch position on a first surface among surfaces of the electronic device; A second detection means for detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; The touch position on the first surface first detected by the first detection unit is set as a reference position in the detection continuation state where the second detection unit detects a continuous touch operation on the second surface, and the detection is performed.
  • Control means for controlling the operation of the electronic device based on the relative positional relationship between the touch position on the first surface detected by the first detection means for the second time by the first detection means in the continuation state and the reference position.
  • the operation control method of the present invention includes: An operation control method in an electronic device that receives an input and executes an operation, Detecting the touch position on the first surface among the surfaces of the electronic device; Detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; A reference position is set on the first surface or the second surface according to a touch operation on the second surface, and the electronic device is based on a relative positional relationship between the reference position and the touch position on the first surface. To control the operation.
  • the operation control method of the present invention includes: An operation control method in an electronic device that receives an input and executes an operation, Detecting a touch operation on the first surface among the surfaces of the electronic device; Detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; The operation of the electronic device is controlled based on the time difference between the timing when the touch operation on the first surface is detected and the timing when the touch operation on the second surface is detected.
  • the operation control method of the present invention includes: An operation control method in an electronic device that receives an input and executes an operation, Detecting the touch position on the first surface among the surfaces of the electronic device; Detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; The touch position on the first surface first detected in the detection continuation state in which the continuous touch operation on the second surface is detected is set as the reference position, and the first detected in the detection continuation state for the second time.
  • the operation of the electronic device is controlled based on the relative positional relationship between the touch position on the surface and the reference position.
  • the recording medium of the present invention is On the computer, A first detection procedure for detecting a touch position on a first surface among the surfaces of the computer; A second detection procedure for detecting a touch operation on a second surface different from the first surface among the surfaces of the computer; A reference position is set on the first surface or the second surface according to a touch operation on the second surface, and the electronic device is based on a relative positional relationship between the reference position and the touch position on the first surface. And a computer-readable recording medium recording a program for executing the control procedure.
  • the recording medium of the present invention is On the computer, A first detection procedure for detecting a touch position on a first surface among the surfaces of the computer; A second detection procedure for detecting a touch operation on a second surface different from the first surface among the surfaces of the computer; A program for executing a control procedure for controlling the operation of the electronic device based on a time difference between a timing at which a touch operation on the first surface is detected and a timing at which a touch operation on the second surface is detected is recorded.
  • the computer-readable recording medium is On the computer, A first detection procedure for detecting a touch position on a first surface among the surfaces of the computer; A second detection procedure for detecting a touch operation on a second surface different from the first surface among the surfaces of the computer; A program for executing a control procedure for controlling the operation of the electronic device based on a time difference between a timing at which a touch operation on the first surface is detected and a timing at which a touch operation on the second surface is detected is recorded.
  • the computer-readable recording medium
  • the recording medium of the present invention is On the computer, A first detection procedure for detecting a touch position on a first surface among the surfaces of the computer; A second detection procedure for detecting a touch operation on a second surface different from the first surface among the surfaces of the computer; The touch position on the first surface first detected in the detection continuation state in which the continuous touch operation on the second surface is detected is set as the reference position, and the first detected in the detection continuation state for the second time.
  • a computer-readable recording medium storing a program for executing a control procedure for controlling the operation of the electronic device based on a relative positional relationship between a touch position on a surface and the reference position.
  • a new input method using a touch panel can be provided.
  • FIG. 1 is a block diagram showing a configuration of a mobile phone 100.
  • FIG. 1 is a diagram schematically showing a part of a mobile phone 100.
  • FIG. 2 is a diagram showing an electronic device including touch panels 102 and 104 and a processing unit 112. It is the figure which showed the reference example.
  • FIG. 1 It is a figure showing an example of cellular phone 100A in which touch panel 104A1 was used instead of touch sensor 104A. It is the figure which showed the example by which the hard key 104A2 which is a hard switch instead of the touch sensor 104A was provided in the side surface of the mobile telephone 100A. It is the block diagram which showed the structure of the mobile telephone 100B which is an example of the electronic device of 3rd Embodiment of this invention.
  • FIG. 1A and 1B are views showing an appearance of a mobile phone 100 as an example of an electronic apparatus according to the first embodiment of the present invention. Specifically, FIG. 1A is a diagram illustrating an appearance on the front side of the mobile phone 100, and FIG. 1B is a diagram illustrating an appearance on the back side of the mobile phone 100.
  • the electronic device is not limited to a mobile phone, and can be changed as appropriate.
  • a PDA Personal Digital Assistant
  • a PC personal computer
  • a game machine may be used.
  • the front side surface 100a of the mobile phone 100 is an example of a first surface.
  • the front side surface 100a is provided with a display area 101a, a touch panel 102, a clear key 103a, an enter key 103b, and a menu key 103c.
  • the display area 101a is an example of a screen.
  • the touch panel 102 is an example of a first detection unit and a first touch panel.
  • the touch panel 102 is provided on the area 100a1 adjacent to the display area 101a and on the display area 101a in the front side surface 100a.
  • the touch panel 102 detects a touch position on the touch panel 102.
  • the clear key 103a, the enter key 103b, and the menu key 103c are hard keys, respectively.
  • the back side surface 100b of the mobile phone 100 is the back side of the front side surface 100a.
  • the back side surface 100b is an example of a second surface.
  • a touch panel 104 On the back side surface 100b, a touch panel 104, a camera 105, and an LED (Light Emitting Diode) 106 are provided.
  • LED Light Emitting Diode
  • the touch panel 104 is an example of a second detection unit and a second touch panel.
  • the touch panel 104 detects a touch position on the touch panel 104 as a touch operation on the touch panel 104.
  • the camera 105 is a camera module having a lens and an image sensor.
  • the LED 106 functions as a light for the camera 105.
  • touch panels 102 and 104 are mounted on both the front and back sides of the mobile phone 100.
  • an area other than the display area 101a (for example, an adjacent area of the display area 101a) is also used as an input unit.
  • FIG. 2 is a block diagram showing the configuration of the mobile phone 100.
  • the same components as those shown in FIG. 1A or 1B are denoted by the same reference numerals.
  • a mobile phone 100 includes a display unit 101, a touch panel 102, a key input unit 103, a touch panel 104, a camera 105, an LED 106, a camera control unit 107, an LED control unit 108, and a transmission / reception unit 109.
  • the display unit 101 has the display area 101a shown in FIG. 1A, and executes various displays in the display area 101a.
  • the display unit 101 displays a camera function description for explaining the camera function, a display of an image captured by the camera 105, a confirmation display of an image captured by the camera 105, and the mobile phone 100.
  • the display of various information and the display of the user interface are executed.
  • the display unit 101 is, for example, an LCD (Liquid Crystal Display).
  • the display unit 101 is not limited to the LCD and can be changed as appropriate.
  • the key input unit 103 has one or more hard keys and receives key information input from the user.
  • the key input unit 103 includes a clear key 103a, an enter key 103b, and a menu key 103c.
  • the number and type of hard keys constituting the key input unit 103 are not limited to three and can be changed as appropriate.
  • the camera control unit 107 controls the camera 105 and receives output data from the camera 105.
  • the LED control unit 108 performs lighting control and light-off control of the LED 106 that functions as a light for the camera 105.
  • the transmission / reception unit 109 transmits and receives data (for example, voice data and image data) to and from a base station (not shown) in the mobile communication system.
  • data for example, voice data and image data
  • the ROM 110 executes various control programs such as image analysis, touch panel control, camera control, and LED control executed by the processing unit 112, a determination program for determining the positional relationship where each of the touch panels 102 and 104 is touched, and the like. save.
  • the RAM 111 is an area for developing a control program and data required for the processing unit 112 to perform processing.
  • the processing unit 112 is an example of a control unit.
  • the processing unit 112 includes, for example, a CPU (Central Processing Unit) and a DSP (Digital Signal Processor).
  • the processing unit 112 is connected to each unit in the mobile phone 100 via the bus 113.
  • the processing unit 112 implements various functions by reading and executing a program in the ROM 110.
  • the processing unit 112 sets a reference position on the front side surface 100a or the back side surface 100b according to a touch operation on the back side surface 100b. For example, the processing unit 112 sets the reference position according to the touch position on the back side surface 100b. In the present embodiment, the processing unit 112 sets the touch position on the back side surface 100b as the reference position.
  • the reference position is not limited to the touch position on the back side surface 100b.
  • the reference position may be a position preset on the front side surface 100a, a position preset on the back side surface 100b, or a position set on the front side surface 100a according to the touch position on the back side surface 100b.
  • the processing unit 112 controls the operation of the mobile phone 100 based on the relative positional relationship between the reference position and the touch position on the front side surface 100a.
  • the processing unit 112 uses the mobile phone based on the relative positional relationship between the user touch position on the front side surface 100a and the user touch position on the back side surface 100b. 100 operations are controlled.
  • the processing unit 112 sets a reference position based on the output of the touch panel 104 that represents the touch position of the user on the touch panel 104.
  • the processing unit 112 determines the touch position on the front side surface 100 a based on the output of the touch panel 102 representing the touch position of the user on the touch panel 102 and the output of the touch panel 104 representing the touch position of the user on the touch panel 104.
  • the relative positional relationship with the touch position on the back side surface 100b is specified.
  • the processing unit 112 specifies an input to the mobile phone 100 based on the specified relative positional relationship.
  • the processing unit 112 controls the operation of the mobile phone 100 based on the specified input.
  • FIG. 3 is a diagram schematically showing an area where the touch panel 102 exists in the part 200 of the mobile phone 100 shown in FIG. 1A.
  • touch panels 102 and 104 are provided with XY coordinates.
  • the XY coordinates of the touch panel 104 are provided so as to have a mirror surface relationship with respect to the XY coordinates of the touch panel 102.
  • the touch panel 104 exists on the back surface of the touch panel 102.
  • the finger 301 touches the touch panel 104 provided on the back side surface 100b.
  • a point where the finger 301 is in contact is shown as a point 302.
  • the processing unit 112 centers on a point (hereinafter referred to as “specific point”) specified on the touch panel 102 at the same coordinates as the point 302 on the touch panel 104.
  • a circular region defined by a predetermined radius is set.
  • the processing unit 112 divides the circular area into four with the specific point as the center, and sets four areas 102a to 102d (see FIG. 3).
  • the processing unit 112 sets areas 303 to 306 for receiving touch inputs related to the operation of the mobile phone 100 in the four areas 102a to 102d.
  • the touch panel 102 is mounted on substantially the entire front side surface 100a, the area where touch input related to the operation of the mobile phone 100 can be sensed is wide, but four areas are shown here for explanation.
  • the processing unit 112 displays the input guides 307 to 310 on the display unit 101.
  • an A button 307, a D button 308, a C button 309, and a B button 310 are displayed as four input guides.
  • FIG. 4 is a flowchart for explaining operations related to input determination in the present embodiment.
  • step 400 When the touch input is started in step 400, the following processing is executed.
  • step 401 the touch panel 104 detects a position (point) touched on the back side surface 100b.
  • the position touched on the back side surface 100 b is the point 302.
  • the touch panel 104 notifies the processing unit 112 of the detection result.
  • the processing unit 112 is determined in advance on the touch panel 102 around a specific point specified by the same coordinates as the coordinates of the point 302 on the touch panel 104. Set a circular area defined by the radius. Subsequently, the processing unit 112 sets four areas 102a to 102d by dividing a circular area on the touch panel 102 into four parts around a specific point. Subsequently, the processing unit 112 sets areas 303 to 306 for receiving touch inputs related to the operation of the mobile phone 100 in the four areas 102a to 102d.
  • step 402 the touch panel 102 detects a position (point) touched on the front side surface 100a.
  • the touch panel 102 notifies the processing unit 112 of the detection result.
  • the processing unit 112 specifies an input related to the operation of the mobile phone 100 based on the relative positional relationship between the touch position on the back side surface 100b and the touch position on the front side surface 100a.
  • step 403 when the touch position on the back side surface 100b is the point 302 and the touch position on the front side surface 100a is the area 303, the processing unit 112 inputs the input guide 307 on the upper side among the input guides 307 to 310. It is determined that (input “A” in FIG. 3) is selected.
  • the processing unit 112 specifies an input (input “A” in FIG. 3) assigned to the input guide 307 in step 404, and ends the touch input in step 412.
  • step 405 when the touch position on the back side surface 100b is the point 302 and the touch position on the front side surface 100a is the area 304, the processing unit 112 performs input on the right side of the input guides 307 to 310. It is determined that guide 308 (input “D” in FIG. 3) has been selected.
  • the processing unit 112 identifies an input (input “D” in FIG. 3) assigned to the input guide 308 in Step 406, and ends the touch input in Step 412.
  • step 407 when the touch position on the back side surface 100b is the point 302 and the touch position on the front side surface 100a is the area 305, the processing unit 112 is on the lower side of the input guides 307 to 310. It is determined that the input guide 309 (input “C” in FIG. 3) is selected.
  • step 408 the processing unit 112 specifies the input (input “C” in FIG. 3) assigned to the input guide 309, and ends the touch input in step 412.
  • step 409 when the touch position on the back side surface 100 b is the point 302 and the touch position on the front side surface 100 a is the area 306, the processing unit 112 inputs on the left side of the input guides 307 to 310. It is determined that guide 310 (input “B” in FIG. 3) has been selected.
  • the processing unit 112 specifies an input (input “B” in FIG. 3) assigned to the input guide 310 in Step 410, and ends the touch input in Step 412.
  • the processing unit 112 determines in Step 411. It is determined that there is no input, and the touch input is terminated in step 412.
  • FIG. 5 is a diagram showing an example of the operation of the present embodiment described with reference to FIG.
  • the processing unit 112 controls the operation of the mobile phone 100 based on the input determined based on the relative positional relationship between the touch position on the back side surface 100b and the touch position on the front side surface 100a. For example, the processing unit 112 changes the display of the display area 101a based on the input.
  • the touch panel 102 detects the touch position on the front side surface 100a of the mobile phone 100.
  • Touch panel 104 detects a touch operation on back side surface 100 b of mobile phone 100.
  • the processing unit 112 sets a reference position on the front side surface 100a or the back side surface 100b in accordance with a touch operation on the back side surface 100b, and carries the mobile phone based on the relative positional relationship between the reference position and the touch position on the front side surface 100a. The operation of the telephone 100 is controlled.
  • the user can easily input at the position desired by the user. For this reason, it becomes possible to shift the input touch position according to the size of the user's hand.
  • FIG. 6 is a diagram illustrating an electronic device including the touch panels 102 and 104 and the processing unit 112.
  • the touch panel 104 detects the touch position on the back side surface 100b as a touch operation on the back side surface 100b.
  • the processing unit 112 sets a reference position according to the touch position on the back side surface 100b.
  • the reference position can be changed according to the touch position on the back side surface 100b.
  • the touch panel 104 detects a touch position on the back side surface 100b of the mobile phone 100 as a reference position.
  • the processing unit 112 controls the operation of the mobile phone 100 based on the relative positional relationship between the touch position on the front side surface 100a and the touch position on the back side surface 100b.
  • the operation of the mobile phone 100 can be changed by changing the relative positional relationship between the touch position on the front side surface 100a and the touch position on the back side surface 100b.
  • the operation buttons in the display area 101a since it is not necessary to display the operation buttons in the display area 101a, it is possible to display a display other than the operation buttons (for example, an image representing characters and moving images) in the display area 101a. Although it is conceivable to perform a guide display for operation, the guide display can be reduced, and it is not necessary to put a finger on the guide display, so that it is possible to avoid the difficulty in viewing the screen.
  • the displacement of the touch position can be determined from the positional relationship of his / her finger It can be easily recognized.
  • the processing unit 112 identifies an input to the mobile phone 100 based on the relative positional relationship between the touch position on the front side surface 100a and the touch position on the back side surface 100b, and the identified input.
  • the operation of the mobile phone 100 is controlled based on the above.
  • the relative positional relationship between the touch position on the front side surface 100a and the touch position on the back side surface 100b is used as information for specifying the input to the mobile phone 100, and the absolute position of the touch position is considered. Not. Therefore, the user can easily perform touch input at a position desired by the user.
  • the touch panels 102 and 104 are provided on the front and back surfaces of the mobile phone 100.
  • the user uses the part (for example, the index finger) touching the touch panel 104 mounted on the back side surface 100b as a reference, and the position between the reference and the part (for example, the thumb) touching the touch panel on the front side surface 100a It becomes possible to input using the relationship.
  • the part for example, the index finger
  • the part for example, the thumb
  • the touch panel 102 is provided in at least the region 100a1 adjacent to the display area 101a in the front side surface 100a.
  • FIG. 7 is a diagram illustrating a mobile phone 700 (reference example) in which the user operates the operation buttons displayed in the display area 101a with a finger.
  • a mobile phone 700 reference example
  • an input touch operation is performed in an area other than the display area 101a, it is possible to prevent the display area 101a from being soiled with a finger.
  • the touch panel 102 is provided at least on the display area 101a. For this reason, it becomes possible to input to the mobile phone 100 also on the display area 101a.
  • a certain range can be given to the input area, such as the areas 303 to 306 shown in FIG. This makes it possible to set an input I / F (interface) that is easy to input regardless of the size of the hand. Further, when the areas 303 to 306 are outside the display area 101a, even if the areas 303 to 306 are enlarged, the other displays in the display area 101a are not disturbed.
  • the user touches the touch panel 104 on the back side surface 100b once, the touch position (reference position) is stored in the RAM 111 that functions as a storage unit, and the processing unit 112 touches the touch panel 102.
  • the input to the mobile phone 100 may be specified based on the relative positional relationship between the position and the touch position (reference position) on the touch panel 104 in the RAM 111. In this case, the position corresponding to the point 302 is controlled to be fixed when the input I / F is determined.
  • the time when the input I / F is determined indicates the timing at which the input I / F is changed, for example, before starting input or when a hard key is pressed.
  • the processing unit 112 may turn off the touch panel 104 on the back side surface 100b. By turning on the touch panel 104 on the side surface 100b only when determining the input I / F, power consumption can be suppressed.
  • the processing unit 112 may specify an input to the mobile phone 100 based on a change in the relative positional relationship between the touch position on the front side surface 100a and the touch position on the back side surface 100b. .
  • FIG. 8 is a diagram for explaining an operation of specifying an input to the mobile phone 100 based on a change in a relative positional relationship between the touch position on the front side surface 100a and the touch position on the back side surface 100b.
  • FIG. 8 shows an example in which an input is specified based on the amount of movement of the touch position on the front side surface 100a with reference to the touch position on the back side surface 100b.
  • This method can be taken when the touch position of the back side surface 100b overlaps with the mounting of the camera 105 or the like.
  • FIG. 9 is a diagram showing an example in which the number of inputs that can be specified based on the relative positional relationship is eight.
  • a game displayed in the display area 101a may be operated by an input specified by the processing unit 112, or screen scrolling in a browser displayed in the display area 101a Ordinary display operations such as these may be performed.
  • a point specified by the same coordinates as the point 302 on the touch panel 104 is used as the specific point (no operation state point) set on the touch panel 102.
  • the specific point may be a point shifted on the coordinates by a predetermined distance from the coordinates of the point 302 on the touch panel 104.
  • a predetermined distance is set, and a point obtained by shifting the coordinates of the point 302 by the predetermined distance is set as a specific point.
  • the specific point may be a circular area centered on the coordinates of the point 302.
  • the radius of a specific point that is a circular area is set, and the setting is performed such that the circular area having the set radius is set as the specific point with the coordinates of the point 302 as the center.
  • the area set as the specific point functions as a margin for preventing erroneous operation.
  • the XY coordinates of the touch panel 104 are provided so as to have a mirror object relationship with respect to the XY coordinates of the touch panel 102. It is good also as what multiplied a certain coefficient to what was made. In this case, even if the sizes of the touch panel 102 and the touch panel 104 are different from each other, the sizes of the touch panel 102 and the touch panel 104 can be virtually matched on the XY coordinates.
  • the processing unit 112 sets the areas 303 to 306 for receiving touch input related to the operation of the mobile phone 100 on the touch panel 102 with reference to the touch position on the touch panel 104.
  • the unit 112 may set areas 303 to 306 on the touch panel 104 for receiving touch inputs related to the operation of the mobile phone 100 on the basis of the touch position on the touch panel 102.
  • FIGS. 10A and 10B are views showing the appearance of a mobile phone 100A which is an example of an electronic apparatus according to the second embodiment of the present invention.
  • FIG. 10A is a diagram illustrating an appearance of the front side of the mobile phone 100A
  • FIG. 10B is a diagram illustrating an appearance of the back side of the mobile phone 100A.
  • 10A or 10B the same components as those shown in FIG. 1A or 1B are denoted by the same reference numerals.
  • the front side surface 100Aa of the mobile phone 100A is an example of the first surface.
  • the front side surface 100Aa is provided with a display area 101a, a touch panel 102, a clear key 103a, an enter key 103b, and a menu key 103c.
  • the back side surface 100Ab of the mobile phone 100A is the back surface of the front side surface 100Aa.
  • the back side surface 100Ab is an example of a second surface.
  • the touch sensor 104A, the camera 105, and the LED 106 are provided on the back side surface 100Ab.
  • the touch sensor 104A is an example of a second detection unit.
  • the touch sensor 104A detects a touch operation on the touch sensor 104A.
  • FIG. 11 is a block diagram showing the configuration of the mobile phone 100A.
  • the same components as those shown in FIGS. 10A, 10B, and 2 are denoted by the same reference numerals.
  • a mobile phone 100A includes a display unit 101, a touch panel 102, a key input unit 103, a touch sensor 104A, a camera 105, an LED 106, a camera control unit 107, an LED control unit 108, and a transmission / reception unit. 109, a ROM 110, a RAM 111, a processing unit 112A, and a bus 113.
  • the ROM 110 determines an input using various control programs such as image analysis, touch panel control, touch sensor control, camera control, and LED control executed by the processing unit 112A, and detection results of the touch panel 102 and the touch sensor 104A. Save judgment programs and so on.
  • various control programs such as image analysis, touch panel control, touch sensor control, camera control, and LED control executed by the processing unit 112A, and detection results of the touch panel 102 and the touch sensor 104A. Save judgment programs and so on.
  • the RAM 111 is an area for developing a control program and data required for the processing unit 112A to perform processing.
  • the processing unit 112A is an example of a control unit.
  • the processing unit 112A includes, for example, a CPU and a DSP.
  • the processing unit 112A is connected to each unit in the mobile phone 100A via the bus 113.
  • the processing unit 112A implements various functions by reading and executing a program in the ROM 110.
  • the processing unit 112A sets a reference position on the front side surface 100Aa or the back side surface 100Ab in response to a touch operation on the touch sensor 104A on the back side surface 100Ab (hereinafter also referred to as “touch operation on the back side surface 100Ab”). For example, the processing unit 112A sets the reference position according to the touch operation on the back side surface 100Ab.
  • the processing unit 112A sets a position facing the touch sensor 104A in the touch panel 102 (hereinafter referred to as “opposing position”) as a reference position.
  • the reference position set on the touch panel 102 is also referred to as a “virtual touch position”.
  • the virtual touch position is not limited to the facing position, but may be a position shifted from the facing position.
  • the processing unit 112A controls the operation of the mobile phone 100A based on a change in the relative positional relationship between the virtual touch position and the actual touch position on the front side surface 100a.
  • the processing unit 112A sets a virtual touch position based on the output of the touch panel 104A representing the user's touch operation on the touch sensor 104A.
  • the processing unit 112 ⁇ / b> A has a relative position between the actual touch position and the virtual touch position on the front side surface 100 a based on the output of the touch panel 102 representing the touch position of the user on the touch panel 102 and the virtual touch position. Identify relationships.
  • the processing unit 112A specifies an input to the mobile phone 100A based on the specified relative positional relationship (for example, change in relative positional relationship).
  • the processing unit 112A controls the operation of the mobile phone 100A based on the specified input.
  • the processing unit 112A controls the operation of the mobile phone 100A based on the time difference between the timing when the touch panel 102 detects the touch position and the timing when the touch sensor 104A detects the touch operation.
  • FIG. 12 is a flowchart for explaining the operation of the mobile phone 100A.
  • the operation of the mobile phone 100A when the user touches the touch sensor 104A with the left index finger and touches the touch panel 102 with the left hand thumb while holding the mobile phone 100A with the left hand will be described.
  • touch on the touch sensor 104A and the touch on the touch panel 102 are not limited to the left index finger and the left thumb, but can be changed as appropriate.
  • the touch sensor 104A detects the touch operation in step 1201.
  • the touch sensor 104A notifies the detection result of the touch operation to the processing unit 112A.
  • the processing unit 112A When the processing unit 112A receives the detection result of the touch operation from the touch sensor 104A, the processing unit 112A sets a virtual touch position on the touch panel 102 in step 1202.
  • FIG. 13 is a diagram illustrating an example of the virtual touch position 102 ⁇ / b> V set on the touch panel 102.
  • the processing unit 112A calculates the center of gravity of the virtual touch position 102.
  • the barycentric point of the virtual touch position 102 is also an example of a reference position.
  • step 1203 when a touch operation on the touch panel 102 is performed, the touch panel 102 detects a touched position (hereinafter referred to as “touch point”) on the front side surface 100Aa in step 1203. The touch panel 102 notifies the detection result of the touch point to the processing unit 112A.
  • step 1203 is after step 1201, but step 1203 may be ahead of step 1201.
  • the processing unit 112A receives the detection result of the touch point from the touch panel 102 and receives the detection result of the touch operation from the touch sensor 104A
  • the reception timing of the detection result of the touch point and the reception timing of the detection result of the touch operation are received in Step 1204. Whether or not the time difference (hereinafter referred to as “detection time difference”) is within a specific time T is determined.
  • the specific time T is, for example, 0.5 seconds.
  • the specific time T is not limited to 0.5 seconds and can be changed as appropriate.
  • the specific time T is preset in the processing unit 112A.
  • the detection time difference means a time difference between the timing when the touch panel 102 detects the touch point and the timing when the touch sensor 104A detects the touch operation.
  • the processing unit 112A may determine whether the detection time difference is within the specific time T and whether the touch point of the touch panel 102 is in contact with the virtual touch position.
  • FIG. 14 is a diagram showing an example of a situation where the detection time difference is within the specific time T and the touch point of the touch panel 102 is in contact with the virtual touch position.
  • the processing unit 112A determines in step 1205 that “input 0” (for example, screen shot input) has been input. For example, if the processing unit 112A determines that a screen shot input is input, the processing unit 112A stores image information representing the display screen of the display area 101a.
  • the processing unit 112A sets a circumferential operation determination area on the touch panel 102 in step 1206.
  • the circumference operation determination area is a touch point on the circumference of a circle whose center is the center of gravity of the virtual touch position and whose radius is the distance from the center of gravity of the virtual touch position to the touch point (hereinafter referred to as “distance between touches”). Is used to determine whether or not is moving.
  • step 1206 the following processing is executed.
  • the processing unit 112A with respect to a straight line connecting the touch point and the barycentric point of the virtual touch position, the first straight line inclined clockwise by a predetermined angle around the touch point, the touch point and the virtual touch position
  • a second straight line inclined at a specific angle counterclockwise around the touch point is set on the touch panel 102 with respect to the straight line connecting the center of gravity point.
  • the predetermined angle and the specific angle are angles larger than 0 degrees and smaller than 90 degrees, for example, 60 degrees.
  • the predetermined angle and the specific angle are not limited to 60 degrees and can be changed as appropriate.
  • the predetermined angle may be the same angle as the specific angle or a different angle.
  • the processing unit 112A divides the touch panel 102 into four regions having the first straight line and the second straight line as boundary lines.
  • the processing unit 112A sets two areas in which the straight line connecting the touch point and the center of gravity of the virtual touch position does not pass through the area among the four areas as the circumferential operation determination areas a1 and a2, respectively. To do.
  • step 1206 the processing unit 112A subsequently determines whether the touch point on the touch panel 102 has moved based on the output of the touch panel 102 in step 1207.
  • the processing unit 112A completes at least one touch operation based on the output of the touch panel 102 and the output of the touch sensor 104A in step 1208. Determine if you did.
  • step 1208 the processing unit 112A ends the touch input determination process.
  • step 1208 the processing unit 112A returns the processing to step 1207.
  • the processing unit 112A determines that the touch point is moved to the circumferential operation determination area a0 (circumferential operation determination area a1 and circumferential operation determination in step 1209). It is determined whether the area is outside the area combined with the area a2.
  • step 1209 when the destination of the touch point is outside the circumferential operation determination area a 0, the processing unit 112 ⁇ / b> A determines in step 1210 whether the touch point moves closer to the virtual touch position.
  • FIG. 15 is a diagram illustrating an example of a situation where the touch point approaches the virtual touch position.
  • the processing unit 112A determines in step 1211 that “input 1” (for example, reduction input) has been input. For example, when the processing unit 112A determines that a reduction input has been input, the processing unit 112A reduces the display of the display area 101a. In this case, the processing unit 112A may increase the reduction rate as the movement amount of the touch point increases.
  • input 1 for example, reduction input
  • the processing unit 112A performs “input 2” in step 1212. It is determined that (for example, enlarged input) is input.
  • FIG. 16 is a diagram illustrating an example of a situation where the touch point is separated from the virtual touch position.
  • the processing unit 112A determines that an enlarged input is input, the processing unit 112A enlarges the display of the display area 101a.
  • the processing unit 112A may increase the magnification rate as the movement amount of the touch point increases.
  • the processing unit 112A determines in step 1213 whether the touch point movement destination is included in the circumferential operation determination area a1. To do.
  • the processing unit 112A determines in step 1214 that “input 3” (for example, brightness enhancement input) has been input. .
  • “input 3” for example, brightness enhancement input
  • the processing unit 112A brightens the display in the display area 101a. In this case, the processing unit 112A may brighten the display as the movement amount of the touch point increases.
  • the processing unit 112A In step 1215, it is determined that “input 4” (for example, brightness reduction input) has been input. For example, when the processing unit 112A determines that the brightness reduction input is input, the processing unit 112A darkens the display of the display area 101a. In this case, the processing unit 112A may darken the display as the movement amount of the touch point increases.
  • input 4 for example, brightness reduction input
  • FIG. 17 is a diagram illustrating an example of a situation in which the destination of the touch point is included in the circumferential operation determination area a0 (area combining the circumferential operation determination area a1 and the circumferential operation determination area a2).
  • the processing unit 112A changes the relative positional relationship between the virtual touch position set by the touch operation on the touch sensor 104A and the touch position on the touch panel 102 (for example, both approach each other). Based on the movement locus of the touch position on the touch panel 102 that draws a part of the circle (arc) centered on the virtual touch position, the input to the mobile phone 100 is specified.
  • processing unit 112A controls the operation of the mobile phone 100A based on the detection time difference.
  • the processing unit 112 may control the operation of the mobile phone 100A according to the time difference between the touches on the two touch panels.
  • the processing unit 112A determines that a predetermined input (for example, screen shot input) has been received when the detection time difference is within the specific time T, and the mobile phone 100A is based on the predetermined input. To control the operation.
  • a predetermined input for example, screen shot input
  • the mobile phone 100A is caused to perform a predetermined operation. Is possible.
  • a touch panel may be used instead of the touch sensor 104A.
  • FIG. 18 is a diagram illustrating an example of a mobile phone 100A in which a touch panel 104A1 is used instead of the touch sensor 104A.
  • the same components as those shown in FIG. 10A or 10B are denoted by the same reference numerals.
  • the detection area for the touch operation on the back side surface 100Ab can be expanded.
  • the virtual touch position is desirably set to the same position as the image touch position 102V illustrated in FIG.
  • the processing unit 112A displays in the display area 101a of the display unit 101 that the touch sensor 104A or the touch panel 104A1 detects the touch operation.
  • the fact that the touch operation on the touch panel 102 is treated as a two-point touch operation combined with the touch operation on the virtual touch position, the fact that the virtual touch position is touched, and / or the virtual touch position may be displayed.
  • the touch sensor 104A may be provided on the surface other than the front side surface 100Aa of the mobile phone 100A, for example, on the side surface of the mobile phone 100A, instead of the back side surface 100Ab, and the protruding sensor provided on the back side surface 100Ab. You may provide in a holding
  • the processing unit 112A sets a predetermined position on the touch panel 102 as the virtual touch position, and displays the set virtual touch position in the display area 101a.
  • the processing unit 112A sets a predetermined position on the touch panel 102 as the virtual touch position, and sets the virtual touch position to the display area 101a. May be displayed.
  • a hard switch may be used instead of the touch sensor 104A.
  • a hard switch for detecting an operation position arranged on a matrix may be used instead of the touch panel 104.
  • FIG. 19 is a diagram showing an example in which a hard key 104A2, which is a hard switch, is provided on the side surface of the mobile phone 100A instead of the touch sensor 104A.
  • a hard key 104A2 which is a hard switch
  • the shape of the circumferential operation determination area can be changed as appropriate.
  • the processing unit 112A may set the circumferential operation determination area as follows.
  • the processing unit 112A sets a reference circle for determination on the touch panel 102 with the center of gravity of the virtual touch position as the center and the radius between the center of gravity of the virtual touch position and the touch point as a radius. Subsequently, the processing unit 112A sets an area within a specific distance from the circumference of the determination reference circle as a circumference operation determination area.
  • the specific distance is, for example, 3 mm.
  • the specific distance is not limited to 3 mm and can be changed as appropriate. In this case, in step 1207 shown in FIG. 12, it is desirable that the processing unit 112A determines whether the touch point on the touch panel 102 has moved beyond a specific distance.
  • the touch point can be rotated around the center of gravity point of the virtual touch position without deviating from the circumferential operation determination area.
  • the processing unit 112A determines that the “input 3” or “input 4” continuous operation is being performed. May be. Further, the processing unit 112A may increase / decrease the display brightness or increase / decrease the volume from a speaker (not shown) according to the rotation direction of the touch point.
  • steps 1204 and 1205 may be omitted from the processing shown in FIG.
  • steps 1206 to 1215 in the processing shown in FIG. 12 may be omitted.
  • the processing unit 112 of the first embodiment may execute.
  • the touch panel 104 shown in FIGS. 1A and 1B is used instead of the touch sensor 104A1 shown in FIG.
  • FIG. 20 is a block diagram showing a configuration of a mobile phone 100B which is an example of an electronic apparatus according to the third embodiment of the present invention.
  • the same components as those shown in FIG. 11 are denoted by the same reference numerals.
  • the mobile phone 100B of the third embodiment is different from the mobile phone 100A of the second embodiment in that the processing unit 112B is used instead of the processing unit 112A.
  • the cellular phone 100B of the third embodiment will be described focusing on differences from the cellular phone 100A of the second embodiment.
  • the processing unit 112B is an example of a control unit.
  • the processing unit 112B is different from the processing unit 112A in a virtual touch position setting method and a touch point setting method.
  • the processing unit 112B sets the first touch point detected by the touch panel 102 as a virtual touch position in a situation where the touch sensor 104A detects a continuous touch operation (hereinafter referred to as “detection continuation situation”).
  • the processing unit 112B includes a touch point newly detected by the touch panel 102 after the first touch operation on the touch panel 102 (hereinafter also referred to as “new touch point”), a virtual touch position, Based on the relative positional relationship, the operation of the mobile phone 100B is controlled.
  • the new touch point is a touch point detected by the touch panel 102 for the second time in the detection continuation state.
  • processing unit 112B ends the setting of the virtual touch position as the detection continuation state ends.
  • the processing unit 112B controls the operation of the mobile phone 100B based on a change in the relative positional relationship between the virtual touch position and the new touch point.
  • the processing unit 112B sets the virtual touch position and detects a new touch point
  • the processing unit 112B executes the processing after step 1204 shown in FIG.
  • the new touch point is used as a touch point detected in step 1203 in FIG.
  • each of the mobile phones 100, 100A, and 100B may be configured by a computer.
  • This computer reads and executes a program recorded on a computer-readable recording medium, and executes the functions of the mobile phones 100, 100A, and 100B.
  • An electronic device that receives an input and executes an operation, First detection means for detecting a touch position on a first surface among surfaces of the electronic device; A second detection means for detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; A reference position is set on the first surface or the second surface according to a touch operation on the second surface, and the electronic device is based on a relative positional relationship between the reference position and the touch position on the first surface. Control means for controlling the operation of the electronic device.
  • Appendix 2 In the electronic device described in Appendix 1, The second detection means detects a touch position on the second surface as the touch operation, The electronic device, wherein the control means sets the reference position according to a touch position on the second surface.
  • the control means is an electronic device that sets a touch position on the second surface as the reference position.
  • the control unit is an electronic device that specifies an input to the electronic device based on the relative positional relationship and controls an operation of the electronic device based on the specified input.
  • Said 2nd surface is an electronic device which is a back surface of said 1st surface.
  • the first detection means is a first touch panel provided on the first surface
  • the electronic device, wherein the second detection means is a second touch panel, a touch sensor, or a hard switch provided on the second surface.
  • a screen is provided on the first surface;
  • the first touch panel is an electronic device provided in at least an area adjacent to the screen in the first surface.
  • Appendix 8 In the electronic device described in Appendix 6 or 7, A screen is provided on the first surface;
  • the first touch panel is an electronic device provided on at least the screen.
  • Appendix 9 In the electronic device according to any one of appendices 1 to 8, Further comprising storage means for storing a reference position set by the control means;
  • the control device is an electronic device that controls the operation of the electronic device based on a relative positional relationship between the touch position on the first surface and the reference position in the storage device.
  • the control device is an electronic device that controls the operation of the electronic device based on the change in the relative positional relationship.
  • the control means is further based on a time difference between a timing when the first detection means detects a touch position on the first surface and a timing when the second detection means detects a touch operation on the second surface.
  • the control unit determines that a predetermined input is received when the time difference is within a specific time, and controls the operation of the electronic device based on the predetermined input.
  • Display means having a screen on the first surface is provided; The display means that, when the second detection means detects a touch operation on the second surface, the touch operation on the first surface is handled together with the touch operation to the reference position, or the reference position is a touch.
  • An electronic device that receives an input and executes an operation, First detection means for detecting a touch operation on the first surface among the surfaces of the electronic device; A second detection means for detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; Based on the time difference between the timing at which the first detection means detects the touch operation on the first surface and the timing at which the second detection means detects the touch operation on the second surface, the operation of the electronic device is determined. And an electronic device including control means for controlling.
  • the control unit determines that a predetermined input is received when the time difference is within a specific time, and controls the operation of the electronic device based on the predetermined input.
  • An electronic device that receives an input and executes an operation, First detection means for detecting a touch position on a first surface among surfaces of the electronic device; A second detection means for detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; The touch position on the first surface first detected by the first detection unit is set as a reference position in the detection continuation state where the second detection unit detects a continuous touch operation on the second surface, and the detection is performed.
  • Control means for controlling the operation of the electronic device based on a relative positional relationship between the touch position on the first surface detected by the first detection means for the second time by the first detection means and the reference position in a continuation state. machine.
  • An operation control method in an electronic device that receives an input and executes an operation, Detecting the touch position on the first surface among the surfaces of the electronic device; Detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; A reference position is set on the first surface or the second surface according to a touch operation on the second surface, and the electronic device is based on a relative positional relationship between the reference position and the touch position on the first surface. Control method for controlling the operation of the machine.
  • An operation control method in an electronic device that receives an input and executes an operation, Detecting a touch operation on the first surface among the surfaces of the electronic device; Detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; An operation control method for controlling an operation of the electronic device based on a time difference between a timing when a touch operation on the first surface is detected and a timing when a touch operation on the second surface is detected.
  • An operation control method in an electronic device that receives an input and executes an operation, Detecting the touch position on the first surface among the surfaces of the electronic device; Detecting a touch operation on a second surface different from the first surface among the surfaces of the electronic device; The touch position on the first surface first detected in the detection continuation state in which the continuous touch operation on the second surface is detected is set as the reference position, and the first detected in the detection continuation state for the second time.
  • An operation control method for controlling an operation of the electronic device based on a relative positional relationship between a touch position on a surface and the reference position.
  • a first detection procedure for detecting a touch position on a first surface among the surfaces of the computer A second detection procedure for detecting a touch operation on a second surface different from the first surface among the surfaces of the computer;
  • a reference position is set on the first surface or the second surface according to a touch operation on the second surface, and the electronic device is based on a relative positional relationship between the reference position and the touch position on the first surface.
  • a computer-readable recording medium on which a program for executing the control procedure is recorded.
  • a first detection procedure for detecting a touch position on a first surface among the surfaces of the computer A second detection procedure for detecting a touch operation on a second surface different from the first surface among the surfaces of the computer;
  • a first detection procedure for detecting a touch position on a first surface among the surfaces of the computer A second detection procedure for detecting a touch operation on a second surface different from the first surface among the surfaces of the computer;
  • the touch position on the first surface first detected in the detection continuation state in which the continuous touch operation on the second surface is detected is set as the reference position, and the first detected in the detection continuation state for the second time.
  • a computer-readable recording medium storing a program for executing a control procedure for controlling an operation of the electronic device based on a relative positional relationship between a touch position on a surface and the reference position.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

 入力を受け付け動作を実行する電子機器は、電子機器が有する面のうち第1面におけるタッチ位置を検出する第1検出手段と、電子機器が有する面のうち第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、第2面におけるタッチ操作に応じて第1面または第2面に基準位置を設定し、基準位置と第1面におけるタッチ位置との相対的な位置関係に基づいて電子機器の動作を制御する制御手段と、を含む。

Description

電子機器、動作制御方法および記録媒体
 本発明は、電子機器、動作制御方法および記録媒体に関し、例えば、タッチパネルを有する電子機器、動作制御方法および記録媒体に関する。
 近年、タッチパネルを備えた携帯機器が普及している。
 特許文献1には、オブジェクトを表示するモニタと、モニタの表面に設けられた第1のタッチパネルと、モニタの裏面に設けられた第2のタッチパネルと、を有するタッチパネル付情報端末装置が記載されている。
 特許文献1に記載の情報端末装置は、モニタに表示されたオブジェクトを選択するための入力を第1のタッチパネルで受け付け、選択されたオブジェクトを操作するための入力(例えば、オブジェクトの移動や拡大を行うための入力)を第2のタッチパネルで受け付ける。
特開2011-70609号公報
 現在、タッチパネルを備えた携帯機器の普及に伴い、タッチパネルを用いた新たな入力方式が望まれている。
 本発明の目的は、上記課題を解決可能な電子機器、動作制御方法および記録媒体を提供することである。
 本発明の電子機器は、
 入力を受け付け動作を実行する電子機器であって、
 前記電子機器が有する面のうち第1面におけるタッチ位置を検出する第1検出手段と、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
 前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、 当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手段と、を含む。
 本発明の電子機器は、
 入力を受け付け動作を実行する電子機器であって、
 前記電子機器が有する面のうち第1面におけるタッチ操作を検出する第1検出手段と、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
 前記第1検出手段が前記第1面におけるタッチ操作を検出したタイミングと、前記第2検出手段が前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する制御手段と、を含む。
 本発明の電子機器は、
 入力を受け付け動作を実行する電子機器であって、
 前記電子機器が有する面のうち第1面におけるタッチ位置を検出する第1検出手段と、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
 前記第2検出手段が前記第2面における継続的なタッチ操作を検出している検出継続状況において前記第1検出手段が最初に検出した第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において前記第1検出手段が2回目に検出した第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手段と、を含む。
 本発明の動作制御方法は、
 入力を受け付け動作を実行する電子機器での動作制御方法であって、
 前記電子機器が有する面のうち第1面におけるタッチ位置を検出し、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
 前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する。
 本発明の動作制御方法は、
 入力を受け付け動作を実行する電子機器での動作制御方法であって、
 前記電子機器が有する面のうち第1面におけるタッチ操作を検出し、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
 前記第1面におけるタッチ操作を検出したタイミングと、前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する。
 本発明の動作制御方法は、
 入力を受け付け動作を実行する電子機器での動作制御方法であって、
 前記電子機器が有する面のうち第1面におけるタッチ位置を検出し、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
 前記第2面における継続的なタッチ操作を検出している検出継続状況において最初に検出された第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において2回目に検出された第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する。
 本発明の記録媒体は、
 コンピュータに、
 前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
 前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
 前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体である。
 本発明の記録媒体は、
 コンピュータに、
 前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
 前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
 前記第1面におけるタッチ操作を検出したタイミングと、前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体である。
 本発明の記録媒体は、
 コンピュータに、
 前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
 前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
 前記第2面における継続的なタッチ操作を検出している検出継続状況において最初に検出された第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において2回目に検出された第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体である。
 本発明によれば、タッチパネルを用いた新たな入力方式を提供することが可能になる。
本発明の一実施形態の電子機器の一例である携帯電話100の外観を示した図である。 本発明の一実施形態の電子機器の一例である携帯電話100の外観を示した図である。 携帯電話100の構成を示したブロック図である。 携帯電話100の一部分を模式的に示した図である。 入力に関する動作を説明するためのフローチャートである。 図4を用いて説明した本実施形態の操作の一例を示す図である。 タッチパネル102および104と処理部112とからなる電子機器を示した図である。 参考例を示した図である。 表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係の変化に基づいて携帯電話100への入力を特定する動作を説明するための図である。 相対的な位置関係に基づき特定できる入力の数を8にした例を示した図である。 本発明の第2実施形態の電子機器の一例である携帯電話100Aの外観を示した図である。 本発明の第2実施形態の電子機器の一例である携帯電話100Aの外観を示した図である。 携帯電話100Aの構成を示したブロック図である。 携帯電話100Aの動作を説明するためのフローチャートである。 仮想タッチ位置102Vの一例を示した図である。 検出時間差が特定時間T以内であり、かつ、タッチパネル102のタッチポイントが仮想タッチ位置に接触している状況の一例を示した図である。 タッチポイントが仮想タッチ位置に近づく状況の一例を示した図である。 タッチポイントが仮想タッチ位置から離れる状況の一例を示した図である。 タッチポイントの移動先が円周操作判定領域a0に含まれる状況の一例を示した図である。 タッチセンサ104Aの代わりにタッチパネル104A1が用いられた携帯電話100Aの一例を示した図である。 タッチセンサ104Aの代わりにハードスイッチであるハードキー104A2が携帯電話100Aの側面に設けられた例を示した図である。 本発明の第3実施形態の電子機器の一例である携帯電話100Bの構成を示したブロック図である。
 以下、本発明の実施形態について図面を参照して説明する。
 (第1実施形態)
 図1Aおよび1Bは、本発明の第1実施形態の電子機器の一例である携帯電話100の外観を示した図である。具体的には、図1Aは、携帯電話100の表側の外観を示した図であり、図1Bは、携帯電話100の裏側の外観を示した図である。
 なお、電子機器は、携帯電話に限らず適宜変更可能であり、例えば、PDA(Personal Digital Assistants)、PC(パーソナルコンピュータ)、または、ゲーム機でもよい。
 図1Aにおいて、携帯電話100の表側面100aは、第1面の一例である。
 表側面100aには、表示エリア101aと、タッチパネル102と、クリアキー103aと、決定キー103bと、メニューキー103cとが、設けられている。
 表示エリア101aは、画面の一例である。
 タッチパネル102は、第1検出手段および第1タッチパネルの一例である。タッチパネル102は、表側面100aのうち表示エリア101aに隣接する領域100a1上および表示エリア101a上に設けられている。タッチパネル102は、タッチパネル102におけるタッチ位置を検出する。
 クリアキー103aと決定キー103bとメニューキー103cとは、それぞれ、ハードキーである。
 図1Bにおいて、携帯電話100の裏側面100bは、表側面100aの裏面となる。裏側面100bは、第2面の一例である。
 裏側面100bには、タッチパネル104と、カメラ105と、LED(Light Emitting Diode)106とが、設けられている。
 タッチパネル104は、第2検出手段および第2タッチパネルの一例である。タッチパネル104は、タッチパネル104におけるタッチ操作としてタッチパネル104におけるタッチ位置を検出する。
 カメラ105は、レンズおよび撮像素子を有するカメラモジュールである。
 LED106は、カメラ105用のライトとして機能する。
 図1Aおよび1Bに示したように、携帯電話100では、タッチパネル102および104が携帯電話100の表裏の両面に搭載される。そして、携帯電話100では、表示エリア101a以外のエリア(例えば、表示エリア101aの隣接領域)も入力部として用いられる。
 図2は、携帯電話100の構成を示したブロック図である。なお、図2において、図1Aまたは1Bに示したものと同一構成のものには同一符号を付してある。
 図2において、携帯電話100は、表示部101と、タッチパネル102と、キー入力部103と、タッチパネル104と、カメラ105と、LED106と、カメラ制御部107と、LED制御部108と、送受信部109と、ROM(Read Only Memory)110と、RAM(Random Access Memory)111と、処理部112と、バス113と、を含む。
 表示部101は、図1Aに示した表示エリア101aを有し、表示エリア101a内で種々の表示を実行する。例えば、表示部101は、カメラ機能を説明するためのカメラ機能説明表示と、カメラ105が撮影している画像の表示と、カメラ105での撮影が行われた画像の確認表示と、携帯電話100の各種情報の表示と、ユーザインタフェースの表示とを、実行する。表示部101は、例えばLCD(Liquid Crystal Display)である。なお、表示部101は、LCDに限らず適宜変更可能である。
 キー入力部103は、1つ以上のハードキーを有し、ユーザから入力されたキー情報を受け取る。本実施形態では、キー入力部103は、クリアキー103aと決定キー103bとメニューキー103cとを含む。なお、キー入力部103を構成するハードキーの数および種類は3つに限らず適宜変更可能である。
 カメラ制御部107は、カメラ105の制御、および、カメラ105の出力データの受け取りを行う。
 LED制御部108は、カメラ105用のライトとして機能するLED106の点灯制御および消灯制御を行う。
 送受信部109は、移動体通信システムにおいて、基地局(不図示)とデータ(例えば、音声データや画像データ)の送受信を行う。
 ROM110は、処理部112が実行する、画像解析、タッチパネル制御、カメラ制御、LED制御などの各種制御プログラムや、タッチパネル102および104の各々がタッチされている位置関係を判断するための判断プログラムなどを保存する。
 RAM111は、処理部112が処理を行う上で必要とされる制御プログラムおよびデータを展開する領域である。
 処理部112は、制御手段の一例である。
 処理部112は、例えば、CPU(Central Processing Unit)とDSP(Digital Signal Processor)などで構成される。処理部112は、バス113を介して、携帯電話100内の各部と接続されている。
 処理部112は、ROM110内のプログラムを読み取り実行することによって、種々の機能を実現する。
 処理部112は、裏側面100bにおけるタッチ操作に応じて表側面100aまたは裏側面100bに基準位置を設定する。例えば、処理部112は、裏側面100bにおけるタッチ位置に応じて、基準位置を設定する。本実施形態では、処理部112は、裏側面100bにおけるタッチ位置を基準位置として設定する。
 なお、基準位置は、裏側面100bにおけるタッチ位置に限らない。例えば、基準位置は、表側面100aに予め設定された位置、裏側面100bに予め設定された位置、または、裏側面100bにおけるタッチ位置に応じて表側面100aに設定された位置でもよい。
 処理部112は、基準位置を設定すると、その基準位置と表側面100aにおけるタッチ位置との相対的な位置関係に基づいて、携帯電話100の動作を制御する。
 裏側面100bにおけるタッチ位置が基準位置として設定された場合、処理部112は、表側面100aにおけるユーザのタッチ位置と裏側面100bにおけるユーザのタッチ位置との相対的な位置関係に基づいて、携帯電話100の動作を制御する。
 本実施形態では、処理部112は、タッチパネル104上のユーザのタッチ位置を表すタッチパネル104の出力に基づいて基準位置を設定する。また、処理部112は、タッチパネル102上のユーザのタッチ位置を表すタッチパネル102の出力と、タッチパネル104上のユーザのタッチ位置を表すタッチパネル104の出力と、に基づいて、表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係を特定する。処理部112は、その特定された相対的な位置関係に基づいて、携帯電話100への入力を特定する。処理部112は、その特定された入力に基づいて、携帯電話100の動作を制御する。
 次に、動作を説明する。
 まず、タッチパネル104へのタッチ位置に応じて、携帯電話100の操作に関するタッチ入力を受け付けるエリアをタッチパネル102に設定する動作を説明する。
 図3は、図1Aに示した携帯電話100の一部分200のうち、タッチパネル102が存在する領域を模式的に示した図である。
 なお、タッチパネル102および104にはXY座標が設けられている。そして、タッチパネル104のXY座標は、タッチパネル102のXY座標に対して鏡面対象の関係になるように設けられている。
 図3において、タッチパネル102の裏面には、タッチパネル104が存在する。
 ここで、指301が、裏側面100bに設けられたタッチパネル104に接触したとする。図3では、指301が接触している箇所を、ポイント302として示している。
 指301がポイント302でタッチパネル104に接触すると、処理部112は、タッチパネル102において、タッチパネル104上のポイント302の座標と同じ座標にて特定されるポイント(以下「特定ポイント」と称する)を中心に、予め定められた半径で規定される円形の領域を設定する。続いて、処理部112は、その円形の領域を、特定ポイントを中心に4分割して4つの領域102a~102dを設定する(図3参照)。
 続いて、処理部112は、4つの各領域102a~102dに、携帯電話100の操作に関するタッチ入力を受け付けるエリア303~306を設定する。
 なお、表側面100aの略全域にタッチパネル102が搭載されるため、携帯電話100の操作に関するタッチ入力を感知できるエリアは広いが、ここでは説明のために4つのエリアを示す。
 続いて、処理部112は、入力ガイド307~310を表示部101に表示する。本実施形態では、4つの入力ガイドとして、Aボタン307と、Dボタン308と、Cボタン309と、Bボタン310とが、表示されることとする。
 次に、本実施形態における全体的な動作を説明する。
 図4は、本実施形態における入力判定に関する動作を説明するためのフローチャートである。
 ステップ400で、タッチ入力が開始されると、以下の処理が実行される。
 まず、ステップ401で、タッチパネル104は、裏側面100bにおいてタッチされている位置(ポイント)を検出する。以下では、裏側面100bにおいてタッチされている位置が、ポイント302であるとする。タッチパネル104は、検出結果を処理部112に通知する。
 ポイント302が確定すると、図3を用いて説明したように、処理部112は、タッチパネル102において、タッチパネル104上のポイント302の座標と同じ座標にて特定される特定ポイントを中心に、予め定められた半径で規定される円形の領域を設定する。続いて、処理部112は、タッチパネル102における円形の領域を、特定ポイントを中心に4分割して4つの領域102a~102dを設定する。続いて、処理部112は、4つの各領域102a~102dに、携帯電話100の操作に関するタッチ入力を受け付けるエリア303~306を設定する。
 続いて、ステップ402で、タッチパネル102は、表側面100aにおいてタッチされている位置(ポイント)を検出する。タッチパネル102は、検出結果を処理部112に通知する。
 以下では、処理部112は、裏側面100bでのタッチ位置と表側面100aでのタッチ位置との相対的な位置関係に基づいて携帯電話100の操作に関する入力を特定する。
 ステップ403で、裏側面100bでのタッチ位置がポイント302であり、表側面100aでのタッチ位置がエリア303であった場合、処理部112は、入力ガイド307~310のうち上側にある入力ガイド307(図3では、入力「A」)が選択されたと判断する。
 続いて、処理部112は、ステップ404で、入力ガイド307に割り付けられている入力(図3では入力「A」)を特定し、ステップ412で、タッチ入力を終了する。
 また、ステップ405で、裏側面100bでのタッチ位置がポイント302であり、表側面100aでのタッチ位置がエリア304であった場合、処理部112は、入力ガイド307~310のうち右側にある入力ガイド308(図3では、入力「D」)が選択されたと判断する。
 続いて、処理部112は、ステップ406で、入力ガイド308に割り付けられている入力(図3では入力「D」)を特定し、ステップ412で、タッチ入力を終了する。
 また、ステップ407で、裏側面100bでのタッチ位置がポイント302であり、表側面100aでのタッチ位置がエリア305であった場合、処理部112は、入力ガイド307~310のうち下側にある入力ガイド309(図3では、入力「C」)が選択されたと判断する。
 続いて、処理部112は、ステップ408で、入力ガイド309に割り付けられている入力(図3では入力「C」)を特定し、ステップ412で、タッチ入力を終了する。
 また、ステップ409で、裏側面100bでのタッチ位置がポイント302であり、表側面100aでのタッチ位置がエリア306であった場合、処理部112は、入力ガイド307~310のうち左側にある入力ガイド310(図3では、入力「B」)が選択されたと判断する。
 続いて、処理部112は、ステップ410で、入力ガイド310に割り付けられている入力(図3では入力「B」)を特定し、ステップ412で、タッチ入力を終了する。
 また、裏側面100bでのタッチ位置と表側面100aでのタッチ位置との相対的な位置関係が、ステップ403、405、407、409のいずれにも当てはまらない場合、処理部112は、ステップ411で入力なしと判定し、ステップ412でタッチ入力を終了する。
 図5は、図4を用いて説明した本実施形態の操作の一例を示す図である。
 その後、処理部112は、裏側面100bでのタッチ位置と表側面100aでのタッチ位置との相対的な位置関係に基づいて判定した入力に基づいて、携帯電話100の動作を制御する。例えば、処理部112は、その入力に基づいて、表示エリア101aの表示を変更する。
 次に、本実施形態の効果を説明する。
 本実施形態によれば、タッチパネル102は、携帯電話100の表側面100aにおけるタッチ位置を検出する。タッチパネル104は、携帯電話100の裏側面100bにおけるタッチ操作を検出する。処理部112は、裏側面100bにおけるタッチ操作に応じて表側面100aまたは裏側面100bに基準位置を設定し、その基準位置と表側面100aにおけるタッチ位置との相対的な位置関係に基づいて、携帯電話100の動作を制御する。
 本実施形態では、携帯電話100の動作を制御するために用いる入力として、裏側面100bにおけるタッチ操作に応じて設定される基準位置と、表側面100aにおけるタッチ位置と、の相対的な位置関係が用いられ、タッチ位置の絶対的な位置は考慮されない。
 よって、ユーザは、ユーザの希望する位置で入力を容易に行うことが可能となる。このため、ユーザの手の大小に合わせて入力用のタッチ位置をずらすことが可能になる。
 なお、上記効果は、タッチパネル102および104と処理部112とからなる電子機器でも奏する。図6は、タッチパネル102および104と処理部112とからなる電子機器を示した図である。
 また、本実施形態では、タッチパネル104は、裏側面100bにおけるタッチ操作として裏側面100bにおけるタッチ位置を検出する。処理部112は、裏側面100bにおけるタッチ位置に応じて基準位置を設定する。
 このため、裏側面100bにおけるタッチ位置に応じて基準位置を変更することが可能になる。
 また、タッチパネル104は、携帯電話100の裏側面100bにおけるタッチ位置を基準位置として検出する。処理部112は、表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係に基づいて、携帯電話100の動作を制御する。
 このため、表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係を変更することによって、携帯電話100の動作を変更することが可能となる。
 また、表示エリア101aに操作ボタンを表示しなくて済むため、操作ボタン以外の表示(例えば、文字や動画を表す画像)を表示エリア101aに大きく表示することが可能になる。なお、操作用のガイド表示を行う場合も考えられるが、そのガイド表示を小さくすることができ、そのガイド表示に指を重ねる必要が無いので、画面の見づらさを回避することが可能になる。
 また、ユーザは、自らの指の位置関係で、タッチパネル104上のタッチ位置とタッチパネル102上の指のタッチ位置との位置関係を確認できるため、タッチ位置のずれを、自らの指の位置関係から容易に認識することが可能になる。
 また、本実施形態では、処理部112は、表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係に基づいて携帯電話100への入力を特定し、その特定された入力に基づいて携帯電話100の動作を制御する。
 このため、携帯電話100への入力を特定するための情報として、表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係が用いられ、タッチ位置の絶対的な位置は考慮されない。よって、ユーザは、ユーザの希望する位置でタッチ入力を容易に行うことが可能となる。
 また、本実施形態では、タッチパネル102と104は、携帯電話100の表裏に面に設けられている。
 このため、ユーザは、裏側面100bに搭載されたタッチパネル104に触れている部分(たとえば、人差し指)を基準とし、その基準と表側面100aのタッチパネルに触れている部分(たとえば、親指)との位置関係を用いて入力を行うことが可能となる。
 また、本実施形態では、タッチパネル102は、表側面100aのうち、少なくとも、表示エリア101aに隣接する領域100a1に設けられている。
 このため、ユーザは、表示エリア101a以外の領域で入力用のタッチ操作を指で行うことが可能になる。よって、ユーザが表示エリア101aに表示された操作ボタンを指で操作することで表示エリア101aの表示が指で見難くなることを防ぐことが可能になる。図7は、ユーザが表示エリア101aに表示された操作ボタンを指で操作する形態の携帯電話700(参考例)を示した図である。また、表示エリア101a以外の領域で入力用のタッチ操作が行われれば、表示エリア101aを指で汚すことを防止可能となる。
 また、本実施形態では、タッチパネル102は、少なくとも、表示エリア101a上に設けられている。このため、表示エリア101a上でも携帯電話100への入力を行うことが可能になる。
 また、本実施形態によれば、図3に示したエリア303~306のように、入力エリアにある程度の範囲をもたせることができる。このことで、手の大小によらず、入力のしやすい入力I/F(インタフェース)を設定できる。また、エリア303~306が表示エリア101a外にある場合、エリア303~306を大きくしても、表示エリア101a内の他の表示の邪魔にならない。
 なお、入力I/F決定時に、ユーザが裏側面100bのタッチパネル104を一度タッチし、そのタッチ位置(基準位置)を、記憶手段として機能するRAM111が記憶し、処理部112が、タッチパネル102におけるタッチ位置とRAM111内のタッチパネル104におけるタッチ位置(基準位置)との相対的な位置関係に基づいて、携帯電話100への入力を特定してもよい。この場合は、ポイント302に相当する位置が、入力I/F決定時に固定される制御となる。
 なお、入力I/F決定時とは、入力を開始する前や、何かのハードキーを押した場合など、入力I/Fを変更するタイミングを指す。
 この場合、入力中に他の指が裏側面100bのタッチパネル104に触れてしまうことで、裏側のタッチ位置(ポイント302に相当する場所)がずれてしまうことを防ぐことができる。
 また、RAM111にタッチ位置が記憶された後、処理部112は、裏側面100bのタッチパネル104をオフにしてもよい。入力I/Fを決定するときだけ側面100bのタッチパネル104をオンすることで、消費電力を抑えることができる。
 また、上記実施形態において、処理部112は、表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係の変化に基づいて、携帯電話100への入力を特定してもよい。
 図8は、表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係の変化に基づいて携帯電話100への入力を特定する動作を説明するための図である。図8では、裏側面100bのタッチ位置を基準にした、表側面100aのタッチ位置の移動量に基づいて、入力が特定される例を示している。
 図8に示したように、裏側面100bのタッチ位置をポイント800としたとき、ポイント800との距離が大きくなる表側面100aのタッチ位置の移動801、ポイント800との距離が短くなる表側面100aのタッチ位置の移動803、表側面100aのタッチ位置の右への平行移動またはポイント800を中心とした表側面100aのタッチ位置の右への円運動802、および、表側面100aのタッチ位置の左への平行移動またはポイント800を中心とした表側面100aのタッチ位置の左への円運動804を、それぞれ、入力の方法(相対的な位置関係の変化)として用いてもよい。
 裏側面100bのタッチ位置がカメラ105などの実装と重なってしまう場合などに、この方法をとることが考えられる。
 なお、上記実施形態では、表側面100aにおけるタッチ位置と裏側面100bにおけるタッチ位置との相対的な位置関係に基づいて、4つの入力(例えば、「A」~「D」の入力)のうちのいずれかを特定する例を示したが、相対的な位置関係に基づいて特定できる入力の数は、4に限らず適宜変更可能である。
 図9は、相対的な位置関係に基づいて特定できる入力の数を8にした例を示した図である。
 また、上記実施形態において、処理部112にて特定された入力により、例えば、表示エリア101aに表示されているゲームが操作されてもよいし、表示エリア101aに表示されているブラウザでの画面スクロール等の通常の表示操作が行われてもよい。
 また、上記実施形態では、タッチパネル102に設定される特定ポイント(操作なし状態ポイント)として、タッチパネル104上のポイント302の座標と同じ座標にて特定されるポイントを用いた。
 しかしながら、特定ポイントは、タッチパネル104上のポイント302の座標から所定距離だけ座標上でずらしたポイントとしてもよい。例えば、初期設定時に、所定距離が設定され、ポイント302の座標をこの所定距離だけずらした点を、特定ポイントとする設定が行われる。
 また、特定ポイントは、ポイント302の座標を中心とした円領域としてもよい。例えば、初期設定時に、円領域である特定ポイントの半径が設定され、ポイント302の座標を中心とし、設定された半径を有する円領域を、特定ポイントとする設定が行われる。この場合、特定ポイントとして設定された領域は、操作誤操作を防ぐためのマージンとして機能する。
 また、上記実施形態では、タッチパネル104のXY座標は、タッチパネル102のXY座標に対して鏡面対象の関係になるように設けられたが、タッチパネル104のXY座標を、タッチパネル102のXY座標の鏡面対象としたものに対してある係数を掛けたものとしてもよい。この場合、タッチパネル102とタッチパネル104との大きさが異なっていても、XY座標上では、擬似的にタッチパネル102とタッチパネル104との大きさを一致させることが可能になる。
 また、上記実施形態では、処理部112は、タッチパネル104上のタッチ位置を基準にして、タッチパネル102上に携帯電話100の操作に関するタッチ入力を受け付けるエリア303~306を設定するようにしたが、処理部112は、タッチパネル102上のタッチ位置を基準にして、タッチパネル104上に携帯電話100の操作に関するタッチ入力を受け付けるエリア303~306を設定するようにしてもよい。
 なお、携帯電話100が実行するソフトウェア(アプリケーション)によるが、上記実施形態は、すばやい操作が必要なアクションゲームなどに有効と考えられる。
 また、画面を汚さない実装として、画面外でタッチパネルを操作する場合の入力方法としても利用できる。
 (第2実施形態)
 図10Aおよび10Bは、本発明の第2実施形態の電子機器の一例である携帯電話100Aの外観を示した図である。具体的には、図10Aは、携帯電話100Aの表側の外観を示した図であり、図10Bは、携帯電話100Aの裏側の外観を示した図である。なお、図10Aまたは10Bにおいて、図1Aまたは1Bに示したものと同一構成のものには同一符号を付してある。
 図10Aにおいて、携帯電話100Aの表側面100Aaは、第1面の一例である。
 表側面100Aaには、表示エリア101aと、タッチパネル102と、クリアキー103aと、決定キー103bと、メニューキー103cとが、設けられている。
 図10Bにおいて、携帯電話100Aの裏側面100Abは、表側面100Aaの裏面となる。裏側面100Abは、第2面の一例である。
 裏側面100Abには、タッチセンサ104Aと、カメラ105と、LED106とが、設けられている。
 タッチセンサ104Aは、第2検出手段の一例である。タッチセンサ104Aは、タッチセンサ104Aへのタッチ操作を検出する。
 図11は、携帯電話100Aの構成を示したブロック図である。なお、図11において、図10A、図10B、図2に示したものと同一構成のものには同一符号を付してある。
 図11において、携帯電話100Aは、表示部101と、タッチパネル102と、キー入力部103と、タッチセンサ104Aと、カメラ105と、LED106と、カメラ制御部107と、LED制御部108と、送受信部109と、ROM110と、RAM111と、処理部112Aと、バス113と、を含む。
 ROM110は、処理部112Aが実行する、画像解析、タッチパネル制御、タッチセンサ制御、カメラ制御、LED制御などの各種制御プログラムや、タッチパネル102およびタッチセンサ104Aの各々の検出結果を用いて入力を判断するための判断プログラムなどを保存する。
 RAM111は、処理部112Aが処理を行う上で必要とされる制御プログラムおよびデータを展開する領域である。
 処理部112Aは、制御手段の一例である。
 処理部112Aは、例えば、CPUとDSPなどで構成される。処理部112Aは、バス113を介して、携帯電話100A内の各部と接続されている。
 処理部112Aは、ROM110内のプログラムを読み取り実行することによって、種々の機能を実現する。
 処理部112Aは、裏側面100Abのタッチセンサ104Aへのタッチ操作(以下「裏側面100Abにおけるタッチ操作」とも称する)に応じて、表側面100Aaまたは裏側面100Abに基準位置を設定する。例えば、処理部112Aは、裏側面100Abにおけるタッチ操作に応じて、基準位置を設定する。
 本実施形態では、処理部112Aは、タッチパネル102のうちタッチセンサ104Aと対向する位置(以下「対向位置」と称する)を、基準位置として設定する。以下、タッチパネル102に設定された基準位置を「仮想タッチ位置」とも称する。なお、仮想タッチ位置は、対向位置に限らず、対向位置からずれた位置でもよい。
 処理部112Aは、仮想タッチ位置(基準位置)を設定すると、仮想タッチ位置と表側面100aにおける実際のタッチ位置との相対的な位置関係の変化に基づいて、携帯電話100Aの動作を制御する。
 本実施形態では、処理部112Aは、タッチセンサ104Aへのユーザのタッチ操作を表すタッチパネル104Aの出力に基づいて仮想タッチ位置を設定する。
 また、処理部112Aは、タッチパネル102上のユーザのタッチ位置を表すタッチパネル102の出力と、仮想タッチ位置と、に基づいて、表側面100aにおける実際のタッチ位置と仮想タッチ位置との相対的な位置関係を特定する。
 処理部112Aは、その特定された相対的な位置関係(例えば、相対的な位置関係の変化)に基づいて、携帯電話100Aへの入力を特定する。処理部112Aは、その特定された入力に基づいて、携帯電話100Aの動作を制御する。
 また、処理部112Aは、タッチパネル102がタッチ位置を検出したタイミングと、タッチセンサ104Aがタッチ操作を検出したタイミングと、の時間差に基づいて、携帯電話100Aの動作を制御する。
 次に、動作を説明する。
 図12は、携帯電話100Aの動作を説明するためのフローチャートである。
 以下では、ユーザが、携帯電話100Aを左手で持ちながら、左手人差し指でタッチセンサ104Aをタッチし、左手親指でタッチパネル102へタッチ操作を行うときの、携帯電話100Aの動作を説明する。
 なお、タッチセンサ104Aへのタッチおよびタッチパネル102へのタッチは、それぞれ、左手人差し指、左手親指に限るものではなく、適宜変更可能である。
 タッチセンサ104Aへのタッチ操作が行われると、タッチセンサ104Aは、ステップ1201で、そのタッチ操作を検出する。タッチセンサ104Aは、タッチ操作の検出結果を処理部112Aに通知する。
 処理部112Aは、タッチセンサ104Aからタッチ操作の検出結果を受け付けると、ステップ1202で、タッチパネル102上に仮想タッチ位置を設定する。
 図13は、タッチパネル102に設定された仮想タッチ位置102Vの一例を示した図である。
 また、処理部112Aは、仮想タッチ位置102の重心点を算出する。仮想タッチ位置102の重心点は、基準位置の一例でもある。
 また、タッチパネル102へのタッチ操作が行われると、タッチパネル102は、ステップ1203で、表側面100Aaにおいてタッチされている位置(以下「タッチポイント」と称する)を検出する。タッチパネル102は、タッチポイントの検出結果を処理部112Aに通知する。なお、図12では、ステップ1203がステップ1201よりも後になっているが、ステップ1203がステップ1201よりも先であってもよい。
 処理部112Aは、タッチパネル102からタッチポイントの検出結果を受け付け、タッチセンサ104Aからタッチ操作の検出結果を受け付けると、ステップ1204で、タッチポイントの検出結果の受付タイミングとタッチ操作の検出結果の受付タイミングとの時間差(以下「検出時間差」と称する)が特定時間T以内であるかを判断する。
 特定時間Tは、例えば0.5秒である。なお、特定時間Tは0.5秒に限らず適宜変更可能である。なお、特定時間Tは、予め処理部112Aに設定されている。
 検出時間差は、タッチパネル102がタッチポイントを検出したタイミングとタッチセンサ104Aがタッチ操作を検出したタイミングとの時間差を意味する。
 なお、ステップ1204で、処理部112Aは、検出時間差が特定時間T以内であり、かつ、タッチパネル102のタッチポイントが仮想タッチ位置に接触しているか、を判断してもよい。
 図14は、検出時間差が特定時間T以内であり、かつ、タッチパネル102のタッチポイントが仮想タッチ位置に接触している状況の一例を示した図である。
 図14では、左手人差し指1401でのタッチセンサ104Aへのタッチと、左手親指1402での仮想タッチ位置へのタッチと、の時間差が、特定時間T以内であるとする。
 ステップ1204で、検出時間差が特定時間T以内であると、処理部112Aは、ステップ1205で、「入力0」(例えば、スクリーンショット入力)が入力されたと判定する。例えば、処理部112Aは、スクリーンショット入力が入力されたと判定すると、表示エリア101aの表示画面を表す画像情報を保存する。
 一方、ステップ1204で、検出時間差が特定時間Tよりも長い場合、処理部112Aは、ステップ1206で、タッチパネル102に、円周操作判定領域を設定する。
 円周操作判定領域は、仮想タッチ位置の重心点を中心とし仮想タッチ位置の重心点からタッチポイントまでの距離(以下「タッチ間距離」と称する)を半径とする円の円周上をタッチポイントが移動しているか否かを判定するために用いられる。
 例えば、ステップ1206では、以下のような処理が実行させる。
 処理部112Aは、まず、タッチポイントと仮想タッチ位置の重心点とを結ぶ直線に対して、タッチポイントを中心にして時計周りで所定角度を傾いた第1直線と、タッチポイントと仮想タッチ位置の重心点とを結ぶ直線に対して、タッチポイントを中心にして反時計回りで特定角度を傾いた第2直線とを、タッチパネル102に設定する。
 所定角度および特定角度は、0度よりも大きく90度よりも小さい角度であり、例えば60度である。なお、所定角度および特定角度は、60度に限らず適宜変更可能である。また、所定角度は、特定角度と同じ角度でもよいし異なる角度でもよい。
 続いて、処理部112Aは、タッチパネル102を、第1直線と第2直線とを境界線とする4つの領域に分割する。
 続いて、処理部112Aは、4つの領域のうち、タッチポイントと仮想タッチ位置の重心点とを結ぶ直線が領域内を通らない2つの領域を、それぞれ、円周操作判定領域a1、a2として設定する。
 ステップ1206が終了すると、続いて、処理部112Aは、ステップ1207で、タッチパネル102の出力に基づいて、タッチパネル102上のタッチポイントが移動したかを判定する。
 ステップ1207で、タッチパネル102上のタッチポイントが移動していない場合には、処理部112Aは、ステップ1208で、タッチパネル102の出力およびタッチセンサ104Aの出力に基づいて、少なくともいずれかのタッチ操作が終了したかを判定する。
 ステップ1208で、少なくともいずれかのタッチ操作が終了した場合、処理部112Aは、タッチ入力判定処理を終了する。
 一方、ステップ1208で、いずれのタッチ操作も終了していない場合、処理部112Aは、処理をステップ1207に戻す。
 ステップ1207で、タッチパネル102上のタッチポイントが移動した場合には、処理部112Aは、ステップ1209で、タッチポイントの移動先が円周操作判定領域a0(円周操作判定領域a1と円周操作判定領域a2とを合わせた領域)の外であるかを判定する。
 ステップ1209で、タッチポイントの移動先が円周操作判定領域a0の外である場合、処理部112Aは、ステップ1210で、タッチポイントの移動が仮想タッチ位置に近づく移動であるかを判定する。
 図15は、タッチポイントが仮想タッチ位置に近づく状況の一例を示した図である。
 ステップ1210で、タッチポイントの移動が仮想タッチ位置に近づく移動である場合、処理部112Aは、ステップ1211で、「入力1」(例えば、縮小入力)が入力されたと判定する。例えば、処理部112Aは、縮小入力が入力されたと判定すると、表示エリア101aの表示を縮小する。この場合、処理部112Aは、タッチポイントの移動量が大きくなるほど、縮小率を大きくしてもよい。
 一方、ステップ1210で、タッチポイントの移動が仮想タッチ位置に近づく移動でない場合、つまり、タッチポイントの移動が仮想タッチ位置から離れる移動である場合、処理部112Aは、ステップ1212で、「入力2」(例えば、拡大入力)が入力されたと判定する。
 図16は、タッチポイントが仮想タッチ位置から離れる状況の一例を示した図である。
 例えば、処理部112Aは、拡大入力が入力されたと判定すると、表示エリア101aの表示を拡大する。この場合、処理部112Aは、タッチポイントの移動量が大きくなるほど、拡大率を大きくしてもよい。
 また、ステップ1209で、タッチポイントの移動先が円周操作判定領域a0に含まれる場合、処理部112Aは、ステップ1213で、タッチポイントの移動先が円周操作判定領域a1に含まれるかを判定する。
 ステップ1213で、タッチポイントの移動先が円周操作判定領域a1に含まれる場合には、処理部112Aは、ステップ1214で、「入力3」(例えば、明るさ向上入力)が入力されたと判定する。例えば、処理部112Aは、明るさ向上入力が入力されたと判定すると、表示エリア101aの表示を明るくする。この場合、処理部112Aは、タッチポイントの移動量が大きくなるほど、表示を明るくしてもよい。
 一方、ステップ1213で、タッチポイントの移動先が円周操作判定領域a1に含まれない場合、つまり、タッチポイントの移動先が円周操作判定領域a2に含まれる場合には、処理部112Aは、ステップ1215で、「入力4」(例えば、明るさ低減入力)が入力されたと判定する。例えば、処理部112Aは、明るさ低減入力が入力されたと判定すると、表示エリア101aの表示を暗くする。この場合、処理部112Aは、タッチポイントの移動量が大きくなるほど、表示を暗くしてもよい。
 図17は、タッチポイントの移動先が円周操作判定領域a0(円周操作判定領域a1と円周操作判定領域a2とを合わせた領域)に含まれる状況の一例を示した図である。
 次に、本実施形態の効果を説明する。
 本実施形態によれば、処理部112Aは、タッチセンサ104Aへのタッチ操作にて設定される仮想タッチ位置と、タッチパネル102におけるタッチ位置と、の相対的な位置関係の変化(例えば、両者が近づく、両者が離れる、タッチパネル102におけるタッチ位置の移動の軌跡が、仮想タッチ位置を中心とする円の一部(弧)を描く)に基づいて、携帯電話100への入力を特定する。
 このため、いわゆる2点タッチ入力操作を片手でも行うことが可能になり、入力の手法を増やすことが可能になる。
 また、処理部112Aは、検出時間差に基づいて、携帯電話100Aの動作を制御する。
 このため、異なる面に設けられたタッチパネル102とタッチセンサ104Aへのタッチの時間差に応じて、携帯電話100Aの動作を制御することが可能になる。したがって、片手での2点タッチ入力操作が可能になる。なお、第1実施形態においても、処理部112が、2つのタッチパネルへの各タッチの時間差に応じて、携帯電話100Aの動作を制御してもよい。
 また、本実施形態では、処理部112Aは、検出時間差が特定時間T以内である場合に、所定の入力(例えば、スクリーンショット入力)を受け付けたと判定し、その所定の入力に基づいて携帯電話100Aの動作を制御する。
 このため、例えば、タッチパネル102とタッチセンサ104Aへのタッチが同時または略同時に行われた際に、例えば携帯電話100Aを挟む操作が行われた際に、携帯電話100Aに所定の動作を行わせることが可能になる。
 なお、タッチセンサ104Aの代わりに、タッチパネルが用いられてもよい。
 図18は、タッチセンサ104Aの代わりにタッチパネル104A1が用いられた携帯電話100Aの一例を示した図である。なお、図18において、図10Aまたは10Bに示したものと同一構成のものには同一符号を付してある。
 タッチセンサ104Aの代わりに、タッチセンサ104Aよりも検出領域が広いタッチパネル104A1が用いられると、裏側面100Abのタッチ操作の検出領域を広げることが可能になる。この場合、仮想タッチ位置は、図13に示した画像タッチ位置102Vと同じ位置に設定されることが望ましい。
 また、処理部112Aは、タッチセンサ104Aまたはタッチパネル104A1がタッチ操作を検出した際に、表示部101の表示エリア101aに、タッチセンサ104Aまたはタッチパネル104A1がタッチ操作を検出している旨を表示し、タッチパネル102におけるタッチ操作が仮想タッチ位置へのタッチ操作と組み合わされた2点タッチ操作として扱われる旨、仮想タッチ位置がタッチされている旨、および/または、仮想タッチ位置を表示してもよい。
 また、タッチセンサ104Aは、裏側面100Abではなく、携帯電話100Aの表側面100Aa以外の面、例えば、携帯電話100Aの側面に設けられてもよく、また、裏側面100Abに設けられた突起状の保持部やグリップ面に設けられてもよい。
 この場合、処理部112Aは、仮想タッチ位置として、タッチパネル102上の予め定められた位置を設定し、その設定された仮想タッチ位置を表示エリア101aに表示することが望ましい。
 なお、タッチセンサ104Aが裏側面100Abに設けられている場合にも、処理部112Aは、仮想タッチ位置として、タッチパネル102上の予め定められた位置を設定し、また、仮想タッチ位置を表示エリア101aに表示してもよい。
 また、タッチセンサ104Aの代わりに、ハードスイッチが用いられてもよい。また、第1実施形態において、タッチパネル104の代わりに、マトリクス上に配置された操作位置検出用のハードスイッチが用いられてもよい。
 図19は、タッチセンサ104Aの代わりにハードスイッチであるハードキー104A2が携帯電話100Aの側面に設けられた例を示した図である。
 また、円周操作判定領域の形状は、適宜変更可能である。例えば、処理部112Aは、以下のように、円周操作判定領域を設定してもよい。
 処理部112Aは、仮想タッチ位置の重心点を中心とし仮想タッチ位置の重心点とタッチポイントとの距離を半径とする判定用基準円を、タッチパネル102に設定する。続いて、処理部112Aは、判定用基準円の円周から特定距離以内の領域を、円周操作判定領域として設定する。特定距離は、例えば3mmである。なお、特定距離は3mmに限らず適宜変更可能である。この場合、図12に示したステップ1207では、処理部112Aは、タッチパネル102上のタッチポイントが特定距離よりも動いたかを判定することが望ましい。
 環状の円周操作判定領域が設定された場合、タッチポイントが、円周操作判定領域から外れることなく仮想タッチ位置の重心点の周囲を回転することも可能になる。タッチポイントが、円周操作判定領域から外れることなく仮想タッチ位置の重心点の周囲を回転するときには、処理部112Aは、「入力3」または「入力4」の連続操作が行われていると判定してもよい。また、処理部112Aは、タッチポイントの回転方向に応じて、表示の明るさの上げ下げや、不図示のスピーカからの音量の上げ下げを行ってもよい。
 なお、図12に示した処理のうち、ステップ1204および1205が省略されてもよい。また、図12に示した処理のうち、ステップ1206から1215が省略されてもよい。
 また、図12に示したすべての処理、図12に示した処理のうちステップ1204および1205が省略された処理、または、図12に示した処理のうち、ステップ1206から1215が省略された処理を、第1実施形態の処理部112が実行してもよい。この場合、図13に示したタッチセンサ104A1の代わりに図1A、1Bに示したタッチパネル104が用いられる。
 (第3実施形態)
 図20は、本発明の第3実施形態の電子機器の一例である携帯電話100Bの構成を示したブロック図である。なお、図20において、図11に示したものと同一構成のものには同一符号を付してある。
 第3実施形態の携帯電話100Bは、処理部112Aの代わりに処理部112Bが用いられている点において、第2実施形態の携帯電話100Aと異なる。
 以下、第3実施形態の携帯電話100Bについて、第2実施形態の携帯電話100Aと異なる点を中心に説明する。
 処理部112Bは、制御手段の一例である。
 処理部112Bは、仮想タッチ位置の設定手法とタッチポイントの設定手法とが処理部112Aと異なる。
 処理部112Bは、タッチセンサ104Aが継続的なタッチ操作を検出している状況(以下「検出継続状況」と称する)において、タッチパネル102が最初に検出したタッチポイントを仮想タッチ位置として設定する。
 また、処理部112Bは、検出継続状況において、タッチパネル102への最初のタッチ操作が終了した後にタッチパネル102が新たに検出したタッチポイント(以下「新タッチポイント」とも称する)と、仮想タッチ位置と、の相対的な位置関係に基づいて、携帯電話100Bの動作を制御する。なお、新タッチポイントは、検出継続状況においてタッチパネル102が2回目に検出したタッチポイントである。
 なお、処理部112Bは、検出継続状況の終了に伴い、仮想タッチ位置の設定を終了する。
 本実施形態では、処理部112Bは、仮想タッチ位置と新タッチポイントとの相対的な位置関係の変化に基づいて、携帯電話100Bの動作を制御する。
 例えば、処理部112Bは、仮想タッチ位置を設定し新タッチポイントを検出すると、図12に示したステップ1204以降の処理を実行する。なお、新タッチポイントは、図12のステップ1203で検出されるタッチポイントとして用いられる。
 本実施形態によれば、片手での2点タッチ操作が可能になる。
 なお、各実施形態において、携帯電話100、100A、100Bは、それぞれ、コンピュータにて構成されてもよい。このコンピュータは、コンピュータにて読み取り可能な記録媒体に記録されたプログラムを読込み実行して、携帯電話100、100A、100Bが有する機能を実行する。
 以上説明した各実施形態において、図示した構成は単なる一例であって、本発明はその構成に限定されるものではない。
 上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)入力を受け付け動作を実行する電子機器であって、
 前記電子機器が有する面のうち第1面におけるタッチ位置を検出する第1検出手段と、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
 前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手段と、を含む電子機器。
 (付記2)付記1に記載の電子機器において、
 前記第2検出手段は、前記タッチ操作として前記第2面におけるタッチ位置を検出し、
 前記制御手段は、前記第2面におけるタッチ位置に応じて前記基準位置を設定する、電子機器。
 (付記3)付記2に記載の電子機器において、
 前記制御手段は、前記第2面におけるタッチ位置を前記基準位置として設定する、電子機器。
 (付記4)付記1から3のいずれか1項に記載の電子機器において、
 前記制御手段は、前記相対的な位置関係に基づいて前記電子機器への入力を特定し、当該特定された入力に基づいて前記電子機器の動作を制御する、電子機器。
 (付記5)付記1から4のいずれか1項に記載の電子機器において、
 前記第2面は、前記第1面の裏面である、電子機器。
 (付記6)付記1から5のいずれか1項に記載の電子機器において、
 前記第1検出手段は、前記第1面に設けられた第1タッチパネルであり、
 前記第2検出手段は、前記第2面に設けられた第2タッチパネル、タッチセンサまたはハードスイッチである、電子機器。
 (付記7)付記6に記載の電子機器において、
 前記第1面に画面が設けられており、
 前記第1タッチパネルは、前記第1面のうち、少なくとも、前記画面に隣接する領域に設けられている、電子機器。
 (付記8)付記6または7に記載の電子機器において、
 前記第1面に画面が設けられており、
 前記第1タッチパネルは、少なくとも、前記画面上に設けられている、電子機器。
 (付記9)付記1から8のいずれか1項に記載の電子機器において、
 前記制御手段が設定した基準位置を記憶する記憶手段をさらに含み、
 前記制御手段は、前記第1面におけるタッチ位置と前記記憶手段内の前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する、電子機器。
 (付記10)付記1から9のいずれか1項に記載の電子機器において、
 前記制御手段は、前記相対的な位置関係の変化に基づいて、前記電子機器の動作を制御する、電子機器。
 (付記11)付記1から10のいずれか1項に記載の電子機器において、
 前記制御手段は、さらに、前記第1検出手段が前記第1面におけるタッチ位置を検出したタイミングと、前記第2検出手段が前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する、電子機器。
 (付記12)付記11に記載の電子機器において、
 前記制御手段は、前記時間差が特定時間以内である場合に、所定の入力を受け付けたと判定し、当該所定の入力に基づいて前記電子機器の動作を制御する、電子機器。
 (付記13)付記1から12のいずれか1項に記載の電子機器において、
 前記第1面に画面を有する表示手段が設けられており、
 前記表示手段は、前記第2検出手段が前記第2面におけるタッチ操作を検出した場合、前記第1面におけるタッチ操作が前記基準位置へのタッチ操作と共に扱われる旨、または、前記基準位置がタッチされている旨を、表示する、電子機器。
 (付記14)入力を受け付け動作を実行する電子機器であって、
 前記電子機器が有する面のうち第1面におけるタッチ操作を検出する第1検出手段と、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
 前記第1検出手段が前記第1面におけるタッチ操作を検出したタイミングと、前記第2検出手段が前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する制御手段と、を含む電子機器。
 (付記15)付記14に記載の電子機器において、
 前記制御手段は、前記時間差が特定時間以内である場合に、所定の入力を受け付けたと判定し、当該所定の入力に基づいて前記電子機器の動作を制御する、電子機器。
 (付記16)入力を受け付け動作を実行する電子機器であって、
 前記電子機器が有する面のうち第1面におけるタッチ位置を検出する第1検出手段と、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
 前記第2検出手段が前記第2面における継続的なタッチ操作を検出している検出継続状況において前記第1検出手段が最初に検出した第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において前記第1検出手段が2回目に検出した第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手段と、を含む電子機器。
 (付記17)入力を受け付け動作を実行する電子機器での動作制御方法であって、
 前記電子機器が有する面のうち第1面におけるタッチ位置を検出し、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
 前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する動作制御方法。
 (付記18)入力を受け付け動作を実行する電子機器での動作制御方法であって、
 前記電子機器が有する面のうち第1面におけるタッチ操作を検出し、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
 前記第1面におけるタッチ操作を検出したタイミングと、前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する動作制御方法。
 (付記19)入力を受け付け動作を実行する電子機器での動作制御方法であって、
 前記電子機器が有する面のうち第1面におけるタッチ位置を検出し、
 前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
 前記第2面における継続的なタッチ操作を検出している検出継続状況において最初に検出された第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において2回目に検出された第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する動作制御方法。
 (付記20)コンピュータに、
 前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
 前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
 前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
 (付記21)コンピュータに、
 前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
 前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
 前記第1面におけるタッチ操作を検出したタイミングと、前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
 (付記22)コンピュータに、
 前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
 前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
 前記第2面における継続的なタッチ操作を検出している検出継続状況において最初に検出された第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において2回目に検出された第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
 この出願は、2011年11月29日に出願された日本出願特願2011-259969と2012年9月27日に出願された日本出願特願2012-213881を基礎とする優先権を主張し、その開示の全てをここに取り込む。
   100、100A、100B 携帯電話
   100a、100Aa 表側面
   100a1 領域
   100b、100Ab 裏側面
   101   表示部
   101a  表示エリア
   102   タッチパネル
   103   キー入力部
   103a  クリアキー
   103b  決定キー
   103c  メニューキー
   104   タッチパネル
   104A  タッチセンサ
   104A1 タッチパネル
   105   カメラ
   106   LED
   107   カメラ制御部
   108   LED制御部
   109   送受信部
   110   ROM
   111   RAM
   112、112A、112B 処理部

Claims (10)

  1.  入力を受け付け動作を実行する電子機器であって、
     前記電子機器が有する面のうち第1面におけるタッチ位置を検出する第1検出手段と、
     前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
     前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手段と、を含む電子機器。
  2.  請求項1に記載の電子機器において、
     前記制御手段は、前記相対的な位置関係の変化に基づいて、前記電子機器の動作を制御する、電子機器。
  3.  入力を受け付け動作を実行する電子機器であって、
     前記電子機器が有する面のうち第1面におけるタッチ操作を検出する第1検出手段と、
     前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
     前記第1検出手段が前記第1面におけるタッチ操作を検出したタイミングと、前記第2検出手段が前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する制御手段と、を含む電子機器。
  4.  入力を受け付け動作を実行する電子機器であって、
     前記電子機器が有する面のうち第1面におけるタッチ位置を検出する第1検出手段と、
     前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手段と、
     前記第2検出手段が前記第2面における継続的なタッチ操作を検出している検出継続状況において前記第1検出手段が最初に検出した第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において前記第1検出手段が2回目に検出した第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手段と、を含む電子機器。
  5.  入力を受け付け動作を実行する電子機器での動作制御方法であって、
     前記電子機器が有する面のうち第1面におけるタッチ位置を検出し、
     前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
     前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する、動作制御方法。
  6.  入力を受け付け動作を実行する電子機器での動作制御方法であって、
     前記電子機器が有する面のうち第1面におけるタッチ操作を検出し、
     前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
     前記第1面におけるタッチ操作を検出したタイミングと、前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する、動作制御方法。
  7.  入力を受け付け動作を実行する電子機器での動作制御方法であって、
     前記電子機器が有する面のうち第1面におけるタッチ位置を検出し、
     前記電子機器が有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出し、
     前記第2面における継続的なタッチ操作を検出している検出継続状況において最初に検出された第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において2回目に検出された第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する、動作制御方法。
  8.  コンピュータに、
     前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
     前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
     前記第2面におけるタッチ操作に応じて前記第1面または第2面に基準位置を設定し、当該基準位置と前記第1面におけるタッチ位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  9.  コンピュータに、
     前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
     前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
     前記第1面におけるタッチ操作を検出したタイミングと、前記第2面におけるタッチ操作を検出したタイミングと、の時間差に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  10.  コンピュータに、
     前記コンピュータが有する面のうち第1面におけるタッチ位置を検出する第1検出手順と、
     前記コンピュータが有する面のうち前記第1面と異なる第2面におけるタッチ操作を検出する第2検出手順と、
     前記第2面における継続的なタッチ操作を検出している検出継続状況において最初に検出された第1面におけるタッチ位置を基準位置として設定し、当該検出継続状況において2回目に検出された第1面におけるタッチ位置と前記基準位置との相対的な位置関係に基づいて、前記電子機器の動作を制御する制御手順と、を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
PCT/JP2012/077328 2011-11-29 2012-10-23 電子機器、動作制御方法および記録媒体 WO2013080704A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/357,473 US9671881B2 (en) 2011-11-29 2012-10-23 Electronic device, operation control method and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2011259969 2011-11-29
JP2011-259969 2011-11-29
JP2012-213881 2012-09-27
JP2012213881A JP2013137739A (ja) 2011-11-29 2012-09-27 電子機器、動作制御方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2013080704A1 true WO2013080704A1 (ja) 2013-06-06

Family

ID=48535175

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/077328 WO2013080704A1 (ja) 2011-11-29 2012-10-23 電子機器、動作制御方法および記録媒体

Country Status (3)

Country Link
US (1) US9671881B2 (ja)
JP (1) JP2013137739A (ja)
WO (1) WO2013080704A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3084572A4 (en) * 2013-12-19 2017-11-08 Amazon Technologies Inc. Input control assignment

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9417776B2 (en) * 2012-11-27 2016-08-16 Hanwha Techwin Co., Ltd. Media reproducing apparatus and method
JP2015049530A (ja) * 2013-08-29 2015-03-16 明広 鈴野 携帯端末
WO2015105320A1 (en) * 2014-01-07 2015-07-16 Samsung Electronics Co., Ltd. Sensor device and electronic device having the same
CN105389108A (zh) * 2015-10-16 2016-03-09 厦门美图移动科技有限公司 一种移动终端触摸操作的识别方法及装置
CN107179828B (zh) * 2017-04-27 2020-12-18 南京车链科技有限公司 一种移动终端及其控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150308A (ja) * 2001-11-15 2003-05-23 Seiko Epson Corp 表示装置
WO2009044770A1 (ja) * 2007-10-02 2009-04-09 Access Co., Ltd. 端末装置、リンク選択方法および表示プログラム
JP2011076233A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003333157A (ja) 2002-05-09 2003-11-21 Nec Corp 携帯端末装置およびプログラム
JP2007334827A (ja) 2006-06-19 2007-12-27 Sony Corp 携帯端末装置
KR101339499B1 (ko) * 2007-08-16 2013-12-10 엘지전자 주식회사 터치 스크린을 구비한 이동통신 단말기 및 그 제어방법
KR101592296B1 (ko) * 2008-09-03 2016-02-05 엘지전자 주식회사 이동 단말기 및 그의 객체 선택과 실행 방법
JP2011070609A (ja) 2009-09-28 2011-04-07 Fujitsu Ltd タッチパネル付情報端末装置、表示制御方法、および表示制御プログラム
EP2341414A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Portable electronic device and method of controlling a portable electronic device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003150308A (ja) * 2001-11-15 2003-05-23 Seiko Epson Corp 表示装置
WO2009044770A1 (ja) * 2007-10-02 2009-04-09 Access Co., Ltd. 端末装置、リンク選択方法および表示プログラム
JP2011076233A (ja) * 2009-09-29 2011-04-14 Fujifilm Corp 画像表示装置、画像表示方法およびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3084572A4 (en) * 2013-12-19 2017-11-08 Amazon Technologies Inc. Input control assignment

Also Published As

Publication number Publication date
US9671881B2 (en) 2017-06-06
US20140313153A1 (en) 2014-10-23
JP2013137739A (ja) 2013-07-11

Similar Documents

Publication Publication Date Title
JP5694867B2 (ja) 携帯端末装置、プログラムおよび表示制御方法
US9547382B2 (en) Mobile electronic device
US8854320B2 (en) Mobile type image display device, method for controlling the same and information memory medium
JP5323603B2 (ja) 画像表示装置
EP2177976B1 (en) Mobile terminal with image projection
CN104932809B (zh) 用于控制显示面板的装置和方法
KR101534282B1 (ko) 포터블 디바이스의 사용자 입력 방법 및 상기 사용자 입력 방법이 수행되는 포터블 디바이스
US8570283B2 (en) Information processing apparatus, information processing method, and program
US8775966B2 (en) Electronic device and method with dual mode rear TouchPad
KR101740439B1 (ko) 이동 단말기 및 그 제어방법
RU2541852C2 (ru) Устройство и способ для управления пользовательским интерфейсом на основе движений
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
EP2068235A2 (en) Input device, display device, input method, display method, and program
WO2013080704A1 (ja) 電子機器、動作制御方法および記録媒体
JP2015005173A (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP5429627B2 (ja) 携帯端末、携帯端末の操作方法、及び携帯端末の操作プログラム
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
CN104360813A (zh) 一种显示设备及其信息处理方法
US11354031B2 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method for controlling a scroll speed of a display screen
KR20110112942A (ko) 이동 단말기 및 그 제어방법
US20160224111A1 (en) Method for controlling touch screen by detecting position of line of sight of user
WO2013047023A1 (ja) 表示装置、表示方法およびプログラム
CN103353827A (zh) 一种显示设备及其信息处理方法
JP2013165334A (ja) 携帯端末装置
US20200033959A1 (en) Electronic apparatus, computer-readable non-transitory recording medium, and display control method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12853281

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14357473

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12853281

Country of ref document: EP

Kind code of ref document: A1