WO2013118522A1 - 携帯端末及びその動作方法 - Google Patents

携帯端末及びその動作方法 Download PDF

Info

Publication number
WO2013118522A1
WO2013118522A1 PCT/JP2013/050172 JP2013050172W WO2013118522A1 WO 2013118522 A1 WO2013118522 A1 WO 2013118522A1 JP 2013050172 W JP2013050172 W JP 2013050172W WO 2013118522 A1 WO2013118522 A1 WO 2013118522A1
Authority
WO
WIPO (PCT)
Prior art keywords
contact operation
contact
mobile terminal
unit
performs
Prior art date
Application number
PCT/JP2013/050172
Other languages
English (en)
French (fr)
Inventor
真一 板本
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US14/377,512 priority Critical patent/US9411449B2/en
Priority to EP13747217.1A priority patent/EP2813937A4/en
Publication of WO2013118522A1 publication Critical patent/WO2013118522A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1615Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function
    • G06F1/1616Constructional details or arrangements for portable computers with several enclosures having relative motions, each enclosure supporting at least one I/O or computing function with folding flat displays, e.g. laptop computers or notebooks having a clamshell configuration, with body parts pivoting to an open position around an axis parallel to the plane they define in closed position
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1647Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display
    • G06F1/1649Details related to the display arrangement, including those related to the mounting of the display in the housing including at least an additional display the additional display being independently orientable, e.g. for presenting information to a second user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • G06F1/1692Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes the I/O peripheral being a secondary touch screen used as control interface, e.g. virtual buttons or sliders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/1694Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being a single or a set of motion sensors for pointer control or gesture input obtained by sensing movements of the portable computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0266Details of the structure or mounting of specific components for a display module assembly
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/16Details of telephonic subscriber devices including more than one display unit
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a mobile terminal and an operation method thereof, and more particularly, to a mobile terminal operated using a touch panel and an operation method thereof.
  • the smartphone operates by detecting a contact operation on the information display surface, whereby the area of the information display surface can be increased, and the visibility can be improved and the amount of information can be increased.
  • one side of the mobile terminal is used as an information display surface
  • touch sensors are provided on both sides of the mobile terminal
  • a finger is moved to trace desired information on the touch sensors on both sides of the mobile terminal.
  • information displayed on the information display surface is obtained by moving a finger so as to trace desired information on the touch sensor on both sides of the mobile terminal. Since the user can select information using two fingers when holding the mobile terminal with one hand, the user moves the finger according to the information displayed on the information display surface. There is no change in the operation method using the touch panel.
  • the present invention has been made in view of the problems of the above-described technology, and can perform an operation according to a daily operation on a portable terminal that performs an input according to a contact operation.
  • An object of the present invention is to provide a portable terminal and an operation method thereof.
  • a first portable terminal provides: A first contact operation unit that is provided on the first surface of the housing and that performs a contact operation, and a second surface that is provided on a second surface opposite to the first surface of the housing and performs the contact operation.
  • a portable terminal having a contact operation unit and a control unit that performs an operation according to an input by the contact operation performed in the first and second contact operation units, When the contact operation is simultaneously performed by the first contact operation unit and the second contact operation unit, the control unit performs an operation according to a combination of the contact operations.
  • the second portable terminal according to the present invention is: Two casings are connected in a foldable manner, and each of the two casings has a contact operation unit that is provided on one surface and performs a contact operation, and is further performed by the contact operation unit.
  • a portable terminal having a control means for executing an operation according to an input by a contact operation, In the state where the two casings are folded so that the contact operation part is on the outside, the control means is configured to perform the contact operation when the contact operation is simultaneously performed in the contact operation part of the two casings. The operation according to the combination is performed.
  • the first operation method according to the present invention is as follows.
  • a first contact operation unit that is provided on the first surface of the housing and that performs a contact operation, and a second surface that is provided on a second surface opposite to the first surface of the housing and performs the contact operation.
  • An operation method of a portable terminal comprising: a contact operation unit of: and a control unit that performs an operation according to an input by the contact operation performed in the first and second contact operation units, When contact operations are simultaneously performed by the first contact operation unit and the second contact operation unit, an operation corresponding to the combination of the contact operations is executed.
  • the second operation method according to the present invention is as follows. Two casings are connected so as to be foldable, and each of the two casings has a contact operation unit that is provided on one surface and performs a contact operation, and is further performed by the contact operation unit.
  • An operation method of a portable terminal having a control means for executing an operation according to an input by a touch operation In the state where the two casings are folded so that the contact operation part is on the outside, when the contact operation is simultaneously performed in the contact operation part of the two casings, the combination of the contact operations is performed. Perform the action.
  • the present invention performs an operation according to a daily operation such as pinching or placing a virtual object (for example, icon, data, information not displayed, etc.) on a portable terminal to which an input corresponding to a contact operation is performed. It can be carried out.
  • a daily operation such as pinching or placing a virtual object (for example, icon, data, information not displayed, etc.) on a portable terminal to which an input corresponding to a contact operation is performed. It can be carried out.
  • FIG. 3 is a flowchart for explaining an example of an operation method of the mobile terminal shown in FIGS. 1 and 2.
  • FIG. 4 is a flowchart for explaining an operation method of the mobile terminal in a case where a touch operation on the touch panel passes through an end portion of the touch panel in the operation method illustrated in FIG. 3.
  • FIG. 3 shows the example of contact operation with respect to the portable terminal shown in FIG.
  • FIG. 12 It is a block diagram which shows the other example of an internal structure of the portable terminal shown in FIG. It is a flowchart for demonstrating an example of the operation
  • FIG. 12 It is a figure which shows the example of contact operation with respect to the portable terminal shown in FIG.
  • FIG. 12 It is a figure which shows other embodiment of the portable terminal of this invention, (a) is an external appearance perspective view of the state which opened two housings, (b) is an external appearance perspective view of the state which folded two housings It is.
  • FIG. 12 It is a block diagram which shows an example of an internal structure of the portable terminal shown in FIG. 12 is a flowchart for explaining an example of an operation method of the mobile terminal having the configuration shown in FIGS. 10 and 11.
  • FIG. 1A and 1B are diagrams showing an embodiment of a portable terminal according to the present invention, in which FIG. 1A is an external perspective view seen from one side, and FIG. 1B is an external perspective view seen from the other side.
  • FIG. 2 is a block diagram showing an example of the internal configuration of the mobile terminal 1 shown in FIG.
  • a touch panel 10 a, a display 20, a speaker 30, and a microphone 40 are provided on one surface serving as a first surface of a flat housing 2.
  • the touch panel 10b is provided on the second surface opposite to the first surface of the body 2 and configured.
  • a side key 50 is provided on the side surface of the housing 2.
  • the display 20 is composed of a liquid crystal or the like to become an information display unit 21 and displays information under the control of the CPU 80.
  • the touch panel 10a is provided on the display 20, and serves as a first contact operation unit 11a. A contact operation with a contact body such as a finger is performed, and the contact operation is detected.
  • the speaker 30 serves as a voice output unit 31 and outputs voice including call voice received through the communication unit 60 under the control of the CPU 80.
  • the microphone 40 serves as a voice input unit 41 and receives voice.
  • the touch panel 10b serves as the second contact operation unit 11b, and a contact operation with a contact body such as a finger is performed to detect the contact operation.
  • the side key 50 serves as a key button unit 51 and is used to input information for operating the mobile terminal 1.
  • the communication unit 60 transmits and receives information via the mobile terminal network.
  • the operation detection unit 12 determines an operation by the contact operation performed on the contact operation units 11a and 11b, and performs an input to the CPU 80 according to the operation.
  • the ringing unit 70 is composed of a buzzer or the like and outputs a sound such as a ringtone.
  • CPU 80 has a built-in memory (not shown) and controls the entire portable terminal 1, and executes an operation corresponding to the input performed by the operation detection unit 12.
  • the CPU 80 and the operation detection unit 12 constitute a control unit in the present invention.
  • FIG. 3 is a flowchart for explaining an example of an operation method of the mobile terminal 1 shown in FIGS. 1 and 2.
  • the touch operation is performed on the touch panel 10a, the contact operation is detected by the touch operation unit 11a (step 1), and at the same time, the touch operation is performed on the touch panel 10b.
  • the operation detection unit 12 determines the operation detected by the contact operation units 11a and 11b, and the touch operation on the touch panel 10a. It is determined whether or not the touch operation with respect to the touch panel 10b draws a trajectory that faces each other (step 3).
  • the trajectories facing each other are not limited to the positions and trajectories in which the touch operation on the touch panel 10a and the touch operation on the touch panel 10b are accurately opposed to each other, and the touch operation on the touch panel 10a and the touch operation on the touch panel 10b. Include those slightly deviating from the positions and trajectories facing each other.
  • the trajectory due to the contact operation is directed from the inside to the outside of the touch panels 10a and 10b. Is determined (step 4).
  • step 5 When the trajectory due to the touch operation on the touch panels 10a and 10b flicks from the inner side to the outer side of the touch panels 10a and 10b, the mobile terminal 1 is controlled among the operations of the mobile terminal 1 under the control of the CPU 80.
  • An operation that can be conceived to pick up or pick up is performed (step 5). For example, when the above-described operation is performed on one image among a plurality of images displayed as thumbnails on the display 20, the image is enlarged and displayed.
  • the mobile terminal 1 of the operations of the mobile terminal 1 is controlled by the CPU 80.
  • An operation that can be conceived to put or hold 1 is executed (step 6). For example, when the above-described operation is performed on one image among a plurality of images displayed as thumbnails on the display 20, clipping and capture are performed on the image.
  • the operation detection unit 12 performs the touch operation trajectory on the touch panel 10a and the touch operation on the touch panel 10b. It is determined whether or not each of the trajectories draws a predetermined trajectory (step 7). When a predetermined trajectory is drawn, an operation corresponding to the trajectory is executed under the control of the CPU 80. (Step 8). For example, out of a plurality of images displayed as thumbnails on the display 20, the touch panel 10a is flicked from the upper side to the lower side when the touch panel 10a is in contact with the touch panel 10a, 10b, and the touch panel 10b. If the image is flicked from the lower side to the upper side, the image is erased. Moreover, the operation
  • FIG. 4 is a diagram showing an example of a touch operation on the mobile terminal 1 shown in FIG.
  • the trajectory of the touch operation on the touch panel 10a by the thumb 3 and the trajectory of the touch operation on the touch panel 10a by the index finger 4 flick from the inside to the outside of the touch panels 10a and 10b, respectively.
  • an operation that can be conceived to pick up the portable terminal 1 is executed as described above.
  • the trajectory of the contact operation on the touch panel 10a by the thumb 3 and the trajectory of the contact operation on the touch panel 10a by the index finger 4 are flicked from the outside to the inside of the touch panels 10a and 10b, respectively.
  • an operation that can be conceived of placing the mobile terminal 1 is executed.
  • the locus of the touch operation on the touch panel 10a by the thumb 3 and the locus of the touch operation on the touch panel 10a by the index finger 4 are directed from the upper side to the lower side by the thumb 3 on the touch panel 10a.
  • the touch panel 10b when the index finger 4 is used to flick from the lower side to the upper side, as described above, the operation determined according to the locus is executed.
  • processing instead of performing processing on the image displayed at the start point of the contact operation locus, processing may be performed on the image displayed at the end point of the contact operation locus.
  • the touch operation is performed on the touch panel 10a and the contact operation is detected by the contact operation unit 11a
  • the contact operation is detected by the contact operation unit 11b without performing the contact operation on the touch panel 10b. If not, an operation corresponding to the touch operation on the touch panel 10a is executed under the control of the CPU 80 (step 9). For example, an operation corresponding to the information displayed at the contact position on the display 20 is executed.
  • Step 5 when it is determined that the locus of the touch operation on the touch panels 10a and 10b flicks from the outside to the inside of the touch panels 10a and 10b, respectively, the subsequent touch panels 10a and 10b are touched. It is also conceivable to control the operation of the mobile terminal 1 depending on whether or not the locus of the contact operation has passed through the end portions of the touch panels 10a and 10b.
  • FIG. 5 is a flowchart for explaining the operation method of the mobile terminal 1 when the touch operation on the touch panels 10a and 10b passes through the end portions of the touch panels 10a and 10b in the operation method shown in FIG. .
  • the trajectory due to the touch operation on the touch panels 10 a and 10 b flicks from the inside to the outside of the touch panels 10 a and 10 b, respectively.
  • the operation detection unit 12 determines which of the four ends of the touch panels 10a and 10b is the end that has passed through the touch operation (step 12). Under the control of the CPU 80, an operation corresponding to the end passed by the contact operation is executed (step 13).
  • FIG. 6 is a diagram illustrating an example of a contact operation on the mobile terminal 1 illustrated in FIG.
  • each of the touch panels 10a and 10b has four end portions, if the trajectory of the touch operation on the touch panels 10a and 10b passes through the left or right side end portions of the touch panels 10a and 10b, a bookmark is displayed. If the operation to be performed by the end portion through which the trajectory of the touch operation passes is set such that the object data is saved when registration is performed and the lower side end portion is passed, the passage of the touch panel 10a, 10b is performed. The operation to be executed can be varied depending on the end portion to be performed.
  • FIG. 7 is a block diagram showing another example of the internal configuration of the mobile terminal 1 shown in FIG.
  • the inclination detection unit 90 detects the inclination of the mobile terminal 1 and detects the inclination of the mobile terminal 1 by measuring the gravitational acceleration of the earth using an acceleration sensor.
  • FIG. 8 is a flowchart for explaining an example of an operation method of the mobile terminal 1 having the configuration shown in FIG.
  • the touch operation is performed on the touch panel 10a, the contact operation is detected by the touch operation unit 11a (step 21), and the touch operation is also performed on the touch panel 10b at the same time.
  • the operation detection unit 12 determines the contact position by the contact operation detected by the contact operation units 11a and 11b, and the contact position on the touch panel 10a. It is determined whether or not the contact position on the touch panel 10b is a position facing each other (step 23).
  • the CPU 80 determines whether or not the inclination of the mobile terminal 1 detected by the inclination detection unit 90 has changed. (Step 24).
  • Step 25 When there is a change in the tilt of the mobile terminal 1 detected by the tilt detection unit 90, an operation that can be conceived to lock the mobile terminal 1 is performed under the control of the CPU 80. (Step 25). For example, when the inclination of the mobile terminal 1 detected by the inclination detection unit 90 changes by 90 degrees or more, the mobile terminal 1 shifts to a lock mode that prohibits the operation of the mobile terminal 1.
  • FIG. 9 is a diagram illustrating an example of a touch operation on the mobile terminal 1 illustrated in FIG.
  • an operation according to the contact position on the touch panels 10a and 10b is executed under the control of the CPU 80 (step 26). For example, an operation corresponding to the information displayed at the contact position on the display 20 is executed.
  • the touch operation is performed on the touch panel 10a and the contact operation is detected by the contact operation unit 11a
  • the contact operation is detected by the contact operation unit 11b without performing the contact operation on the touch panel 10b. If not, an operation corresponding to the touch operation on the touch panel 10a is executed under the control of the CPU 80 (step 27). For example, an operation corresponding to the information displayed at the contact position on the display 20 is executed.
  • the acceleration sensor is not used as the inclination detection unit 90 but is used as an acceleration detection means, and the CPU 80 can execute a predetermined operation according to the magnitude and direction of the acceleration detected by the acceleration sensor. Good.
  • FIG. 10A and 10B are diagrams showing another embodiment of the portable terminal of the present invention, in which FIG. 10A is an external perspective view in a state where two casings are opened, and FIG. 10B is a state in which the two casings are folded.
  • FIG. FIG. 11 is a block diagram showing an example of the internal configuration of the mobile terminal 101 shown in FIG.
  • two flat plate-like housings 102a and 102b are connected so as to be foldable, and each of the housings 102a and 102b has a surface that is outside the folded state.
  • Displays 120a and 120b and touch panels 110a and 110b are provided.
  • a speaker 130 and a microphone 140 are provided on the surface of the housing 102a on which the display 120a and the touch panel 110a are provided, and a side key 150 is provided on a side surface of the housing 102b.
  • touch panels 110a and 110b displays 120a and 120b, speakers 130, microphones 140, and side keys 150, and touch operation units 111a and 111b, information display units 121a and 121b, an audio output unit 131, and an audio input unit 141 constituted by these touch panels.
  • the key button unit 151, the operation detection unit 112, the communication unit 160, the ringing unit 170, and the CPU 180 in the mobile terminal 101 perform the same operations as those shown in FIGS. 1 and 2.
  • FIG. 12 is a flowchart for explaining an example of an operation method of the mobile terminal 101 having the configuration shown in FIGS. 10 and 11.
  • a touch operation is performed on the touch panel 110a, the contact operation is detected by the touch operation unit 111a (step 31), and at the same time, the touch operation is also performed on the touch panel 110b.
  • the CPU 180 causes the touch panel 110a, 110b and the displays 120a, 120b to be outside as shown in FIG. It is determined whether or not it is in a folded state (step 33).
  • step 3 When the portable terminal 101 is folded so that the touch panels 110a and 110b and the displays 120a and 120b are on the outside as shown in FIG. 1B, the process proceeds to step 3.
  • the CPU 180 controls the touch panel 110a and 110b according to the touch operation (step 34). . Note that this operation is different from the operation in step 3, and accordingly, when the touch operation is performed on each of the touch panels 110 a and 110 b, the portable terminal 101 is as shown in FIG. Different operations are executed depending on the state and the state of the mobile terminal 101 as shown in FIG.
  • the mobile terminal 101 performs different operations depending on whether the mobile terminal 101 is in the state shown in FIG. 1A or the mobile terminal 101 is in the state shown in FIG.
  • operations corresponding to basic operations such as tapping, double tapping, flicking, dragging, pinching in / out, and the like are executed, and the mobile terminal 101 performs FIG.
  • an operation according to a daily operation can be executed as in the present invention.
  • the touch operation is performed on the touch panel 110a and the contact operation is detected by the contact operation unit 111a
  • the contact operation is detected by the contact operation unit 111b without performing the contact operation on the touch panel 110b. If not, an operation corresponding to the touch operation on the touch panel 110a is executed under the control of the CPU 180 (step 35). For example, an operation according to the information displayed at the contact position on the display 120a is executed.
  • the operations executed by the CPUs 80 and 180 include bookmark registration when using a browser, bookmark insertion when using an electronic book, clipboard registration and data storage when browsing data, screen capture, and storage when browsing a video.
  • new message reception, status information update on the web, communication means (WLAN, Bluetooth, etc.) switching / On / Off, call off-hook / hold / on-hook, manner mode setting, etc. can be considered.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)

Abstract

 筐体2の両面のそれぞれにタッチパネル10a,10bを有する携帯端末1において、タッチパネル10a,10bにて接触操作が同時に行われた場合、その接触操作の組み合わせに応じた動作を実行する。

Description

携帯端末及びその動作方法
 本発明は、携帯端末及びその動作方法に関し、特に、タッチパネルを用いて操作される携帯端末及びその動作方法に関する。
 近年、携帯端末としてスマートフォンの普及が著しい。スマートフォンは、情報表示面に対する接触操作を検知することによって動作するものであり、それにより、情報表示面の面積を広くすることができ、視認性の向上や情報量の拡大が図られる。
 ここで、携帯端末の一方の面を情報表示面とするとともに、携帯端末の両面にそれぞれタッチセンサーを設け、携帯端末両面のタッチセンサー上にて所望の情報をなぞるように指を動かしていくことにより、情報表示面に表示された情報を選択する技術が、特許文献1に開示されている。
特開2007-141029号公報
 上述したように、特許文献1に開示された技術においては、携帯端末の両面においてタッチセンサー上にて所望の情報をなぞるように指を動かしていくことにより、情報表示面に表示された情報を選択するものであるため、携帯端末を片手で持った場合に2本の指を用いて情報を選択することができるものの、情報表示面に表示された情報に従って指を動かすことになり、通常のタッチパネルを用いた操作方法であることに何ら変わりはない。
 本発明は、上述したような技術が有する問題点に鑑みてなされたものであって、接触操作に応じた入力が行われる携帯端末に対して日常的な動作に応じた操作を行うことができる携帯端末及びその動作方法を提供することを目的とする。
 上記目的を達成するために本発明による第1の携帯端末は、
 筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末において、
 前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする。
 また、本発明による第2の携帯端末は、
 2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部を有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末において、
 前記制御手段は、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする。
 また、本発明による第1の動作方法は、
 筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末の動作方法であって、
 前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する。
 また、本発明による第2の動作方法は、
 2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部とを有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末の動作方法であって、
 前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する。
 本発明は、接触操作に応じた入力が行われる携帯端末に対して、仮想的な対象(例えば、アイコン、データ、表示されない情報等)をつまむ、置く等といった日常的な動作に応じた操作を行うことができる。
本発明の携帯端末の実施の一形態を示す図であり、(a)は一方の面側から見た外観斜視図、(b)は他方の面から見た外観斜視図である。 図1に示した携帯端末の内部構成の一例を示すブロック図である。 図1及び図2に示した携帯端末の動作方法の一例を説明するためのフローチャートである。 図1に示した携帯端末に対する接触操作の例を示す図である。 図3に示した動作方法において、タッチパネルに対する接触操作がタッチパネルの端部を通過するものである場合の携帯端末の動作方法を説明するためのフローチャートである。 図1に示した携帯端末に対する接触操作の例を示す図である。 図1に示した携帯端末の内部構成の他の例を示すブロック図である。 図7に示した構成を有する携帯端末の動作方法の一例を説明するためのフローチャートである。 図1に示した携帯端末に対する接触操作の例を示す図である。 本発明の携帯端末の他の実施の形態を示す図であり、(a)は2つの筐体を見開いた状態の外観斜視図、(b)は2つの筐体を折り畳んだ状態の外観斜視図である。 図10に示した携帯端末の内部構成の一例を示すブロック図である。 図10及び図11に示した構成を有する携帯端末の動作方法の一例を説明するためのフローチャートである。
 以下に、本発明の実施の形態について図面を参照して説明する。
 図1は、本発明の携帯端末の実施の一形態を示す図であり、(a)は一方の面側から見た外観斜視図、(b)は他方の面から見た外観斜視図である。また、図2は、図1に示した携帯端末1の内部構成の一例を示すブロック図である。
 本形態は図1及び図2に示すように、平板状の筐体2の第1の面となる一方の面に、タッチパネル10a、ディスプレイ20、スピーカ30及びマイク40が設けられているとともに、筐体2の第1の面に対向する第2の面にタッチパネル10bが設けられて構成されている。また、筐体2の側面にはサイドキー50が設けられている。
 ディスプレイ20は、液晶等から構成されて情報表示部21となり、CPU80の制御によって情報を表示する。
 タッチパネル10aは、ディスプレイ20上に設けられており、第1の接触操作部11aとなって、指等の接触体による接触操作が行われ、その接触操作を検知する。
 スピーカ30は、音声出力部31となって、CPU80の制御によって、通信部60を介して受信した通話音声を含む音声を出力する。
 マイク40は、音声入力部41となって、音声が入力されるものである。
 タッチパネル10bは、第2の接触操作部11bとなって、指等の接触体による接触操作が行われ、その接触操作を検知する。
 サイドキー50は、キーボタン部51となって、携帯端末1を操作するための情報が入力されるものである。
 通信部60は、携帯端末網を介して情報を送受信する。
 操作検出部12は、接触操作部11a,11bに対して行われた接触操作による操作を判断し、CPU80に対してその操作に応じた入力を行う。
 鳴動部70は、ブザー等からなり、着信音等の音声を出力する。
 CPU80は、メモリ(不図示)を内蔵し、携帯端末1全体を制御するものであって、操作検出部12にて行われた入力に応じた動作を実行する。なお、このCPU80と操作検出部12とから本発明における制御手段が構成される。
 以下に、上記のように構成された携帯端末1の動作方法について説明する。
 図3は、図1及び図2に示した携帯端末1の動作方法の一例を説明するためのフローチャートである。
 図1及び図2に示した携帯端末1において、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知され(ステップ1)、同時に、タッチパネル10bに対しても接触操作が行われて接触操作部11bにて接触操作が検知されると(ステップ2)、操作検出部12において、接触操作部11a,11bにて検知された操作が判断され、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いているかどうかが判断される(ステップ3)。なお、互いに対向するような軌跡とは、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが正確に対向した位置及び軌跡であるものに限らず、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが互いに対向する位置及び軌跡に対して若干ずれているものも含む。
 タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いている場合、操作検出部12において、その接触操作による軌跡が、タッチパネル10a,10bの内側から外側に向かうものであるかどうかが判断される(ステップ4)。
 タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものである場合は、CPU80の制御によって、携帯端末1の動作のうち、携帯端末1をつまみ上げる、またはピックアップすることが想到できるような動作が実行される(ステップ5)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対して上述した操作が行われると、その画像が拡大表示される。
 また、タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものである場合は、CPU80の制御によって、携帯端末1の動作のうち、携帯端末1を置く、または押さえることが想到できるような動作が実行される(ステップ6)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対して上述した操作が行われると、その画像に対して、クリッピングやキャプチャが実行される。
 また、タッチパネル10aに対する接触操作とタッチパネル10bに対する接触操作とが、互いに対向するような軌跡を描いていない場合は、操作検出部12において、タッチパネル10aに対する接触操作の軌跡と、タッチパネル10bに対する接触操作の軌跡とが、それぞれ予め決められた軌跡を描いているかどうかが判断され(ステップ7)、予め決められた軌跡を描いている場合は、CPU80の制御によって、その軌跡に応じた動作が実行される(ステップ8)。例えば、ディスプレイ20上にサムネイル表示された複数の画像のうち、1つの画像に対してタッチパネル10a,10bに接触した状態から、タッチパネル10aに対しては上側から下側に向かってフリックし、タッチパネル10bに対しては下側から上側に向かってフリックすると、その画像が消去される。また、ブラウザが起動する動作等であってもよい。
 図4は、図1に示した携帯端末1に対する接触操作の例を示す図である。
 図4(a)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものである場合は、上述したように、携帯端末1をつまみ上げることが想到できるような動作が実行される。
 また、図4(b)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものである場合は、上述したように、携帯端末1を置くことが想到できるような動作が実行される。
 また、図4(c)に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、タッチパネル10aにおいては親指3によって上側から下側に向かってフリックするようなものであり、タッチパネル10bにおいては人差し指4によって下側から上側に向かってフリックするようなものである場合は、上述したように、その軌跡に応じて決められた動作が実行される。
 なお、上述したように、接触操作の軌跡の始点に表示された画像に対する処理を行うのではなく、接触操作の軌跡の終点に表示された画像に対する処理を行ってもよい。
 また、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知されたものの、タッチパネル10bに対しては接触操作が行われずに接触操作部11bにて接触操作が検知されなかった場合は、CPU80の制御によって、タッチパネル10aに対する接触操作に応じた動作が実行されることになる(ステップ9)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
 なお、ステップ5において、タッチパネル10a,10bに対する接触操作の軌跡が、それぞれタッチパネル10a,10bの外側から内側に向かってフリックするようなものであると判断された場合に、その後のタッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの端部を通過したかどうかによって携帯端末1の動作を制御することも考えられる。
 図5は、図3に示した動作方法において、タッチパネル10a,10bに対する接触操作がタッチパネル10a,10bの端部を通過するものである場合の携帯端末1の動作方法を説明するためのフローチャートである。
 タッチパネル10a,10bに対する接触操作による軌跡が、それぞれタッチパネル10a,10bの内側から外側に向かってフリックするようなものであって、タッチパネル10a,10bの端部を通過したことが操作検出部12にて判断された場合は(ステップ11)、操作検出部12において、接触操作によって通過した端部がタッチパネル10a,10bそれぞれの4つの端部のうちどの端部であるかが判断され(ステップ12)、CPU80の制御によって、接触操作によって通過した端部に応じた動作が実行される(ステップ13)。
 図6は、図1に示した携帯端末1に対する接触操作の例を示す図である。
 例えば、ブラウザ使用時に、図6に示すように、親指3によるタッチパネル10aに対する接触操作の軌跡と、人差し指4によるタッチパネル10aに対する接触操作の軌跡とが、タッチパネル10a,10bの上辺端部を通過した場合、ディスプレイ20に表示されているオブジェクト・ページのURLを電子メールで送信したり、引用して投稿したりする動作を実行する。
 また、タッチパネル10a,10bのそれぞれには、4つの端部が存在するため、タッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの左右いずれかの辺端部を通過した場合は、ブックマーク登録を行い、下辺端部を通過した場合は、そのオブジェクトデータの保存を行なうというように、接触操作の軌跡が通過する端部によって実行する動作を設定しておけば、タッチパネル10a,10bの通過する端部に応じて実行する動作を異ならせることができる。
 また、タッチパネル10a,10bに対する接触操作の軌跡が、タッチパネル10a,10bの端部を通過しない場合は、ステップ5における処理に移行する。
 図7は、図1に示した携帯端末1の内部構成の他の例を示すブロック図である。
 本例は図7に示すように、図2に示したものに対して傾き検知部90が新たに設けられている点が異なるものである。傾き検知部90は、携帯端末1の傾きを検知するものであって、加速度センサを用いて地球の重力加速度を計測することによって携帯端末1の傾きを検知する。
 以下に、上記のように構成された携帯端末1の動作方法について説明する。
 図8は、図7に示した構成を有する携帯端末1の動作方法の一例を説明するためのフローチャートである。
 図1に示した携帯端末1において、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知され(ステップ21)、同時に、タッチパネル10bに対しても接触操作が行われて接触操作部11bにて接触操作が検知されると(ステップ22)、操作検出部12において、接触操作部11a,11bにて検知された接触操作による接触位置が判断され、タッチパネル10aにおける接触位置とタッチパネル10bにおける接触位置とが、互いに対向する位置であるかどうかが判断される(ステップ23)。
 タッチパネル10aにおける接触位置とタッチパネル10bにおける接触位置とが、互いに対向する位置である場合、CPU80において、傾き検知部90にて検知された携帯端末1の傾きに変化が生じているかどうかが判断される(ステップ24)。
 傾き検知部90にて検知された携帯端末1の傾きに変化が生じている場合は、CPU80の制御によって、携帯端末1の動作のうち、鍵をかけることが想到できるような動作が実行される(ステップ25)。例えば、傾き検知部90にて検知された携帯端末1の傾きが90度以上変化している場合、携帯端末1の操作を禁止とするロックモードに移行する。
 図9は、図1に示した携帯端末1に対する接触操作の例を示す図である。
 図9に示すように、親指3によるタッチパネル10aの接触位置と、人差し指4によるタッチパネル10bの接触位置とが互いに対向した状態において、携帯端末1を90度以上回転させると、上述したように、携帯端末1の操作を禁止とするロックモードに移行する。
 また、傾き検知部90にて検知された携帯端末1の傾きに変化が生じていない場合は、CPU80の制御によって、タッチパネル10a,10bにおける接触位置に応じた動作が実行される(ステップ26)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
 また、タッチパネル10aに対して接触操作が行われ、接触操作部11aにて接触操作が検知されたものの、タッチパネル10bに対しては接触操作が行われずに接触操作部11bにて接触操作が検知されなかった場合は、CPU80の制御によって、タッチパネル10aに対する接触操作に応じた動作が実行されることになる(ステップ27)。例えば、ディスプレイ20上の接触位置に表示された情報に応じた動作が実行される。
 なお、加速度センサを傾き検知部90として用いるのではなく、加速度検知手段として用い、CPU80において、加速度センサにて検知された加速度の大きさ及び向きに応じて予め決められた動作を実行してもよい。
 (他の実施の形態)
 図10は、本発明の携帯端末の他の実施の形態を示す図であり、(a)は2つの筐体を見開いた状態の外観斜視図、(b)は2つの筐体を折り畳んだ状態の外観斜視図である。また、図11は、図10に示した携帯端末101の内部構成の一例を示すブロック図である。
 本形態は図10及び図11に示すように、平板状の2つの筐体102a,102bが折り畳み可能に連接したものであって、筐体102a,102bのそれぞれにおいて、折り畳み状態外側となる面にディスプレイ120a,120b及びタッチパネル110a,110bが設けられて構成されている。また、筐体102aのディスプレイ120a及びタッチパネル110aが設けられた面には、スピーカ130及びマイク140が設けられており、筐体102bの側面にはサイドキー150が設けられている。
 これらタッチパネル110a,110b、ディスプレイ120a,120b、スピーカ130、マイク140及びサイドキー150と、これらによって構成される接触操作部111a,111b、情報表示部121a,121b、音声出力部131、音声入力部141及びキーボタン部151、さらに、携帯端末101内の操作検出部112、通信部160、鳴動部170及びCPU180は、図1及び図2に示したものと同様の動作を実行する。
 以下に、上記のように構成された携帯端末101の動作方法について説明する。
 図12は、図10及び図11に示した構成を有する携帯端末101の動作方法の一例を説明するためのフローチャートである。
 図10に示した携帯端末101において、タッチパネル110aに対して接触操作が行われ、接触操作部111aにて接触操作が検知され(ステップ31)、同時に、タッチパネル110bに対しても接触操作が行われて接触操作部111bにて接触操作が検知されると(ステップ32)、CPU180において、携帯端末101が図1(b)に示したようにタッチパネル110a,110b及びディスプレイ120a,120bが外側となるように折り畳まれた状態であるかどうかが判断される(ステップ33)。
 携帯端末101が図1(b)に示したようにタッチパネル110a,110b及びディスプレイ120a,120bが外側となるように折り畳まれた状態である場合、ステップ3における処理に移行する。
 また、携帯端末101が図1(a)に示したように折り畳まれていない状態である場合は、CPU180の制御によって、タッチパネル110a,110bに対する接触操作に応じた動作が実行される(ステップ34)。なお、この動作は、ステップ3における動作とは異なり、それにより、タッチパネル110a,110bのそれぞれに対して接触操作が行われている場合に、携帯端末101が図1(a)に示したような状態と、携帯端末101が図1(b)に示したような状態とで、異なる動作が実行されることになる。
 このように、携帯端末101が図1(a)に示したような状態と、携帯端末101が図1(b)に示したような状態とで、異なる動作が実行されることで、携帯端末101が図1(b)に示したように折り畳まれていない状態においては、タップ、ダブルタップ、フリック、ドラッグ、ピンチイン/アウト等の基本操作に応じた動作を実行し、携帯端末101が図1(a)に示したように折り畳まれた状態においては、本願発明のように、日常的な動作に応じた操作を実行することができる。
 また、タッチパネル110aに対して接触操作が行われ、接触操作部111aにて接触操作が検知されたものの、タッチパネル110bに対しては接触操作が行われずに接触操作部111bにて接触操作が検知されなかった場合は、CPU180の制御によって、タッチパネル110aに対する接触操作に応じた動作が実行されることになる(ステップ35)。例えば、ディスプレイ120a上の接触位置に表示された情報に応じた動作が実行される。
 なお、上述したようにCPU80,180が実行する動作としては、ブラウザ使用時のブックマーク登録、電子書籍使用時のしおり挿入、データ閲覧時のクリップボード登録及びデータ保存、画面のキャプチャ、動画閲覧時の保存(録画)の開始・終了、データのステータス変更(未承認→承認済み等)等が考えられる。さらには、新着メッセージ受信、ウェブ上の状態情報更新、通信手段(WLAN、Bluetooth等)の切り替え・On/Off、通話のオフフック・保留・オンフック、マナーモード設定等が考えられる。
 以上、実施形態を参照して本願発明を説明したが、本願発明は、上記実施形態に限定されたものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更を行うことができる。
 この出願は、2012年2月8日に出願された日本出願特願2012-024924号公報を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 1,101  携帯端末
 2,102a,102b筐体
 3  親指
 4  人差し指
 10a,10b,110a,110b  タッチパネル
 11a,11b,111a,111b  接触操作部
 12,112  操作検出部
 13  端部
 20,120a,120b  ディスプレイ
 21,121a,121b  情報表示部
 30,130  スピーカ
 31,131  音声出力部
 40,140  マイク
 41,141  音声入力部
 50,150  サイドキー
 51,151  キーボタン部
 60,160  通信部
 70,170  鳴動部
 80,180  CPU
 90  傾き検知部

Claims (9)

  1.  筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末において、
     前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする携帯端末。
  2.  請求項1に記載の携帯端末において、
     前記制御手段は、前記第1の接触操作部に対する接触操作と前記第2の接触操作部に対する接触操作とが互いに対向するような軌跡を描いた場合、当該軌跡に応じた動作を実行する携帯端末。
  3.  請求項2に記載の携帯端末において、
     前記制御手段は、前記接触操作の軌跡が、前記第1及び第2の接触操作部のそれぞれの端部を通過した場合、当該通過した端部に応じて予め決められた動作を実行する携帯端末。
  4.  請求項1に記載の携帯端末において、
     前記携帯端末の傾きを検知する傾き検知手段を有し、
     前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われている状態において前記傾き検知手段にて検知された前記携帯端末の傾きに変化が生じた場合に、当該傾きの変化に応じて予め決められた動作を実行する携帯端末。
  5.  請求項1に記載の携帯端末において、
     前記携帯端末に加わる加速度を検知する加速度検知手段を有し、
     前記制御手段は、前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われている状態において前記加速度検知手段にて前記携帯端末に加わる加速度が検知された場合に、当該加速度の大きさ及び向きに応じて予め決められた動作を実行する携帯端末。
  6.  2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部を有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末において、
     前記制御手段は、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行することを特徴とする携帯端末。
  7.  請求項6に記載の携帯端末において、
     前記制御手段は、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、前記2つの筐体が折り畳まれていない状態と、前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態とで、異なる動作を実行する携帯端末。
  8.  筐体の第1の面に設けられ、接触操作が行われる第1の接触操作部と、筐体の前記第1の面に対向する第2の面に設けられ、接触操作が行われる第2の接触操作部と、前記第1及び第2の接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段とを有する携帯端末の動作方法であって、
     前記第1の接触操作部と前記第2の接触操作部とにて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する、携帯端末の動作方法。
  9.  2つの筐体が折り畳み可能に連接し、前記2つの筐体のそれぞれが、一方の面に設けられ、接触操作が行われる接触操作部とを有し、さらに、前記接触操作部にて行われた接触操作による入力に応じた動作を実行する制御手段を有する携帯端末の動作方法であって、
     前記2つの筐体が前記接触操作部が外側となるように折り畳まれた状態において、前記2つの筐体の接触操作部にて接触操作が同時に行われた場合、当該接触操作の組み合わせに応じた動作を実行する、携帯端末の動作方法。
PCT/JP2013/050172 2012-02-08 2013-01-09 携帯端末及びその動作方法 WO2013118522A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/377,512 US9411449B2 (en) 2012-02-08 2013-01-09 Mobile terminal and operation method therefor
EP13747217.1A EP2813937A4 (en) 2012-02-08 2013-01-09 PORTABLE DEVICE AND OPERATING METHOD THEREFOR

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-024924 2012-02-08
JP2012024924 2012-02-08

Publications (1)

Publication Number Publication Date
WO2013118522A1 true WO2013118522A1 (ja) 2013-08-15

Family

ID=48947291

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/050172 WO2013118522A1 (ja) 2012-02-08 2013-01-09 携帯端末及びその動作方法

Country Status (4)

Country Link
US (1) US9411449B2 (ja)
EP (2) EP2813937A4 (ja)
JP (1) JPWO2013118522A1 (ja)
WO (1) WO2013118522A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060568A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 検索システム、検索方法、端末装置および検索プログラム
JP2015070303A (ja) * 2013-09-26 2015-04-13 京セラ株式会社 表示装置
JPWO2015114938A1 (ja) * 2014-01-28 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11278237B2 (en) 2010-04-22 2022-03-22 Leaf Healthcare, Inc. Devices, systems, and methods for preventing, detecting, and treating pressure-induced ischemia, pressure ulcers, and other conditions
JP6192032B2 (ja) 2010-04-22 2017-09-06 リーフ ヘルスケア インコーポレイテッド 患者の生理学的状況をモニタリングするシステム
US11272860B2 (en) * 2010-04-22 2022-03-15 Leaf Healthcare, Inc. Sensor device with a selectively activatable display
US11051751B2 (en) 2010-04-22 2021-07-06 Leaf Healthcare, Inc. Calibrated systems, devices and methods for preventing, detecting, and treating pressure-induced ischemia, pressure ulcers, and other conditions
US11980449B2 (en) 2010-04-22 2024-05-14 Leaf Healthcare, Inc. Systems and methods for monitoring orientation and biometric data using acceleration data
US11369309B2 (en) 2010-04-22 2022-06-28 Leaf Healthcare, Inc. Systems and methods for managing a position management protocol based on detected inclination angle of a person
US10758162B2 (en) 2010-04-22 2020-09-01 Leaf Healthcare, Inc. Systems, devices and methods for analyzing a person status based at least on a detected orientation of the person
KR102034584B1 (ko) * 2013-06-20 2019-10-21 엘지전자 주식회사 포터블 디바이스 및 그 제어 방법
KR102156642B1 (ko) * 2013-07-30 2020-09-16 삼성전자 주식회사 휴대단말기의 락 또는 언락 제어 방법 및 장치
KR102318227B1 (ko) * 2015-01-16 2021-10-27 삼성전자주식회사 정보 표시 장치 및 방법

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007141029A (ja) 2005-11-21 2007-06-07 Matsushita Electric Ind Co Ltd 携帯情報装置
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2010257259A (ja) * 2009-04-24 2010-11-11 Kyocera Corp 携帯端末装置

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003337659A (ja) * 2002-05-20 2003-11-28 Sharp Corp 入力装置およびタッチ領域登録方法
JP4557058B2 (ja) 2007-12-07 2010-10-06 ソニー株式会社 情報表示端末、情報表示方法、およびプログラム
JP5537044B2 (ja) * 2008-05-30 2014-07-02 キヤノン株式会社 画像表示装置及びその制御方法、コンピュータプログラム
US8933874B2 (en) * 2008-09-08 2015-01-13 Patrik N. Lundqvist Multi-panel electronic device
JP5280800B2 (ja) * 2008-10-29 2013-09-04 京セラ株式会社 携帯機器、操作検出方法および操作検出プログラム
US8797279B2 (en) * 2010-05-25 2014-08-05 MCube Inc. Analog touchscreen methods and apparatus
JP5120326B2 (ja) * 2009-04-17 2013-01-16 富士通モバイルコミュニケーションズ株式会社 携帯端末
EP2341418A1 (en) * 2009-12-31 2011-07-06 Sony Computer Entertainment Europe Limited Device and method of control
US20110209098A1 (en) 2010-02-19 2011-08-25 Hinckley Kenneth P On and Off-Screen Gesture Combinations
JP5508122B2 (ja) * 2010-04-30 2014-05-28 株式会社ソニー・コンピュータエンタテインメント プログラム、情報入力装置、及びその制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007141029A (ja) 2005-11-21 2007-06-07 Matsushita Electric Ind Co Ltd 携帯情報装置
JP2009187290A (ja) * 2008-02-06 2009-08-20 Yamaha Corp タッチパネル付制御装置およびプログラム
JP2010257259A (ja) * 2009-04-24 2010-11-11 Kyocera Corp 携帯端末装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2813937A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015060568A (ja) * 2013-09-20 2015-03-30 ヤフー株式会社 検索システム、検索方法、端末装置および検索プログラム
US9922121B2 (en) 2013-09-20 2018-03-20 Yahoo Japan Corporation Search system, search method, terminal apparatus, and non-transitory computer-readable recording medium
JP2015070303A (ja) * 2013-09-26 2015-04-13 京セラ株式会社 表示装置
JPWO2015114938A1 (ja) * 2014-01-28 2017-03-23 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム

Also Published As

Publication number Publication date
JPWO2013118522A1 (ja) 2015-05-11
US20150011263A1 (en) 2015-01-08
US9411449B2 (en) 2016-08-09
EP3082032A1 (en) 2016-10-19
EP2813937A4 (en) 2016-01-20
EP2813937A1 (en) 2014-12-17

Similar Documents

Publication Publication Date Title
WO2013118522A1 (ja) 携帯端末及びその動作方法
JP5905220B2 (ja) タッチスクリーン端末機におけるメモ方法及び端末機
JP4959765B2 (ja) 携帯端末装置
KR101331346B1 (ko) 전자기기
JP5823400B2 (ja) 複数のタッチセンサを用いたui提供方法、およびこれを利用する携帯端末機
US8786562B2 (en) Mobile electronic device, control method, and storage medium storing control program
JP5606686B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP5229083B2 (ja) 情報処理装置、情報処理方法及びプログラム
KR102015913B1 (ko) 이동 단말기 및 그 제어방법
US9001151B2 (en) Mobile terminal for displaying a plurality of images during a video call and control method thereof
JP5681867B2 (ja) 携帯端末および表示方法
CN108509105B (zh) 一种应用程序管理方法和终端
JP5684621B2 (ja) 電子機器、表示制御方法及び表示制御プログラム
JP2011028603A (ja) 端末装置及びプログラム
JP4591798B2 (ja) 端末装置及びプログラム
KR20150064549A (ko) 전자 디바이스 및 전자 디바이스의 커버와 전자 디바이스에서 기능 실행 방법
KR20110028650A (ko) 사용자 인터페이스, 기능 실행 방법, 컴퓨터 판독가능한 매체 및 디바이스
JP5814821B2 (ja) 携帯端末装置、プログラムおよび画面制御方法
JP5766083B2 (ja) 携帯電子機器
WO2011093409A1 (ja) 携帯端末装置及び表示制御方法
KR20220045220A (ko) 아이콘 표시 방법 및 단말
WO2014045765A1 (ja) 携帯端末、その制御方法及びプログラム
JP6321387B2 (ja) 携帯機器、携帯機器のタッチ位置検出方法およびプログラム
KR20120036212A (ko) 이동 단말기의 화면 조작 방법
JP2015099602A (ja) 表示制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13747217

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2013747217

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2013747217

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013557438

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 14377512

Country of ref document: US