WO2012049942A1 - 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法 - Google Patents

携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法 Download PDF

Info

Publication number
WO2012049942A1
WO2012049942A1 PCT/JP2011/071068 JP2011071068W WO2012049942A1 WO 2012049942 A1 WO2012049942 A1 WO 2012049942A1 JP 2011071068 W JP2011071068 W JP 2011071068W WO 2012049942 A1 WO2012049942 A1 WO 2012049942A1
Authority
WO
WIPO (PCT)
Prior art keywords
terminal device
mobile terminal
touch panel
holding
hand
Prior art date
Application number
PCT/JP2011/071068
Other languages
English (en)
French (fr)
Inventor
中村 圭吾
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to JP2012538611A priority Critical patent/JPWO2012049942A1/ja
Priority to CN2011800469786A priority patent/CN103140822A/zh
Priority to EP11832380.7A priority patent/EP2629181A4/en
Priority to US13/822,851 priority patent/US20130215060A1/en
Publication of WO2012049942A1 publication Critical patent/WO2012049942A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1637Details related to the display arrangement, including those related to the mounting of the display in the housing
    • G06F1/1643Details related to the display arrangement, including those related to the mounting of the display in the housing the display being associated to a digitizer, e.g. laptops that can be used as penpads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/161Indexing scheme relating to constructional details of the monitor
    • G06F2200/1614Image rotation following screen orientation, e.g. switching from landscape to portrait mode
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/033Indexing scheme relating to G06F3/033
    • G06F2203/0339Touch strips, e.g. orthogonal touch strips to control cursor movement or scrolling; single touch strip to adjust parameter or to implement a row of soft keys
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a mobile terminal device such as a mobile phone or a PDA (Personal Digital Assistant), and more particularly to a mobile terminal device equipped with a touch panel for operation and a touch panel display method in the mobile terminal device.
  • a mobile terminal device such as a mobile phone or a PDA (Personal Digital Assistant)
  • PDA Personal Digital Assistant
  • the mobile terminal device may be held with the right hand and the mobile terminal device may be held with the left hand.
  • the direction of the finger touching the screen on the touch panel of the mobile terminal device changes depending on whether the mobile terminal device is held with the right hand or the left hand.
  • the display content on the screen of the mobile terminal device is partially hidden by the finger due to the finger, and the user may not be able to correctly determine the display content on the screen.
  • portable terminal devices equipped with an acceleration sensor are also known.
  • G sensor acceleration sensor
  • the acceleration sensor on the mobile terminal device, when the vertical / horizontal orientation of the mobile terminal device is switched, the upper side of the mobile terminal device (that is, the upper side where the user views the screen) It is possible to recognize and automatically switch the vertical / horizontal of the screen.
  • the screen when the user lies down and operates the mobile terminal device, the screen may be switched between vertical and horizontal in a state different from the state intended by the user.
  • the touch sensor attached to the right side or the left side of the mobile terminal device is used to detect how to hold the mobile terminal device, and the touch panel is displayed on the touch panel according to how the mobile terminal device is held.
  • a technique capable of changing the arrangement state of the displayed operation buttons is disclosed (for example, see Patent Document 1). If this technology is used, the arrangement of the operation buttons on the touch panel automatically changes so that the user can hold the mobile terminal device with either the left or right hand, so that the user can comfortably use the device.
  • the operation buttons on the touch panel can be operated.
  • sheet-like pressure sensors are attached to the left and right side surfaces and the back surface of the mobile terminal device, and the pressure sensor detects the distribution state of the contact area of the hand and outputs the pressure sensor.
  • a technique for displaying operation buttons of a touch sensor in an optimal arrangement state based on a signal is also disclosed (for example, see Patent Document 2).
  • a transparent key is superimposed on the entire surface of the display unit of the touch panel display of the mobile terminal device so that the key display area can be arbitrarily arranged, and a large number of touch sensors are provided.
  • Techniques for mobile terminal devices arranged on the left and right side surfaces and the back surface are also disclosed. Using this technology, how to hold (hold) the mobile terminal device is determined based on the number of detected touch sensors on the left and right side surfaces and the back side, and the key display area is automatically shifted according to how the mobile terminal device is held.
  • a portable terminal device that is easy to use in operation can be realized (see, for example, Patent Document 3).
  • Japanese Unexamined Patent Publication No. 2009-169820 Japanese Unexamined Patent Publication No. 2008-27183 Japanese Unexamined Patent Publication No. 2010-154090
  • a general portable terminal device that performs operations using a touch panel
  • the user determines what kind of operation the user is performing, such as one-handed operation / two-handed operation, right-handed operation / left-handed operation, etc. I can't. Therefore, for example, when performing one-handed operation, there is no operation button within the operation range of the finger, so there are cases where it is necessary to operate the touch panel using the other hand. Also, since you do not know which finger you are using to operate the touch panel, the necessary information on the touch panel is hidden behind the finger you are touching, and you need to lift your finger from the touch panel each time. In some cases, information cannot be confirmed. Furthermore, in the technology with a mechanism for determining the upward direction of the screen on the touch panel using an acceleration sensor or the like, when the user tries to operate the portable terminal device while sleeping, The screen cannot be displayed.
  • a touch sensor is mounted on the upper part of both side surfaces of the mobile terminal device, and it is determined with which hand it is held.
  • the touch panel is used well in the manner of holding the mobile terminal device as shown in FIG. 13 described in (1) and the way of holding the mobile terminal device as shown in FIG. 15 described in (3). I can't.
  • sheet-like pressure sensors are attached to the left and right side surfaces and the back surface of the mobile terminal device, and it is determined which hand is holding the mobile terminal device.
  • FIG. 15 when the portable terminal device is held with both hands, or when the portable terminal device is switched between vertical and horizontal, which direction is up, down, left and right of the portable terminal device. Cannot be determined.
  • Patent Document 3 a large number of touch sensors are arranged on the left and right side surfaces and the back surface of the mobile terminal device, and the mobile terminal device determines how to hold the mobile terminal device based on the number of detected touch sensors. Then, shift the key display area according to how you hold it.
  • the touch panel can be easily operated in accordance with various ways of holding as described in the above (1), (2), and (3). The screen cannot be displayed in a stable state.
  • the present invention has been made in view of the circumstances as described above.
  • a portable terminal device capable of operating a touch panel the touch panel screen is displayed in a state suitable for holding, and the operability of the touch panel is improved. It is an object of the present invention to provide a portable terminal device that can be improved and a touch panel display method in the portable terminal device.
  • the present invention is provided on a touch sensor serving as a user interface and a touch sensor that is attached to each of the upper, lower, left, and right side surfaces of the mobile terminal device and detects a contact state of a hand holding the mobile terminal device. Based on the formed display unit, the number and size of contact areas where the touch sensor detects the contact state, a holding method determination unit that determines how to hold the portable terminal device, and the holding method determination A portable terminal device is provided that includes a display screen generating unit that generates a display screen according to the holding method determined by the unit and displays the display screen on the display unit.
  • the present invention provides a user interface, a touch panel that recognizes that the finger has approached without touching the finger of the hand holding the mobile terminal device, and detects the contact state of the hand, and is formed on the touch panel And a holding method determining unit that determines how to hold the mobile terminal device based on the number and size of contact areas in which the touch panel detects the contact state, and the holding method determining unit includes:
  • a portable terminal device is provided that includes a display screen generating unit that generates a display screen according to the determined way of holding and displays the display screen on the display unit.
  • the touch sensors attached to the top, bottom, left, and right sides of the mobile terminal device detect the contact state of the fingers and the palm of the hand holding the mobile terminal device, and the touch sensor Based on the number and size of the contact areas where the contact state is detected, the holding method of the mobile terminal device is determined, and a display screen is generated according to the determined holding method of the mobile terminal device,
  • a display method of a touch panel in a portable terminal device that displays the display screen on a display unit formed on a touch panel serving as an interface.
  • the present invention detects a contact state of the finger and palm of the hand by recognizing that the touch panel as a user interface has approached the finger without touching the finger of the hand holding the mobile terminal device.
  • the touch screen determines the way of holding the mobile terminal device based on the number and area of contact areas where the touch state is detected, and the display screen is determined according to the determined way of holding the mobile terminal device. Is generated, and a display method of a touch panel in a mobile terminal device is provided that displays the display screen on a display unit formed on the touch panel.
  • touch sensors mounted on the top, bottom, left, and right sides of the mobile terminal device detect contact areas of fingers and palms of the hand holding the mobile terminal apparatus, and the holding method determination unit determines the number of contact areas. Based on the contact area and the size of the contact area, the various ways of holding the mobile terminal device are determined in detail, and the display screen generation unit displays the optimal screen on the display unit of the touch panel corresponding to each holding method. Yes. Therefore, since the screen is displayed on the display unit of the touch panel and provided as a user interface so that the user can operate most easily according to how to hold the mobile terminal device, a user-friendly mobile terminal device is provided. be able to.
  • FIG. 1st Embodiment of this invention it is a conceptual diagram which shows the state which has a portable terminal device with the left hand and operates the touch panel of the portable terminal device with the thumb of the left hand.
  • 1st Embodiment of this invention it is a conceptual diagram which shows the state which has a portable terminal device with the left hand and operates the touch panel of the portable terminal device with the index finger of the right hand.
  • 1st Embodiment of this invention it is a conceptual diagram which shows the state which has a portable terminal device with both hands, and operates the touch panel of the portable terminal device with the thumb of both hands. It is a figure which shows the relationship between the contact form of a touch sensor and the determination result of how to hold a portable terminal device in 1st Embodiment of this invention. It is a flowchart which shows the flow of the holding
  • 1st Embodiment of this invention it is a figure which shows an operation area effective when operating a touch panel with a thumb, and shows an operation area effective when operating with the thumb of both hands.
  • 1st Embodiment of this invention it is explanatory drawing which shows the state which sets an appropriate display prohibition area
  • 1st Embodiment of this invention it is a figure which shows the state which displays an icon avoiding the display prohibition area
  • 1st Embodiment of this invention it is a figure which shows the state which displays an icon avoiding the display prohibition area
  • 2nd Embodiment of this invention it is explanatory drawing which contacts the touch panel and judges how to hold a portable terminal device, and shows the case where the front surface of a touch panel is touched.
  • 2nd Embodiment of this invention it is explanatory drawing which contacts the touch panel and judges how to hold a portable terminal device, and shows the case where the side of a touch panel is touched.
  • the present invention relates to a portable terminal device capable of operating a touch panel, wherein touch sensors are mounted on the upper, lower, left and right side surfaces of the portable terminal device to determine whether the portable terminal device is held by the left or right hand.
  • the screen of the touch panel is displayed in a state suitable for the way of holding by accurately determining the vertical direction of the touch panel. For this reason, since the operation of the touch panel can be easily performed with the portable terminal device, the usability of the portable terminal device is further improved.
  • the mobile terminal device described in the following embodiment may be a mobile phone, for example.
  • touch sensors are mounted on the upper, lower, left, and right side surfaces of a mobile terminal device using a touch panel, and the user is based on the number and width (contact area) of fingers in contact with the touch sensors. Determines how the mobile terminal device is being held, and in accordance with how the mobile terminal device is held, it is possible to determine exactly how the mobile terminal device is to be held and operated with either hand.
  • the display content of the screen of the mobile terminal device is switched to a state that is easy to use. For this reason, the user can easily operate the portable terminal device using the touch panel in a natural operation state regardless of how the portable terminal device is held.
  • the mobile terminal device of the present embodiment determines how to hold the mobile terminal device based on the number and area of the areas where the touch sensor detects contact, and the above-mentioned Patent Documents 1, 2, It is possible to determine the holding method in more detail than the third technique and display an optimal screen on the touch panel corresponding to each holding method. Therefore, it is possible to realize a mobile terminal device that is easier to use than the related art.
  • FIG. 1 is a block diagram showing a configuration of a mobile terminal device according to an embodiment of the present invention.
  • a mobile terminal device 10 includes a CPU (central processing unit) 11 that performs processing of the mobile terminal device 10 as a whole, a display (display unit) 22 that performs screen display, a touch panel 32 that serves as a user interface, and a mobile terminal device.
  • the upper touch sensor 42, the right touch sensor 43, the lower touch sensor 44, and the left touch sensor 45 attached to the upper, right, lower, and left side surfaces 10 are mounted.
  • the CPU 11 also includes a display processing unit (display screen generation unit) 21 for controlling the content displayed on the display 22, a touch panel processing unit 31 for recognizing that the user has operated the touch panel 32, and each side surface.
  • the touch sensors 42, 43, 44, and 45 are attached to the top, bottom, left, and right side surfaces of the mobile terminal device 10, respectively, and detect the contact state of the hand that holds the mobile terminal device 10.
  • a touch panel 32 is formed on the display screen of the display (display unit) 22 to realize a function as a user interface.
  • the touch sensor processing unit (holding determination unit) 41 determines how to hold the mobile terminal device 10 and the finger based on the number and size of the contact areas where the touch sensors 42, 43, 44, 45 detect the contact state. The operation method using, and the vertical direction of the mobile terminal device are determined.
  • the display processing unit (display screen generation unit) 21 generates a display screen according to the holding method determined by the holding method determination unit, the operation method using the finger, and the vertical direction of the mobile terminal device, and displays the display screen on the display ( Display on the display unit 22.
  • FIG. 2 is a perspective view showing a state in which touch sensors 42, 43, 44, 45 are mounted on the respective side surfaces of the mobile terminal device 10 shown in FIG.
  • the upper touch sensor 42, the right touch sensor 43, the lower touch sensor 44, and the left touch sensor 45 are respectively mounted on the upper, right, lower, and left side surfaces of the mobile terminal device 10.
  • Such a touch sensor can be realized by using, for example, a pressure-sensitive sensor, a resistive film sensor, or a capacitive sensor. However, since the principle is well known, detailed description thereof is omitted here. To do.
  • FIG. 3 is a conceptual diagram showing a state in which the portable terminal device 10 is held with the left hand and the touch panel 32 of the portable terminal device 10 is operated with the thumb of the left hand in the first embodiment of the present invention.
  • reference symbol CP3L is a contact portion of the touch sensor 45 on the left side surface
  • reference symbol CP3R is a contact portion of the touch sensor 43 on the right side surface.
  • FIG. 4 is a conceptual diagram showing a state in which the portable terminal device 10 is held with the left hand and the touch panel 32 of the portable terminal device 10 is operated with the index finger of the right hand in the first embodiment of the present invention.
  • reference symbol CP4L is a contact portion of the touch sensor 45 on the left side surface
  • reference symbol CP4R is a contact portion of the touch sensor 43 on the right side surface.
  • FIG. 5 is a conceptual diagram showing a state where the portable terminal device 10 is held with both hands and the touch panel 32 of the portable terminal device 10 is operated with the thumbs of both hands in the first embodiment of the present invention.
  • FIG. 5 is a conceptual diagram showing a state where the portable terminal device 10 is held with both hands and the touch panel 32 of the portable terminal device 10 is operated with the thumbs of both hands in the first embodiment of the present invention.
  • reference symbol CP5L is a contact portion of the touch sensor 45 on the left side surface
  • reference symbol CP5R is a contact portion of the touch sensor 43 on the right side surface.
  • the range of the contact portion of the right and left fingers and the palm sensed by the right touch sensor 43 on the right side and the left touch sensor 45 on the left side of the mobile terminal device 10 is schematically shown.
  • the mobile terminal device 10 in order to hold the mobile terminal device 10 in a stable state, usually, at least two or more fingers are in contact with the area (for example, b, c, d) of the right touch sensor 43 on the right side surface. Further, since the left touch sensor 45 on the left side is not touched by the thumb, the palm part of the left hand contacts the area e of the left touch sensor 45 on the left side in a wide range.
  • a determination means for distinguishing the size of each finger (contact areas a, b, c, d) and the size of the palm (contact area e) is necessary.
  • the maximum size assumed as the contact area between the finger and the touch sensor may be R
  • the size R or less may be determined as the finger
  • the size exceeding the size R may be determined as the palm. That is, since each contact area a, b, c, d of the right touch sensor 43 is equal to or smaller than the size R, it is determined that four fingers are in contact, and the contact area e of the left touch sensor 45 is the size R. Because it exceeds, it is determined that the palm is in contact.
  • FIG. 3 shows a state in which the mobile terminal device 10 is held with the left hand, but when the mobile terminal device 10 is held with the right hand and the touch panel 32 of the mobile terminal device 10 is operated with the thumb of the right hand, FIG. 3, the right touch sensor 43 on the right side is in wide contact with the palm of the right hand, and the left touch sensor 45 on the left side is touched with two or more fingers of the four fingers other than the right thumb. Will be in a state of narrow contact.
  • the screen of the touch panel 32 can be displayed in an optimum state according to the state of each holding method.
  • FIG. 4 is a diagram showing an example of how to hold the portable terminal device 10 with the left hand and operating the touch panel 32 of the portable terminal device 10 with the index finger of the right hand.
  • the right hand may be operated with the middle finger, the ring finger, or the little finger instead of the index finger.
  • two or more fingers out of four fingers other than the thumb of the left hand are in contact with the right touch sensor 43 on the right side as in FIG. That is, as in FIG. 3, two or more contact areas among the contact areas a, b, c, and d of the right touch sensor 43 are generated.
  • the palm part of the left hand contacts the wide area e and the thumb part contacts the area f within a narrow range. If such a contact state is detected, it is determined that the mobile terminal device 10 is held with the left hand and the touch panel 32 of the mobile terminal device 10 is operated with a finger (for example, an index finger) of the right hand as shown in FIG. can do.
  • a finger for example, an index finger
  • FIG. 4 shows a state in which the portable terminal device 10 is held with the left hand, but when the portable terminal device 10 is held with the right hand and the touch panel 32 of the portable terminal device 10 is operated with the index finger of the left hand, FIG.
  • the right touch sensor 43 on the right side is in contact with the palm of the right hand and the thumb of the right hand, and the left touch sensor 45 on the left side is touched with two of the four fingers other than the right thumb. More than one finger touches.
  • FIG. 5 is a diagram showing an example of how to hold the portable terminal device 10 with both hands and operating the touch panel 32 of the portable terminal device 10 with the thumbs of both hands.
  • the right touch sensor 43 on the right side and the left touch sensor 45 on the left side are in equal contact with the left and right sides, and the left and right palms are in contact with the touch sensors 43 and 45. That is, the contact area g of the right touch sensor 43 and the contact area h of the left touch sensor 45 have substantially the same area.
  • FIG. 6 is a diagram showing the relationship between the touch sensor contact form and the determination result of how to hold the mobile terminal device in the first embodiment of the present invention. That is, this figure shows, for example, when holding the mobile terminal device 10 as shown in FIGS. 3 to 5, which hand is holding the mobile terminal device 10, which touch panel with one hand or both hands It is a figure which shows the determination result showing which part of the portable terminal device 10 is going upwards whether it is going to operate 32.
  • FIG. 6 shows, for example, when holding the mobile terminal device 10 as shown in FIGS. 3 to 5, which hand is holding the mobile terminal device 10, which touch panel with one hand or both hands It is a figure which shows the determination result showing which part of the portable terminal device 10 is going upwards whether it is going to operate 32.
  • the touch sensors 42 and 44 attached to the upper and lower side surfaces do not come into contact with fingers and palms.
  • the determination of how to hold the portable terminal device is performed only by the presence or absence of the touch of the touch sensors 43 and 45. However, depending on the user, it is also assumed that the upper and lower touch sensors 42 and 44 are touched by a finger or palm, so that the contact information of the upper and lower touch sensors 42 and 44 depends on how the portable terminal device 10 is held. Is also required.
  • the portable terminal device 10 is held with both hands, there are cases where four fingers other than the thumb are in contact with each other, or the palm is in contact with the upper parts of the left and right touch sensors 43 and 45 instead of the palm.
  • the portable terminal device 10 may store in advance the contact positions of the finger and palm with respect to the touch sensors 42, 43, 44, 45 in the up, down, left, and right directions.
  • FIG. 6 shows a method of determining how to hold and how to operate based on how the fingers and palm are in contact with the left and right touch sensors 43 and 45, respectively.
  • FIG. 6 based on how the left touch sensor 45 and the right touch sensor 43 detect the finger or the palm, respectively, the determination of how to hold the mobile terminal device 10 and the finger
  • FIG. 7 is a flowchart showing the flow of how to hold the mobile terminal device 10 according to the first embodiment of the present invention.
  • FIG. 7 shows the flow of how to hold the portable terminal device 10 in the first embodiment of the present invention.
  • the touch sensor processing unit 41 monitors the contact states of the upper touch sensor 42, the right touch sensor 43, the lower touch sensor 44, and the left touch sensor 45, and any one of the touch sensors 42, 43, 44, It is confirmed whether or not there is a change in the contact state 45 (step S11).
  • the check of the change in the contact state is repeated.
  • the holding method determination process of the mobile terminal device 10 is performed according to the table of FIG. 6 (step S12).
  • the holding method is the left hand holding
  • the operation method determination result is the right hand operation (or both-hands operation)
  • the portable terminal device 10 is determined as the lower touch sensor side in the vertical direction determination. That is, it is determined that the portable terminal device 10 is held upside down in a left-handed manner as shown in FIG.
  • step S12 when the result of the holding method determination process in step S12 cannot be determined (step S12: NO), it shows a state where the holding method of the mobile terminal device 10 is not fixed or is not normal. Therefore, the display content of the display 22 is not changed. Therefore, the process returns to the touch sensor contact state determination process in step S11 again.
  • step S12 when the result of the way determination process in step S12 is other than determination impossible (step S12: YES), the touch sensor processing unit 41 makes a determination result (respectively as shown in FIG. 6) to the display processing unit 21. According to the holding method, operation method, and vertical direction), an instruction to display a UI (user interface) for operating the touch panel 32 is given (step S13).
  • the operation method is other than the thumb operation, it is possible to easily touch any position on the screen of the touch panel 32 regardless of whether the holding method is right hand holding, left hand holding or both hands holding. Because it is possible, there is no need to limit the area of the user interface.
  • FIG. 8A and FIG. 8B are diagrams showing an operation area effective when the touch panel 32 is operated with the thumb in the first embodiment of the present invention.
  • FIG. 8A shows an effective operation area A1 when operating with the thumb of the left hand
  • FIG. 8B shows effective operation areas A1 and A2 when operating with the thumb of both hands.
  • reference symbol A2 is an effective operation area when operating with the thumb of the right hand. That is, when the touch panel 32 is operated with the thumb as shown in FIG. 3 or FIG. 5, the effective areas A1 and A2 of the touch panel 32 that can be operated with the thumb as shown in FIGS. 8A and 8B. It is necessary to create a user interface that displays buttons, tabs, and the like and allows the touch panel 32 to be operated with only one hand operation.
  • FIG. 9 is an explanatory diagram showing a state in which an appropriate display prohibition area is set according to which of the left and right hands is used to operate the touch panel 32 in the first embodiment of the present invention. That is, FIG. 9 shows a screen as to what is displayed on the display 22 according to which of the left and right hands is used to operate the touch panel 32.
  • the touch panel 32 is operated with the index finger of the right hand
  • the lower right area of the touch panel 32 is hidden behind the shadow of the index finger and cannot be seen. Therefore, when operating with the right hand, the lower right area is set as the display prohibition area A3, and the other area of the touch panel 32 is set as the display effective area A4.
  • FIG. 10A and FIG. 10B are diagrams showing a state in which icons are displayed while avoiding the display prohibited area of the touch panel 32 in the first embodiment of the present invention.
  • FIG. 10A shows the case of a left hand operation
  • FIG. 10B shows the case of a right hand operation. That is, FIGS. 10A and 10B show a specific display example of FIG. 9 and show a case where an icon of a semicircle button for performing an enlargement / reduction operation is displayed when the touch panel 32 is touched. Yes.
  • a semicircle button icon is displayed on the upper right part of the screen as shown in FIG. 10A.
  • the touch panel is operated with the right hand finger, the upper left part is displayed as shown in FIG. 10B. It is necessary to display the icon of the semicircle button.
  • touch sensors are mounted at least on the left and right sides of the mobile terminal device, how to hold the mobile terminal device and an operation method suitable for the way of holding the mobile terminal device. Can be determined.
  • it is determined how to hold the mobile terminal device and an appropriate operation method it is possible to determine states such as a thumb operation with one hand and a thumb operation with both hands. As a result, when the user holds the hand for the thumb operation, the touch panel can be appropriately operated with only the thumb if the button is displayed only within the effective area of the thumb operation.
  • the touch panel screen can be displayed in the correct orientation regardless of whether the user is standing or sleeping. .
  • the touch sensor is mounted on the top, bottom, left, and right side surfaces of the mobile terminal device, and how to hold the mobile terminal device is determined based on the detection information of the touch sensor, but the touch sensor is not necessarily mounted. There is no. Therefore, in the second embodiment, a method for determining how to hold a mobile terminal device without mounting a touch sensor on the mobile terminal device will be described.
  • FIG. 11 is an external perspective view of a mobile terminal device according to the second embodiment of the present invention.
  • the touch panel 32 mounted on the surface of the mobile terminal device 10 is used to determine how to hold the mobile terminal device 10 instead of the touch sensors on the top, bottom, left and right of the frame of the mobile terminal device 10. It is possible. Such a determination method will be described in detail below.
  • 12A and 12B are explanatory diagrams for determining how to hold the mobile terminal device 10 based on the contact portion of the touch panel 32 in the second embodiment of the present invention.
  • 12A shows a case where the front surface of the touch panel 32 is touched
  • FIG. 12B shows a case where the side surface of the touch panel 32 is touched.
  • FIG. 12A normally, when the screen of the touch panel 32 mounted on the front surface of the mobile terminal device 10 is touched with a finger, the contact state of the circular SQ1 is recognized. Further, when the side surface of the touch panel 32 of the mobile terminal device 10 is touched with a finger, the contact state of the semicircles SQ2 and SQ3 is detected as shown in FIG. 12B. Therefore, when the mobile terminal device 10 detects the contact state of the semicircular SQ2 and SQ3 as shown in FIG.
  • the resistive touch panel cannot recognize that the finger has touched unless the touch panel 32 is actually pressed, even if the finger is not in contact with the touch panel, such as a capacitive touch panel, A device that can recognize the approach is used for the touch panel 32.
  • the display method of the touch panel in a portable terminal device is the step of displaying the display screen on the display unit according to claim 10, based on the number and area of the contact areas where the touch sensor detects the contact state.
  • a display screen is generated by determining the operation method using a finger and the vertical direction of the mobile terminal device to generate a display screen, which is a user interface Display the display screen.
  • the present invention can be used for mobile terminal devices such as mobile phones and PDAs, for example. According to the present invention, it is possible to provide a portable terminal device that is convenient for the user.

Abstract

 タッチパネルの操作が可能な携帯端末装置において、持ち方に適した状態でタッチパネルに画面を表示させて、そのタッチパネルの操作性を向上させる。携帯端末装置の上下左右の側面にそれぞれ付設されたタッチセンサが、携帯端末装置を把持する手の接触状態を検出する。すると、持ち方判定部は、タッチセンサが接触状態を検出している接触領域の数および広さに基づいて、携帯端末装置の持ち方を判定する。さらに、表示画面生成部が、持ち方判定部の判定した持ち方に対応して表示画面を生成し、その表示画面をタッチパネルの表示部に表示させる。

Description

携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法
 本発明は、携帯電話機やPDA(Personal Digital Assistant)などの携帯端末装置等に関し、特に、操作用のタッチパネルを搭載した携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法に関する。
 近年、ユーザインターフェースとしてタッチパネルを搭載した携帯電話機などの携帯端末装置が増えてきている。このような携帯端末装置のタッチパネルは、画面をタッチするだけで直感的にその携帯端末装置を操作することができるので極めて便利である。ところが、ユーザ毎に携帯端末装置の持ち方はそれぞれ異なるので、タッチパネルの使い勝手も種々異なってくる。例えば、携帯端末装置の持ち方次第では、タッチする指で画面が隠れてしまったり、携帯端末装置を持っている手の指で操作するときに指がタッチパネルの目的位置に届かなかったりして、ユーザの思い通りにタッチパネルの操作ができない場合がある。したがって、必要に応じて携帯端末装置の持ち方を変えて操作を行う必要がある。
 また、タッチパネルを利用した携帯端末装置の持ち方について大きく分類すると、下記の3種類に分類することができる。すなわち、
(1)片方の手で携帯端末装置1010を持って、その手の親指でタッチパネルを操作する(例えば、図13に示すような持ち方と操作のし方)。
(2)片方の手で携帯端末装置1010を持って、もう一方の手の人差し指等でタッチパネルを操作する(例えば、図14に示すような持ち方と操作のし方)。
(3)両方の手で携帯端末装置1010を持って、両方の親指でタッチパネルを操作する(例えば、図15に示すような持ち方と操作のし方)。
 ここで、(1)で述べた図13に示すような携帯端末装置の持ち方と操作のし方や、(3)で述べた図15に示すような携帯端末装置の持ち方と操作のし方のように、携帯端末装置を持っている手の親指でタッチパネルを操作する場合は、そのタッチパネルの上部領域まで親指が届かない。このため、親指が届かないタッチパネルの場所を操作するためには、もう一方の手を利用してタッチパネルの目的の場所に接触しなければ、携帯端末装置の操作を行うことができない。
 また、(1)で述べた図13に示すような携帯端末装置の持ち方と操作のし方や、(2)で述べた図14に示すような携帯端末装置の持ち方と操作のし方の場合は、右手で携帯端末装置を持つ場合と、左手で携帯端末装置を持つ場合とがある。ところが、携帯端末装置を右手で持つ場合と左手で持つ場合とでは、その携帯端末装置のタッチパネル上の画面にタッチする指の向きが変わるため、携帯端末装置の画面の表示内容次第では、タッチする指のために携帯端末装置の画面上の表示内容が一部指で隠れてしまい、ユーザが画面の表示内容を正しく判断することができないこともある。
 さらに、加速度センサ(Gセンサ)を搭載した携帯端末装置も知られている。このように、携帯端末装置に加速度センサを搭載することで、その携帯端末装置の縦/横の向きを切り替えた場合に、携帯端末装置の上部側(すなわち、ユーザが画面を見る上部側)を認識して、画面の縦/横を自動的に切り替えることが可能になっている。ただし、この方式では、ユーザが寝転がって携帯端末装置を操作するときは、ユーザが意図する状態とは異なる状態で画面の縦/横が切り替わってしまうこともある。
 また、第1の関連技術として、携帯端末装置の右側部や左側部に付設されたタッチセンサを用いて携帯端末装置の持ち方を検知し、その携帯端末装置の持ち方に応じて、タッチパネルに表示された操作ボタンの配置状態を変更することができる技術が開示されている(例えば、特許文献1参照)。この技術を用いれば、携帯端末装置を左右どちらの手で持っても、最も使い勝手のよいように、タッチパネル上の操作ボタンの配置状態が自動的に変わるため、ユーザは使い勝手のよい状態で無理なくタッチパネル上の操作ボタンを操作することができるとされている。
 さらに、第2の関連技術として、携帯端末装置の左右側面や背面にシート状の感圧センサを付設し、この感圧センサが手の接触領域の分布状態を検出して、感圧センサの出力信号に基づいてタッチセンサの操作ボタンを最適な配置状態で表示する技術も開示されている(例えば、特許文献2参照)。
 また、第3の関連技術として、携帯端末装置のタッチパネルディスプレイの表示部に透過性のキーがほぼ全面に重畳され、キー表示領域を任意に配置できるように構成され、さらに、多数のタッチセンサが左右の側面および背面に配置された携帯端末装置の技術も開示されている。この技術を用いれば、左右の側面および背面のタッチセンサの検出個数に基づいて携帯端末装置の握られ方(持ち方)が判断され、携帯端末装置の持ち方に合わせてキー表示領域を自動シフトさせて、操作上の使い勝手が良い携帯端末装置を実現することができるとされている(例えば、特許文献3参照)。
日本特開2009-169820号公報 日本特開2008-27183号公報 日本特開2010-154090号公報
 タッチパネルを利用して操作を行う一般的な携帯端末装置においては、ユーザが、片手操作/両手操作、右手操作/左手操作など、どのような持ち方でどのような操作を行っているかを判断することができない。そのため、例えば、片手操作を行う際に指の操作範囲内に操作ボタンがないため、もう片方の手を利用してタッチパネルの操作を行わなければならない場合がある。また、左右のどちらの指でタッチパネルを操作しようとしているのかも分からないため、タッチパネル上の必要情報がタッチしようとする指の影に隠れて見えなくなり、その都度、タッチパネルから指を離さなければ必要情報を確認することができない場合もある。さらに、加速度センサなどを利用してタッチパネル上の画面の上方向を確定する仕組みを備えた技術では、ユーザが寝ている状態で携帯端末装置を操作しようとしたときに、正しい向きでタッチパネル上の画面を表示することができない。
 また、特許文献1の技術では、携帯端末装置の両側面の上部にタッチセンサを搭載し、どちらの手で持っているかを判断する。しかし、この技術では、常に片方の手の親指で必ず筐体の側面の上部をタッチしなければ、左右どちらの指で持っているかを判断することができない。したがって、前述した(1)で述べた図13に示すような携帯端末装置の持ち方や、(3)で述べた図15に示すような携帯端末装置の持ち方では、タッチパネルを上手に利用することができない。
 さらに、特許文献2の技術では、携帯端末装置の左右側面や背面にシート状の感圧センサを付設し、左右のどちらの手で携帯端末装置を持っているかを判断する。しかし、この技術では、図15に示すように携帯端末装置を両手で持っている状態や、携帯端末装置の縦/横を切り替えたときに、その携帯端末装置の上下左右がどちらの方向であるかを判定することができない。
 また、特許文献3の技術では、携帯端末装置の左右側面および背面に多数のタッチセンサが配置されており、携帯端末装置は、タッチセンサの検出個数に基づいて携帯端末装置の持ち方を判断して、持ち方に合わせてキー表示領域をシフトさせる。しかし、この技術では、(3)で述べた図15に示すような両手で携帯端末装置を持つ状態などを検出することができない。すなわち、前述の特許文献1、2、3のいずれの技術においても、前述の(1)、(2)、(3)で述べたような多様な持ち方に対応してタッチパネルを操作し易い最適な状態で画面を表示させることはできない。
 本発明は、上述のような事情に鑑みてなされたものであり、タッチパネルの操作が可能な携帯端末装置において、持ち方に適した状態でタッチパネルの画面を表示させて、そのタッチパネルの操作性を向上させることができる携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法を提供することを目的とする。
 上記目的を達成するために、本発明は、携帯端末装置の上下左右の側面にそれぞれ付設され、前記携帯端末装置を把持する手の接触状態を検出するタッチセンサと、ユーザインターフェースとなるタッチパネル上に形成された表示部と、前記タッチセンサが前記接触状態を検出している接触領域の数および広さに基づいて、前記携帯端末装置の持ち方を判定する持ち方判定部と、前記持ち方判定部が判定した前記持ち方に応じて表示画面を生成し、前記表示画面を前記表示部に表示させる表示画面生成部とを備える携帯端末装置を提供する。
 また、本発明は、ユーザインターフェースとなり、携帯端末装置を把持する手の指に接触することなく前記指が近づいたことを認識し、前記手の接触状態を検出するタッチパネルと、前記タッチパネル上に形成された表示部と、前記タッチパネルが前記接触状態を検出している接触領域の数および広さに基づいて、前記携帯端末装置の持ち方を判定する持ち方判定部と、前記持ち方判定部が判定した前記持ち方に応じて表示画面を生成し、前記表示画面を前記表示部に表示させる表示画面生成部とを備える携帯端末装置を提供する。
 また、本発明は、携帯端末装置の上下左右の側面にそれぞれ付設されているタッチセンサが、前記携帯端末装置を把持している手の指及び手のひらの接触状態を検出し、前記タッチセンサが前記接触状態を検出している接触領域の数および広さに基づいて、前記携帯端末装置の持ち方を判定し、判定された前記携帯端末装置の前記持ち方に応じて表示画面を生成し、ユーザインターフェースとなるタッチパネル上に形成された表示部に前記表示画面を表示させる携帯端末装置におけるタッチパネルの表示方法を提供する。
 また、本発明は、ユーザインターフェースとなるタッチパネルが、携帯端末装置を把持する手の指に接触することなく前記指が近づいたことを認識して、前記手の指及び手のひらの接触状態を検出し、前記タッチパネルが前記接触状態を検出している接触領域の数および広さに基づいて、前記携帯端末装置の持ち方を判定し、判定された前記携帯端末装置の前記持ち方に応じて表示画面を生成し、前記タッチパネル上に形成された表示部に前記表示画面を表示させる携帯端末装置におけるタッチパネルの表示方法を提供する。
 本発明では、携帯端末装置の上下左右の側面に搭載されたタッチセンサが、携帯端末装置を把持している手の指や手のひらの接触領域を検知し、持ち方判定部が、接触領域の数および接触領域の広さに基づいて、携帯端末装置の多様な持ち方をきめ細かに判断し、表示画面生成部が、それぞれの持ち方に対応してタッチパネルの表示部に最適な画面を表示させている。したがって、携帯端末装置の持ち方に応じて、ユーザが最も操作し易いようにタッチパネルの表示部に画面を表示させ、ユーザインターフェースとして提供しているので、ユーザにとって使い勝手のよい携帯端末装置を提供することができる。
本発明の実施形態に係る携帯端末装置の構成を示すブロック図である。 図1に示す携帯端末装置の各側面にタッチセンサが搭載されている状態を示す斜視図である。 本発明の第1実施形態において、左手で携帯端末装置を持ち、左手の親指でその携帯端末装置のタッチパネルの操作を行う状態を示す概念図である。 本発明の第1実施形態において、左手で携帯端末装置を持ち、右手の人差し指でその携帯端末装置のタッチパネルの操作を行う状態を示す概念図である。 本発明第1実施形態において、両手で携帯端末装置を持ち、両手の親指でその携帯端末装置のタッチパネルの操作を行う状態を示す概念図である。 本発明の第1実施形態における、タッチセンサの接触形態と携帯端末装置の持ち方の判定結果との関係を示す図である。 本発明の第1実施形態における携帯端末装置の持ち方判定処理の流れを示すフローチャートである。 本発明の第1実施形態において、親指でタッチパネルを操作する場合に有効な操作領域を示す図であり、左手の親指で操作する場合の有効な領域を示す。 本発明の第1実施形態において、親指でタッチパネルを操作する場合に有効な操作領域を示す図であり、両手の親指で操作する場合の有効な操作領域を示す。 本発明の第1実施形態において、左右いずれの手でタッチパネルを操作するかに応じて適正な表示禁止領域を設定する状態を示す説明図である。 本発明の第1実施形態において、タッチパネルの表示禁止領域を避けてアイコンを表示する状態を示す図であり、左手操作の場合を示す。 本発明の第1実施形態において、タッチパネルの表示禁止領域を避けてアイコンを表示する状態を示す図であり、右手操作の場合を示す。 本発明の第2実施形態に係る携帯端末装置の外観斜視図である。 本発明の第2実施形態において、タッチパネルに接触して携帯端末装置の持ち方を判断する説明図であり、タッチパネルの前面をタッチした場合を示す。 本発明の第2実施形態において、タッチパネルに接触して携帯端末装置の持ち方を判断する説明図であり、タッチパネルの側面をタッチした場合を示す。 片方の手で携帯端末装置を持って、その手の親指でタッチパネルを操作する場合の携帯端末装置の持ち方の例を示す図である。 片方の手で携帯端末装置を持って、もう一方の手の人差し指等でタッチパネルを操作する場合の携帯端末装置の持ち方の例を示す図である。 両方の手で携帯端末装置を持って、両方の親指でタッチパネルを操作する場合の携帯端末装置の持ち方の例を示す図である。
 本発明は、タッチパネルの操作が可能な携帯端末装置において、その携帯端末装置の上下左右の側面にタッチセンサを実装し、携帯端末装置を左右どちらの手で持っているかを判別し、携帯端末装置の上下方向を的確に判断して持ち方に適した状態でタッチパネルの画面を表示させるように構成されている。このため、携帯端末装置を持ってタッチパネルの操作を簡単に行うことができるので、携帯端末装置の使い勝手が一段と向上する。以下、図面を参照して、本発明に係る携帯端末装置の実施形態の幾つかについて詳細に説明する。なお、以下の実施形態で述べる携帯端末装置は、例えば携帯電話機であっても構わない。
《第1実施形態》
 本発明の実施形態では、タッチパネルを利用した携帯端末装置の上下左右の側面にタッチセンサを搭載し、それらのタッチセンサに接触している指の数や広さ(接触面積)に基づいて、ユーザが携帯端末装置をどのように持っているかを判断し、その携帯端末装置の持ち方に合わせて、携帯端末装置の上下左右方向、どちらの手で持ってどのように操作しようとしているのかを的確に判断し、使い勝手のよい状態に携帯端末装置の画面の表示内容を切り替える。このため、携帯端末装置に対してどのような持ち方をしても、ユーザは自然の操作状態でタッチパネルを利用して携帯端末装置を簡単に操作することができる。
 言い換えると、本実施形態の携帯端末装置は、タッチセンサが接触を検出している領域の数および広さに基づいて、携帯端末装置の持ち方を判定して、前述の特許文献1、2,3の技術よりさらに詳細に持ち方を判定し、それぞれの持ち方に対応してタッチパネルに最適な画面を表示することができる。したがって、関連技術よりさらに使い勝手のよい携帯端末装置を実現することが可能となる。
 まず、本発明の実施形態に係る携帯端末装置の構成について説明する。図1は、本発明の実施形態に係る携帯端末装置の構成を示すブロック図である。図1において、携帯端末装置10は、携帯端末装置10全体の処理を行うCPU(中央処理装置)11、画面表示を行うディスプレイ(表示部)22、ユーザインターフェースとなるタッチパネル32、および、携帯端末装置10の上、右、下、左の各側面に付設された上タッチセンサ42、右タッチセンサ43、下タッチセンサ44、左タッチセンサ45を搭載している。また、CPU11は、ディスプレイ22に表示する内容を制御するための表示処理部(表示画面生成部)21、ユーザがタッチパネル32を操作したことを認識するためのタッチパネル処理部31、および、各側面のタッチセンサ42、43、44、45を触ったことを認識するためのタッチセンサ処理部(持ち方判定部)41を搭載している。
 携帯端末装置10の主要な構成要素についてさらに詳しく説明する。タッチセンサ42、43、44、45は、携帯端末装置10の上下左右の側面にそれぞれ付設されていて、その携帯端末装置10を把持する手の接触状態の検出を行う。ディスプレイ(表示部)22の表示画面上には、タッチパネル32が形成されていてユーザインターフェースとしての機能を実現する。タッチセンサ処理部(持ち方判定部)41は、タッチセンサ42、43、44、45が接触状態を検出している接触領域の数および広さに基づいて、携帯端末装置10の持ち方、指を用いた操作方法、および携帯端末装置の上下方向を判定する。表示処理部(表示画面生成部)21は持ち方判定部が判定した持ち方、指を用いた操作方法、および携帯端末装置の上下方向に応じて表示画面を生成し、その表示画面をディスプレイ(表示部)22に表示させる。
 図2は、図1に示す携帯端末装置10の各側面にタッチセンサ42、43、44、45が搭載されている状態を示す斜視図である。図2に示すように、上タッチセンサ42、右タッチセンサ43、下タッチセンサ44、および左タッチセンサ45は、それぞれ、携帯端末装置10の上、右、下、左の各側面に搭載されている。このようなタッチセンサは、例えば、感圧式センサ、抵抗膜式センサ、または静電容量式センサなどを用いて実現することができるが、それらの原理は周知であるのでここでは詳細な説明は省略する。
 次に、図1および図2に示す携帯端末装置10が、どのような動作に従って携帯端末装置10の持ち方を判断するかについて、図3、図4、図5を参照して詳細に説明する。図3は、本発明の第1実施形態において、左手で携帯端末装置10を持ち、左手の親指でその携帯端末装置10のタッチパネル32の操作を行う状態を示す概念図である。なお、図3において、参照符号CP3Lは左側面にあるタッチセンサ45の接触部分であり、参照符号CP3Rは右側面にあるタッチセンサ43の接触部分である。また、図4は、本発明の第1実施形態において、左手で携帯端末装置10を持ち、右手の人差し指でその携帯端末装置10のタッチパネル32の操作を行う状態を示す概念図である。なお、図4において、参照符号CP4Lは左側面にあるタッチセンサ45の接触部分であり、参照符号CP4Rは右側面にあるタッチセンサ43の接触部分である。さらに、図5は、本発明の第1実施形態において、両手で携帯端末装置10を持ち、両手の親指でその携帯端末装置10のタッチパネル32の操作を行う状態を示す概念図である。なお、図5において、参照符号CP5Lは左側面にあるタッチセンサ45の接触部分であり、参照符号CP5Rは右側面にあるタッチセンサ43の接触部分である。また、各図では、携帯端末装置10の右側面の右タッチセンサ43と左側面の左タッチセンサ45が感知する左右の指および手のひらの接触部分の範囲を模式的に示している。
 図3に示すように、左手で携帯端末装置10を持つ場合は、左手の親指以外の4本の指は、携帯端末装置10の右側面でその携帯端末装置10を支える状態となる。このため、4本の指が携帯端末装置10の右側面の右タッチセンサ43の領域a,b,c,dに接触する。ただし、携帯端末装置10のサイズおよびユーザの持ち方次第では、左手の親指以外の4本の指が全て携帯端末装置10の右側面の右タッチセンサ43の領域a,b,c,dに接触するとは限らない。しかし、携帯端末装置10を安定した状態で持つためには、通常は最低限2本以上の指が右側面の右タッチセンサ43の領域(例えば、b、c、d)に接触する。また、左側面の左タッチセンサ45には親指はタッチしないため、左手の手のひら部分が広範囲に左側面の左タッチセンサ45の領域eに接触する。
 そこで、右タッチセンサ43と左タッチセンサ45の各タッチセンサにおいて各指のサイズ(各接触面積a,b,c,d)と手のひらのサイズ(接触面積e)を区別するための判定手段が必要となるが、本発明の第1実施形態では、この判定手段はどのような手法を用いても構わない。例えば、指とタッチセンサとの接触面積として想定される最大サイズをRとし、サイズR以下を指、サイズRを越えるサイズを手のひらとして判定する方法を採ることができる。すなわち、右タッチセンサ43の各接触面積a,b,c,dはサイズR以下であるので、4本の指が接触していると判定し、左タッチセンサ45の接触面積eはサイズRを越えるので、手のひらが接触していると判定する。
 なお、図3では左手で携帯端末装置10を持っている状態を示しているが、右手で携帯端末装置10を持ち、右手の親指で携帯端末装置10のタッチパネル32の操作を行う場合は、図3において左右が反対となり、右側面の右タッチセンサ43には右手の手のひら部分が広く接触し、左側面の左タッチセンサ45には右手の親指以外の4本の指のうち2本以上の指が狭く接触する状態となる。
 このため、ユーザが携帯端末装置10を左手で持って左手の親指でタッチパネル32を操作しようとしているのか、右手で持って右手の親指でタッチパネル32を操作しようとしているのかを判断することができる。したがって、それぞれの持ち方の状態に応じてタッチパネル32の画面を最適な状態に表示させることができる。
 図4は、左手で携帯端末装置10を持ち、右手の人差し指でその携帯端末装置10のタッチパネル32を操作する場合の持ち方の例を示す図である。ただし、右手は人差し指でなくて、中指、薬指、または小指でタッチパネル32を操作しても構わない。このような持ち方の場合は、右側面の右タッチセンサ43には、図3と同様に左手の親指以外の4本の指のうち2本以上の指が接触する。すなわち、図3と同様に、右タッチセンサ43の各接触面積a,b,c,dのうち2箇所以上の接触面積が発生する。
 一方、左側面の左タッチセンサ45には左手の手のひらだけではなく、左手の親指も接触する。すなわち、図3とは異なり、左側面の左タッチセンサ45では、左手の手のひら部分が、広い範囲の領域eに接触すると共に、親指の部分が狭い範囲で領域fに接触する。このような接触状態を検出すれば、図4に示すように、左手で携帯端末装置10を持ち、右手の指(例えば、人差し指)でその携帯端末装置10のタッチパネル32を操作していると判断することができる。
 なお、図4では左手で携帯端末装置10を持っている状態を示しているが、右手で携帯端末装置10を持ち、左手の人差し指でその携帯端末装置10のタッチパネル32を操作する場合、図4における左右が反対になり、右側面の右タッチセンサ43には右手の手のひら部分と右手の親指が接触し、左側面の左タッチセンサ45には、右手の親指以外の4本の指のうち2本以上の指が接触する。
 このため、ユーザが携帯端末装置10を左手で持って右手の指で操作しようとしているのか、右手で持って左手の指で操作しようとしているのかを判断することができる。したがって、それぞれの持ち方の状態に応じて、タッチパネル32の画面に適切な画像を表示させることができる。
 図5は、両手で携帯端末装置10を持ち、両手の親指でその携帯端末装置10のタッチパネル32の操作を行う場合の持ち方の例を示す図である。この場合は、右側面の右タッチセンサ43と左側面の左タッチセンサ45は左右均等の接触になり、それぞれのタッチセンサ43,45に対して左右の手のひらが接触する。すなわち、右タッチセンサ43の接触領域gと左タッチセンサ45の接触領域hとは、ほぼ同じ面積となる。
 このため、ユーザが携帯端末装置10を両手で持って両手の親指で操作しようとしていると判断することができる。したがって、その持ち方の状態に応じてタッチパネル32の画面に適切な画像を表示させることができる。
 図6は、本発明の第1実施形態における、タッチセンサの接触形態と携帯端末装置の持ち方の判定結果との関係を示す図である。すなわち、この図は、例えば図3乃至図5に示すような携帯端末装置10の持ち方をした場合において、その携帯端末装置10をどちらの手で持っているのか、片手/両手のどちらでタッチパネル32を操作しようとしているのか、携帯端末装置10のどの部分が上方向なのかを表わす判定結果を示す図である。
 携帯端末装置10を縦方向で持つ場合、通常は、図3乃至図5に示すように、上下の側面に付設された各タッチセンサ42,44は指や掌と接触しないため、左右の側面のタッチセンサ43,45の接触の有無のみで携帯端末装置の持ち方の判定を行う。ただし、ユーザに依存するが、上下の各タッチセンサ42,44に指や手のひらが接触する場合も想定されるので、携帯端末装置10の持ち方次第で上下の各タッチセンサ42,44の接触情報も必要となる。また、携帯端末装置10を両手で持つ場合は、手のひらではなく、親指以外の4本の指が接触したり、手のひらが左右のタッチセンサ43,45の上部に接触したりする場合もある。
 このように、図6に示す持ち方以外の持ち方をするユーザに対しては、携帯端末装置10が、ユーザごとに縦方向/横方向でどのような持ち方を行うのか個別に設定させる機能を搭載することが考えられる。例えば、携帯端末装置10の縦方向/横方向のそれぞれの向きについて、ユーザが、片手持ち+片手操作(親指操作)、片手持ち+両手操作(もう一方の手で操作)、両手持ち+両手操作、などを行った場合の、上下左右の各タッチセンサ42,43,44,45に対する指および手のひらの接触位置を、携帯端末装置10があらかじめ記憶するようにすればよい。
 次に、ユーザが図3乃至図5に示すような携帯端末装置10の持ち方を行った場合の各種判定方法に関して、図6を用いて詳細に説明する。すなわち、図6は、左右のタッチセンサ43,45に、指や掌がそれぞれどのように接触しているかに基づいて、持ち方や操作方法を判定する方法を示している。言い換えると、図6では、左タッチセンサ45および右タッチセンサ43が、それぞれ、指または手のひらをどのような状態で検出しているかに基づいて、携帯端末装置10の持ち方の判定、および指を用いた操作方法の判定を行う基準を示している。さらに、携帯端末装置10の上下方向の判定も併せて行っている。
 例えば、図6において、左タッチセンサ45が2~4本の指を検知し、右タッチセンサ43が上部で1本の指を検知すると共に下部で手のひらを検知した場合は、持ち方判定結果として右手持ち、操作方法判定結果として左手操作(または両手操作)、上方向判定として上タッチセンサ側を判定することができる。このような判定結果は、図4の変形例として、右手で携帯端末装置10を持って左手の人差指でタッチパネル32を操作する状態を示している。
 図7は、本発明の第1実施形態における携帯端末装置10の持ち方判定処理の流れを示すフローチャートである。以下、図1、図6、および図7を参照して、本発明の第1実施形態における携帯端末装置10の持ち方判定処理の流れを説明する。
 図7において、タッチセンサ処理部41は、上タッチセンサ42、右タッチセンサ43、下タッチセンサ44、および左タッチセンサ45の各接触状態を監視し、いずれかのタッチセンサ42,43,44,45の接触状態に変化があるか否かを確認する(ステップS11)。ここで、接触状態に変化がない場合は、接触状態の変化のチェックを繰り返す。一方、接触状態に変化がある場合は、図6の表にしたがって携帯端末装置10の持ち方判定処理を行う(ステップS12)。
 例えば、ステップS12の持ち方判定処理において、左タッチセンサ45が2~4本の指を検知し、右タッチセンサ43が下部で1本の指を検知すると共に上部で手のひらを検知した場合は、持ち方判定結果として左手持ち、操作方法判定結果として右手操作(または両手操作)、携帯端末装置10の上下方向判定として下タッチセンサ側と判定する。すなわち、図4に示すような左手持ちの持ち方で携帯端末装置10を上下逆さまに持っていると判定する。
 また、ステップS12における持ち方判定処理の結果が判定不可の場合(ステップS12:NO)、携帯端末装置10の持ち方が確定していないか、または正常でない持ち方になっている状態を示しているため、ディスプレイ22の表示内容の変更は行わない。したがって、再度、ステップS11におけるタッチセンサの接触状態の判定処理に戻る。
 一方、ステップS12の持ち方判定処理の結果が判定不可以外の場合(ステップS12:YES)、タッチセンサ処理部41は、表示処理部21に対して、判定結果(図6に示すようなそれぞれの持ち方、操作方法、上下方向)に応じて、タッチパネル32を操作するためのUI(ユーザインターフェース)を表示するよう指示する(ステップS13)。
 ここで、操作方法が親指操作以外の場合は、持ち方が、右手持ち、左手持ち、または両手持ちのいずれであるかに関わらず、タッチパネル32の画面のどの位置にも簡単にタッチすることが可能であるため、ユーザインターフェースの領域に制限を設ける必要はない。
 一方、操作方法が親指操作の場合は、親指で操作可能な有効領域をタッチパネル32の画面に示す必要がある。図8Aおよび図8Bは、本発明の第1実施形態において、親指でタッチパネル32を操作する場合に有効な操作領域を示す図である。図8Aは左手の親指で操作する場合の有効な操作領域A1を示しており、図8Bは両手の親指で操作する場合の有効な操作領域A1,A2を示している。なお、図8Bにおいて、参照符号A2は、右手の親指で操作する場合の有効な操作領域である。すなわち、前述の図3または図5で示したように親指でタッチパネル32の操作を行う場合は、図8A、図8Bに示すように、親指で操作が可能なタッチパネル32の有効領域A1,A2内にボタンやタブなどを表示し、片手操作だけでタッチパネル32の操作できるようなユーザインターフェースを作成する必要がある。
 図9は、本発明の第1実施形態において、左右いずれの手でタッチパネル32を操作するかに応じて適正な表示禁止領域を設定する状態を示す説明図である。すなわち、図9は、左右のどちらの手でタッチパネル32を操作するかに応じて、ディスプレイ22にどのような表示をするかという画面を示している。例えば、右手の人差し指でタッチパネル32を操作する場合は、タッチパネル32の右下部領域は、その人差し指の影に隠れて見えなくなってしまう。したがって、右手で操作する場合には右下部領域は表示禁止領域A3とし、タッチパネル32のそれ以外の領域を表示有効領域A4とする。左手で操作を行う場合には、図9において左下部領域を表示禁止領域として、それ以外の表示有効領域のみに必要な情報を表示する必要がある。
 図10Aおよび図10Bは、本発明の第1実施形態において、タッチパネル32の表示禁止領域を避けてアイコンを表示する状態を示す図である。図10Aは左手操作の場合を示し、図10Bは右手操作の場合を示している。すなわち、図10Aおよび図10Bは、図9の具体的な表示例を示しており、タッチパネル32にタッチしたときに拡大/縮小の操作を行うための半円ボタンのアイコンを表示する場合を示している。左手の指でタッチパネルを操作する場合は、図10Aに示すように画面の右上部に半円ボタンのアイコンを表示させ、右手の指でタッチパネルを操作する場合は、図10Bに示すように左上部に半円ボタンのアイコンを表示させる必要がある。
 以上説明したように、本発明の第1実施形態では、少なくとも携帯端末装置の左右両側面にタッチセンサを搭載しているため、その携帯端末装置の持ち方や、その持ち方に適した操作方法を判定することができる。また、携帯端末装置の持ち方や適正な操作方法を判定しているため、片手持ちでの親指操作、および両手持ちでの両方の親指操作などの状態を判断することができる。その結果、親指操作のための持ち方になった場合は、親指操作の有効領域範囲内だけにボタンなどを表示すれば、親指だけで適正にタッチパネルの操作を行うことができる。
 さらに、携帯端末装置の持ち方や適正な操作方法を判定しているため、携帯端末装置を左右どちらの指で操作しようとしているかを判断することができる。そのため、操作しようとしている指でディスプレイが隠れないように画面を表示すれば、操作時において何の情報が表示されているかがわからない状態を回避することができる。また、携帯端末装置の持ち方を判定すれば、画面の上方向を直ちに確定することができるため、ユーザが立っていても、寝ていても、正しい向きでタッチパネルの画面を表示させることができる。
 《第2実施形態》
 前述の第1実施形態では、タッチセンサを携帯端末装置の上下左右の側面に搭載し、そのタッチセンサの検出情報に基づいて携帯端末装置の持ち方を判断したが、必ずしもタッチセンサを搭載する必要はない。そこで、第2実施形態では、携帯端末装置にタッチセンサを搭載しないでその携帯端末装置の持ち方を判断する方法について説明する。
 図11は,本発明の第2実施形態に係る携帯端末装置の外観斜視図である。同図に示すように、携帯端末装置10の表面に搭載されているタッチパネル32を利用して、携帯端末装置10の枠の上下左右のタッチセンサの代わりに携帯端末装置10の持ち方を判断することが可能である。このような判断手法について以下詳細に説明する。
 図12Aおよび図12Bは、本発明の第2実施形態において、タッチパネル32の接触部分に基づいて携帯端末装置10の持ち方を判断する説明図である。図12Aはタッチパネル32の前面をタッチした場合を示し、図12Bはタッチパネル32の側面をタッチした場合を示している。
 すなわち、図12Aに示すように、通常、携帯端末装置10の前面に実装されているタッチパネル32の画面を指でタッチすると、円形SQ1の接触状態が認識される。また、携帯端末装置10のタッチパネル32の側面を指でタッチした場合は、図12Bに示すように半円形SQ2、SQ3の接触状態が検出される。したがって携帯端末装置10は、図12Bのような半円形SQ2、SQ3の接触状態を検出した場合には、携帯端末装置10の側面をユーザの指または掌がタッチしていると認識することで、携帯端末装置10の上下左右にタッチセンサが無い場合でも、携帯端末装置10の側面をタッチしているか否かを判断できる。このため、携帯端末装置10を左手で持ったか、右手で持ったか、あるいは両手で持ったかを判断することが可能となる。
 ただし、抵抗膜式のタッチパネルは実際にタッチパネル32を押さないと指が接触したことを認識することができないため、静電容量式のタッチパネルなど、指がタッチパネルに接触していなくても、指が近づいたことを認識することができるデバイスを、タッチパネル32に用いる。
 以上、本発明に係る携帯端末装置の実施形態の幾つかについて、図面を参照して詳述してきたが、この発明の具体的に構成はこれらの実施形態に限られるものではなく、この発明の趣旨を逸脱しない範囲の設計の変更等があってもそれらは本発明に含まれる。
 この出願は、2010年10月13日に出願された日本出願特願2010-230309号を基礎とする優先権を主張し、その開示の全てをここに取り込む。
《付記》
 携帯端末装置におけるタッチパネルの表示方法は、請求項10に記載の前記表示部に前記表示画面を表示させるステップにおいて、タッチセンサが接触状態を検出している接触領域の数および広さに基づいて、携帯端末装置の持ち方を判定するのに加えて、さらに、指を用いた操作方法および携帯端末装置の上下方向を判断して表示画面を生成し、ユーザインターフェースとなるタッチパネル上に形成された表示部に前記表示画面を表示させる。
 本発明は、例えば、携帯電話機やPDAなどの携帯端末装置に利用可能である。本発明では、ユーザにとって使い勝手のよい携帯端末装置を提供することができる。
 10 携帯端末装置
 11 CPU
 21 表示処理部(表示画面生成部)
 22 ディスプレイ(表示部)
 31 タッチパネル処理部
 32 タッチパネル
 41 タッチセンサ処理部(持ち方判定部)
 42 上タッチセンサ
 43 右タッチセンサ
 44 下タッチセンサ
 45 左タッチセンサ

Claims (11)

  1.  携帯端末装置の上下左右の側面にそれぞれ付設され、前記携帯端末装置を把持する手の接触状態を検出するタッチセンサと、
     ユーザインターフェースとなるタッチパネル上に形成された表示部と、
     前記タッチセンサが前記接触状態を検出している接触領域の数および広さに基づいて、前記携帯端末装置の持ち方を判定する持ち方判定部と、
     前記持ち方判定部が判定した前記持ち方に応じて表示画面を生成し、前記表示画面を前記表示部に表示させる表示画面生成部と
     を備える携帯端末装置。
  2.  前記持ち方判定部は、少なくとも前記携帯端末装置の前記左右の側面にそれぞれ付設された前記タッチセンサが検出した前記接触領域の前記数および前記広さに基づいて、前記携帯端末装置の前記持ち方を判定する請求項1に記載の携帯端末装置。
  3.  前記持ち方判定部は、前記携帯端末装置を把持している前記手における複数本の指および手のひらのうちの少なくとも前記手のひらが前記左右の側面に付設されたタッチセンサに接触しているとき、前記接触領域の前記数および前記広さを検出して前記携帯端末装置の前記持ち方を判定する請求項2に記載の携帯端末装置。
  4.  前記持ち方判定部は、前記複数本の指および前記手のひらのうちの少なくとも前記手のひらが前記左右のタッチセンサに接触しているときの接触情報に基づいて、前記携帯端末装置を左右いずれの手で把持しているか、両手で把持しているかを判定する請求項3に記載の携帯端末装置。
  5.  前記持ち方判定部は、前記携帯端末装置を前記左右いずれの手で把持しているか、または前記両手で把持しているかを判定したとき、把持している手の親指で前記タッチパネルを操作しているか否かを判断する請求項4に記載の携帯端末装置。
  6.  前記持ち方判定部は、前記携帯端末装置の前記持ち方を判定したとき、前記表示部に表示される前記表示画面の上方向を特定する請求項1乃至5のいずれか1項に記載の携帯端末装置。
  7.  前記持ち方判定部が前記携帯端末装置を把持している前記手の前記親指で前記タッチパネルを操作していると判断したとき、
     前記表示画面生成部は、前記親指で操作可能な有効領域を前記表示部に表示させる請求項5に記載の携帯端末装置。
  8.  前記表示画面生成部は、前記タッチパネルを操作する指で前記表示部が隠れる領域を表示禁止領域として設定する請求項1乃至7のいずれか1項に記載の携帯端末装置。
  9.  ユーザインターフェースとなり、携帯端末装置を把持する手の指に接触することなく前記指が近づいたことを認識し、前記手の接触状態を検出するタッチパネルと、
     前記タッチパネル上に形成された表示部と、
     前記タッチパネルが前記接触状態を検出している接触領域の数および広さに基づいて、前記携帯端末装置の持ち方を判定する持ち方判定部と、
     前記持ち方判定部が判定した前記持ち方に応じて表示画面を生成し、前記表示画面を前記表示部に表示させる表示画面生成部と
     を備える携帯端末装置。
  10.  携帯端末装置の上下左右の側面にそれぞれ付設されているタッチセンサが、前記携帯端末装置を把持している手の指及び手のひらの接触状態を検出し、
     前記タッチセンサが前記接触状態を検出している接触領域の数および広さに基づいて、前記携帯端末装置の持ち方を判定し、
     判定された前記携帯端末装置の前記持ち方に応じて表示画面を生成し、ユーザインターフェースとなるタッチパネル上に形成された表示部に前記表示画面を表示させる
     携帯端末装置におけるタッチパネルの表示方法。
  11.  ユーザインターフェースとなるタッチパネルが、携帯端末装置を把持する手の指に接触することなく前記指が近づいたことを認識して、前記手の指及び手のひらの接触状態を検出し、
     前記タッチパネルが前記接触状態を検出している接触領域の数および広さに基づいて、前記携帯端末装置の持ち方を判定し、
     判定された前記携帯端末装置の前記持ち方に応じて表示画面を生成し、前記タッチパネル上に形成された表示部に前記表示画面を表示させる
     携帯端末装置におけるタッチパネルの表示方法。
PCT/JP2011/071068 2010-10-13 2011-09-15 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法 WO2012049942A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012538611A JPWO2012049942A1 (ja) 2010-10-13 2011-09-15 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法
CN2011800469786A CN103140822A (zh) 2010-10-13 2011-09-15 移动终端设备和用于移动终端设备中的触摸板的显示方法
EP11832380.7A EP2629181A4 (en) 2010-10-13 2011-09-15 Mobile terminal device and display method for touch panel in mobile terminal device
US13/822,851 US20130215060A1 (en) 2010-10-13 2011-09-15 Mobile terminal apparatus and display method for touch panel in mobile terminal apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010230309 2010-10-13
JP2010-230309 2010-10-13

Publications (1)

Publication Number Publication Date
WO2012049942A1 true WO2012049942A1 (ja) 2012-04-19

Family

ID=45938175

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/071068 WO2012049942A1 (ja) 2010-10-13 2011-09-15 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法

Country Status (5)

Country Link
US (1) US20130215060A1 (ja)
EP (1) EP2629181A4 (ja)
JP (1) JPWO2012049942A1 (ja)
CN (1) CN103140822A (ja)
WO (1) WO2012049942A1 (ja)

Cited By (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103019562A (zh) * 2012-12-07 2013-04-03 东莞宇龙通信科技有限公司 终端和控制托盘配置方法
CN103186319A (zh) * 2013-03-11 2013-07-03 北京小米科技有限责任公司 桌面的显示方法和装置
JP2013232044A (ja) * 2012-04-27 2013-11-14 Toshiba Corp 電子機器、制御方法およびプログラム
JP2013235468A (ja) * 2012-05-10 2013-11-21 Fujitsu Ltd 携帯端末及び携帯端末用カバー
WO2013187370A1 (ja) * 2012-06-15 2013-12-19 京セラ株式会社 端末装置
JP5401675B1 (ja) * 2012-09-28 2014-01-29 島根県 情報入力装置および情報入力方法
JP2014026323A (ja) * 2012-07-24 2014-02-06 Sharp Corp 携帯情報表示装置および誤動作防止方法
JP2014032478A (ja) * 2012-08-02 2014-02-20 Sharp Corp 画像表示端末、画像表示端末の制御方法および画像表示端末を制御するためのプログラム
JP2014032511A (ja) * 2012-08-02 2014-02-20 Sharp Corp 携帯情報表示装置および拡大表示方法
JP2014052791A (ja) * 2012-09-06 2014-03-20 Sharp Corp 携帯情報装置、携帯情報装置用プログラム、携帯情報装置用プログラムを記憶した記録媒体、および、携帯情報装置の操作方法
JP2014052964A (ja) * 2012-09-10 2014-03-20 Sharp Corp 携帯情報装置、携帯情報装置用プログラム、携帯情報装置用プログラムを記憶した記録媒体、および、携帯情報装置の操作方法
JP2014056512A (ja) * 2012-09-13 2014-03-27 Canon Inc タッチパネルを備えた電子機器、およびタッチパネルを備えた電子機器の制御方法
US20140137038A1 (en) * 2012-11-10 2014-05-15 Seungman KIM Electronic apparatus and method of displaying a user input menu
JP2014154954A (ja) * 2013-02-06 2014-08-25 Fujitsu Mobile Communications Ltd 携帯装置、プログラムおよび判定方法
WO2014132965A1 (ja) * 2013-02-27 2014-09-04 Necカシオモバイルコミュニケーションズ株式会社 携帯電子機器、その制御方法及びプログラム
WO2014155747A1 (ja) * 2013-03-29 2014-10-02 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
US20140320420A1 (en) * 2013-04-25 2014-10-30 Sony Corporation Method and apparatus for controlling a mobile device based on touch operations
WO2015025550A1 (ja) * 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
JP2015518215A (ja) * 2012-04-25 2015-06-25 フォーガル ナノテックFogale Nanotech リンクトラックの配置を有する容量検出用デバイス、並びに前記デバイスの実装方法
CN104798030A (zh) * 2012-12-28 2015-07-22 英特尔公司 基于移动计算设备的使用的利手性适配用户接口
JP2015153391A (ja) * 2014-02-19 2015-08-24 シャープ株式会社 持ち手判定機能付き携帯端末
EP2667281A3 (en) * 2012-05-25 2015-09-09 Sony Mobile Communications, Inc. Terminal apparatus, display system, display method, and recording medium
WO2015178094A1 (ja) * 2014-05-23 2015-11-26 シャープ株式会社 携帯端末、及び当該携帯端末による操作処理方法
JP2015232753A (ja) * 2014-06-09 2015-12-24 富士フイルム株式会社 電子機器
JP2016024664A (ja) * 2014-07-22 2016-02-08 日本電信電話株式会社 マルチタッチスクリーン付き携帯端末およびその動作方法
JP2016024657A (ja) * 2014-07-22 2016-02-08 日本電信電話株式会社 マルチタッチスクリーン付き携帯端末およびその動作方法
JP2016515747A (ja) * 2013-04-19 2016-05-30 クゥアルコム・インコーポレイテッドQualcomm Incorporated ハンドヘルドデバイスおよび方法での片手およびマルチモーダルの対話のためのグリップ力センサアレイ
CN105630330A (zh) * 2015-12-21 2016-06-01 广东欧珀移动通信有限公司 用于移动终端的控制方法、装置和移动终端
KR20160067287A (ko) * 2014-12-03 2016-06-14 삼성디스플레이 주식회사 표시장치 및 이를 이용한 표시장치의 구동 방법
JP2016201029A (ja) * 2015-04-13 2016-12-01 ブラザー工業株式会社 携帯端末、表示制御方法および表示制御プログラム
JP2016538648A (ja) * 2013-11-27 2016-12-08 ▲華▼▲為▼▲終▼端有限公司 端末
JP2016207228A (ja) * 2016-08-31 2016-12-08 日本電気株式会社 入力装置及びプログラム
JP2017007247A (ja) * 2015-06-24 2017-01-12 カシオ計算機株式会社 印刷装置、印刷方法、及びプログラム
JP2017510868A (ja) * 2014-01-21 2017-04-13 マイクロソフト テクノロジー ライセンシング,エルエルシー 把持状態検出
JP2017513154A (ja) * 2015-01-13 2017-05-25 シャオミ・インコーポレイテッド ロック解除方法、装置、端末、プログラム及び記録媒体
JP2017524176A (ja) * 2014-06-18 2017-08-24 ゼットティーイー コーポレーションZte Corporation 携帯端末インターフェースの調整方法、装置及び端末
US10082909B2 (en) 2014-09-26 2018-09-25 Sharp Kabushiki Kaisha Holding manner determination device and recording medium
US10149164B1 (en) 2014-02-17 2018-12-04 Seungman KIM Electronic apparatus and method of selectively applying security mode according to exceptional condition in mobile device
US10180761B2 (en) 2014-06-27 2019-01-15 Sharp Kabushiki Kaisha Touch-panel-equipped display device including side surface electrodes
JPWO2021255775A1 (ja) * 2020-06-15 2021-12-23

Families Citing this family (71)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7148879B2 (en) 2000-07-06 2006-12-12 At&T Corp. Bioacoustic control system, method and apparatus
US8908894B2 (en) 2011-12-01 2014-12-09 At&T Intellectual Property I, L.P. Devices and methods for transferring data through a human body
US20140078086A1 (en) * 2012-09-20 2014-03-20 Marvell World Trade Ltd. Augmented touch control for hand-held devices
CN103365541B (zh) * 2013-06-27 2016-06-15 华为终端有限公司 展示窗口的方法及终端
CN103399711A (zh) * 2013-08-21 2013-11-20 珠海市魅族科技有限公司 一种弹出式窗口的显示控制方法及终端
CN103399960A (zh) * 2013-08-21 2013-11-20 珠海市魅族科技有限公司 一种网页的显示方法及终端
CN103399959A (zh) * 2013-08-21 2013-11-20 珠海市魅族科技有限公司 一种网页的交互控件的显示方法及终端
CN104423791B (zh) * 2013-09-10 2019-01-15 联想(北京)有限公司 一种信息处理的方法及一种电子设备
CN104571792A (zh) * 2013-10-28 2015-04-29 联想(北京)有限公司 一种信息处理方法及电子设备
US10108984B2 (en) 2013-10-29 2018-10-23 At&T Intellectual Property I, L.P. Detecting body language via bone conduction
US9594433B2 (en) 2013-11-05 2017-03-14 At&T Intellectual Property I, L.P. Gesture-based controls via bone conduction
EP2998843B1 (en) * 2013-11-08 2017-10-04 Huawei Technologies Co., Ltd. Intelligent terminal and method for displaying input operation interface thereof
US9349280B2 (en) 2013-11-18 2016-05-24 At&T Intellectual Property I, L.P. Disrupting bone conduction signals
US10678322B2 (en) 2013-11-18 2020-06-09 At&T Intellectual Property I, L.P. Pressure sensing via bone conduction
US9715774B2 (en) 2013-11-19 2017-07-25 At&T Intellectual Property I, L.P. Authenticating a user on behalf of another user based upon a unique body signature determined through bone conduction signals
US9405892B2 (en) 2013-11-26 2016-08-02 At&T Intellectual Property I, L.P. Preventing spoofing attacks for bone conduction applications
CN104714731B (zh) * 2013-12-12 2019-10-11 南京中兴软件有限责任公司 终端界面的显示方法及装置
US9560254B2 (en) * 2013-12-30 2017-01-31 Google Technology Holdings LLC Method and apparatus for activating a hardware feature of an electronic device
CN104765446A (zh) * 2014-01-07 2015-07-08 三星电子株式会社 电子设备和控制电子设备的方法
JP6193774B2 (ja) * 2014-01-30 2017-09-06 シャープ株式会社 携帯端末、プログラム
US9239648B2 (en) * 2014-03-17 2016-01-19 Google Inc. Determining user handedness and orientation using a touchscreen device
CN104951217A (zh) * 2014-03-24 2015-09-30 联想(北京)有限公司 一种信息处理方法及电子设备
CN103927052B (zh) * 2014-04-09 2016-12-14 重庆文润科技有限公司 一种边框式多点触控系统及方法
KR20150127989A (ko) * 2014-05-08 2015-11-18 삼성전자주식회사 사용자 인터페이스 제공 방법 및 장치
JP2015215800A (ja) * 2014-05-12 2015-12-03 株式会社ジャパンディスプレイ 携帯型電子装置
KR102265244B1 (ko) * 2014-06-20 2021-06-15 삼성전자주식회사 디스플레이를 제어하는 전자 장치 및 방법
CN105468269A (zh) * 2014-08-15 2016-04-06 深圳市中兴微电子技术有限公司 一种自动识别左右手握持的移动终端和实现方法
DE102014012185A1 (de) * 2014-08-20 2016-02-25 Sig Technology Ag Bedienterminal für Verarbeitungsanlagen
US9882992B2 (en) 2014-09-10 2018-01-30 At&T Intellectual Property I, L.P. Data session handoff using bone conduction
US9589482B2 (en) 2014-09-10 2017-03-07 At&T Intellectual Property I, L.P. Bone conduction tags
US10045732B2 (en) 2014-09-10 2018-08-14 At&T Intellectual Property I, L.P. Measuring muscle exertion using bone conduction
US9582071B2 (en) * 2014-09-10 2017-02-28 At&T Intellectual Property I, L.P. Device hold determination using bone conduction
US10345967B2 (en) * 2014-09-17 2019-07-09 Red Hat, Inc. User interface for a device
CN105446639A (zh) * 2014-09-22 2016-03-30 中兴通讯股份有限公司 一种终端唤醒方法及装置
US9600079B2 (en) 2014-10-15 2017-03-21 At&T Intellectual Property I, L.P. Surface determination via bone conduction
USD781305S1 (en) * 2014-12-10 2017-03-14 Aaron LAU Display screen with transitional graphical user interface
EP3232311B1 (en) * 2014-12-29 2020-02-19 Huawei Technologies Co., Ltd. Method for reducing valid presentation region of screen and mobile terminal
CN104503662B (zh) * 2014-12-30 2017-11-10 北京元心科技有限公司 一种桌面元素的几何轮廓的生成方法及装置
CN104461322A (zh) * 2014-12-30 2015-03-25 中科创达软件股份有限公司 一种手持设备的用户界面显示方法及系统
CN104503698A (zh) * 2014-12-31 2015-04-08 深圳市中兴移动通信有限公司 移动终端按键功能的切换方法及装置
CN104571709B (zh) * 2015-01-07 2017-10-13 小米科技有限责任公司 移动终端及虚拟按键的处理方法
US20160195992A1 (en) * 2015-01-07 2016-07-07 Xiaomi Inc. Mobile terminal and method for processing signals generated from touching virtual keys
CN104571925B (zh) * 2015-01-27 2018-03-30 努比亚技术有限公司 移动终端的单手操作方法及装置
CN104731339B (zh) * 2015-03-31 2017-12-22 努比亚技术有限公司 移动终端的握持方式识别方法及装置
CN107006062A (zh) * 2015-04-22 2017-08-01 华为技术有限公司 一种终端天线调节方法及装置
CN104866136B (zh) * 2015-05-11 2019-02-15 努比亚技术有限公司 一种确定终端操作模式的方法及装置
CN106293191B (zh) * 2015-06-19 2019-09-10 北京智谷睿拓技术服务有限公司 信息处理方法和设备
CN106325723B (zh) * 2015-06-19 2019-09-20 北京智谷睿拓技术服务有限公司 信息处理方法和设备
CN106293443B (zh) * 2015-06-19 2019-09-20 北京智谷睿拓技术服务有限公司 信息处理方法和设备
CN105005410A (zh) * 2015-07-13 2015-10-28 成都西可科技有限公司 一种具有左右手识别功能的手持终端及其识别方法
CN105183250B (zh) * 2015-07-31 2018-02-02 广东欧珀移动通信有限公司 一种终端的控制方法及装置
CN105426719A (zh) * 2015-12-09 2016-03-23 广东欧珀移动通信有限公司 解锁方法、解锁装置及电子装置
US9760758B2 (en) * 2015-12-30 2017-09-12 Synaptics Incorporated Determining which hand is being used to operate a device using a fingerprint sensor
CN105843506A (zh) * 2016-03-22 2016-08-10 努比亚技术有限公司 一种标识信息显示方法和终端
CN106055145A (zh) * 2016-05-24 2016-10-26 北京小米移动软件有限公司 终端的工作模式确定方法及装置
CN107704179B (zh) 2016-08-08 2020-09-22 宏达国际电子股份有限公司 决定画面显示方向的方法及使用其的电子装置
TWI620099B (zh) * 2016-08-08 2018-04-01 宏達國際電子股份有限公司 決定畫面顯示方向之方法及使用其之電子裝置與電腦可讀取紀錄媒體
WO2018076333A1 (zh) * 2016-10-31 2018-05-03 深圳市汇顶科技股份有限公司 手持姿势检测方法、电容触控装置以及电子设备
US10635204B2 (en) * 2016-11-29 2020-04-28 Samsung Electronics Co., Ltd. Device for displaying user interface based on grip sensor and stop displaying user interface absent gripping
JP2018151852A (ja) * 2017-03-13 2018-09-27 セイコーエプソン株式会社 入力装置、入力制御方法、およびコンピュータープログラム
US10254871B2 (en) * 2017-04-10 2019-04-09 Google Llc Using pressure sensor input to selectively route user inputs
TWI652614B (zh) * 2017-05-16 2019-03-01 緯創資通股份有限公司 攜帶式電子裝置及其操作方法
US10852847B2 (en) * 2017-07-26 2020-12-01 Google Llc Controller tracking for multiple degrees of freedom
TWI628572B (zh) * 2017-10-03 2018-07-01 幸芯科技有限公司 具有局部觸控功能的觸控裝置與方法
CN109933271B (zh) * 2017-12-18 2022-06-17 佳能株式会社 数据处理装置和方法、用户界面调节装置和方法及介质
CN108418908A (zh) * 2018-01-25 2018-08-17 芯海科技(深圳)股份有限公司 一种手机左右手操作识别装置及方法
US10831316B2 (en) 2018-07-26 2020-11-10 At&T Intellectual Property I, L.P. Surface interface
US10775853B2 (en) * 2018-10-16 2020-09-15 Texas Instruments Incorporated Secondary back surface touch sensor for handheld devices
CN111507144B (zh) * 2019-01-31 2024-02-09 北京小米移动软件有限公司 触摸面积获取方法、装置、智能设备及存储介质
CN110908514A (zh) * 2019-11-20 2020-03-24 北京明略软件系统有限公司 一种手掌姿态识别方法及装置
WO2021161725A1 (ja) * 2020-02-10 2021-08-19 日本電気株式会社 プログラム、携帯端末の処理方法及び携帯端末

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302734A (ja) * 2003-03-31 2004-10-28 Mitsubishi Electric Corp 情報端末並びにその動作切替えをコンピュータに実行させるプログラム
JP2008027183A (ja) 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
JP2009169820A (ja) 2008-01-18 2009-07-30 Panasonic Corp 携帯端末
JP2010154090A (ja) 2008-12-24 2010-07-08 Toshiba Corp 携帯端末
JP2010230309A (ja) 2007-07-30 2010-10-14 Mitsubishi Electric Corp ナビゲーションシステム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
CN101133385B (zh) * 2005-03-04 2014-05-07 苹果公司 手持电子设备、手持设备及其操作方法
KR100668341B1 (ko) * 2005-06-29 2007-01-12 삼성전자주식회사 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.
EP1971117A1 (en) * 2006-03-31 2008-09-17 T & A Mobile Phones Limited Mobile phone with sensor for detection of user's handling
JP2008052062A (ja) * 2006-08-24 2008-03-06 Ricoh Co Ltd 表示装置、表示装置の表示方法、プログラム及び記録媒体
CN101393504B (zh) * 2007-09-20 2012-12-19 宏达国际电子股份有限公司 手持电子装置与其图形化用户界面的切换方法
JP2009110286A (ja) * 2007-10-30 2009-05-21 Toshiba Corp 情報処理装置、ランチャー起動制御プログラムおよびランチャー起動制御方法
KR101111566B1 (ko) * 2008-05-23 2012-02-24 삼성전자주식회사 휴대 단말기의 인터페이스 전환 장치 및 방법
TW201005503A (en) * 2008-07-16 2010-02-01 Htc Corp Portable electronic device and the mode switching method thereof
EP2175344B1 (en) * 2008-10-06 2020-02-12 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
KR20100039194A (ko) * 2008-10-06 2010-04-15 삼성전자주식회사 사용자 접촉 패턴에 따른 GUI(Graphic User Interface) 표시 방법 및 이를 구비하는 장치
US8368658B2 (en) * 2008-12-02 2013-02-05 At&T Mobility Ii Llc Automatic soft key adaptation with left-right hand edge sensing

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004302734A (ja) * 2003-03-31 2004-10-28 Mitsubishi Electric Corp 情報端末並びにその動作切替えをコンピュータに実行させるプログラム
JP2008027183A (ja) 2006-07-21 2008-02-07 Sharp Corp 情報処理装置
JP2010230309A (ja) 2007-07-30 2010-10-14 Mitsubishi Electric Corp ナビゲーションシステム
JP2009169820A (ja) 2008-01-18 2009-07-30 Panasonic Corp 携帯端末
JP2010154090A (ja) 2008-12-24 2010-07-08 Toshiba Corp 携帯端末

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2629181A4

Cited By (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018063732A (ja) * 2012-04-25 2018-04-19 クイックステップ テクノロジーズ リミテッド ライアビリティ カンパニー 容量制御表面を実装する装置と相互作用する方法、この方法を実装する、インターフェース及び装置
JP2015519644A (ja) * 2012-04-25 2015-07-09 フォーガル ナノテックFogale Nanotech 容量制御表面を実装する装置と相互作用する方法、この方法を実装する、インターフェース及び装置
JP2015518215A (ja) * 2012-04-25 2015-06-25 フォーガル ナノテックFogale Nanotech リンクトラックの配置を有する容量検出用デバイス、並びに前記デバイスの実装方法
JP2013232044A (ja) * 2012-04-27 2013-11-14 Toshiba Corp 電子機器、制御方法およびプログラム
US9001063B2 (en) 2012-04-27 2015-04-07 Kabushiki Kaisha Toshiba Electronic apparatus, touch input control method, and storage medium
JP2013235468A (ja) * 2012-05-10 2013-11-21 Fujitsu Ltd 携帯端末及び携帯端末用カバー
EP2667281A3 (en) * 2012-05-25 2015-09-09 Sony Mobile Communications, Inc. Terminal apparatus, display system, display method, and recording medium
WO2013187370A1 (ja) * 2012-06-15 2013-12-19 京セラ株式会社 端末装置
JPWO2013187370A1 (ja) * 2012-06-15 2016-02-04 京セラ株式会社 端末装置
JP2014026323A (ja) * 2012-07-24 2014-02-06 Sharp Corp 携帯情報表示装置および誤動作防止方法
JP2014032478A (ja) * 2012-08-02 2014-02-20 Sharp Corp 画像表示端末、画像表示端末の制御方法および画像表示端末を制御するためのプログラム
JP2014032511A (ja) * 2012-08-02 2014-02-20 Sharp Corp 携帯情報表示装置および拡大表示方法
JP2014052791A (ja) * 2012-09-06 2014-03-20 Sharp Corp 携帯情報装置、携帯情報装置用プログラム、携帯情報装置用プログラムを記憶した記録媒体、および、携帯情報装置の操作方法
JP2014052964A (ja) * 2012-09-10 2014-03-20 Sharp Corp 携帯情報装置、携帯情報装置用プログラム、携帯情報装置用プログラムを記憶した記録媒体、および、携帯情報装置の操作方法
JP2014056512A (ja) * 2012-09-13 2014-03-27 Canon Inc タッチパネルを備えた電子機器、およびタッチパネルを備えた電子機器の制御方法
JP5401675B1 (ja) * 2012-09-28 2014-01-29 島根県 情報入力装置および情報入力方法
US20140137038A1 (en) * 2012-11-10 2014-05-15 Seungman KIM Electronic apparatus and method of displaying a user input menu
CN103019562B (zh) * 2012-12-07 2016-04-06 东莞宇龙通信科技有限公司 终端和控制托盘配置方法
CN103019562A (zh) * 2012-12-07 2013-04-03 东莞宇龙通信科技有限公司 终端和控制托盘配置方法
CN104798030A (zh) * 2012-12-28 2015-07-22 英特尔公司 基于移动计算设备的使用的利手性适配用户接口
EP2939092A4 (en) * 2012-12-28 2016-08-24 Intel Corp ADAPTING A HAND-BASED USER INTERFACE USING THE MOBILE COMPUTING DEVICE
JP2014154954A (ja) * 2013-02-06 2014-08-25 Fujitsu Mobile Communications Ltd 携帯装置、プログラムおよび判定方法
WO2014132965A1 (ja) * 2013-02-27 2014-09-04 Necカシオモバイルコミュニケーションズ株式会社 携帯電子機器、その制御方法及びプログラム
CN103186319A (zh) * 2013-03-11 2013-07-03 北京小米科技有限责任公司 桌面的显示方法和装置
JP5736528B2 (ja) * 2013-03-29 2015-06-17 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
JPWO2014155747A1 (ja) * 2013-03-29 2017-02-16 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
WO2014155747A1 (ja) * 2013-03-29 2014-10-02 楽天株式会社 端末装置、端末装置の制御方法、プログラム、及び情報記憶媒体
JP2016515747A (ja) * 2013-04-19 2016-05-30 クゥアルコム・インコーポレイテッドQualcomm Incorporated ハンドヘルドデバイスおよび方法での片手およびマルチモーダルの対話のためのグリップ力センサアレイ
US20140320420A1 (en) * 2013-04-25 2014-10-30 Sony Corporation Method and apparatus for controlling a mobile device based on touch operations
WO2015025550A1 (ja) * 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
US9870081B2 (en) 2013-08-22 2018-01-16 Sharp Kabushiki Kaisha Display device and touch-operation processing method
JP2016538648A (ja) * 2013-11-27 2016-12-08 ▲華▼▲為▼▲終▼端有限公司 端末
US10055051B2 (en) 2013-11-27 2018-08-21 Huawei Device (Dongguan) Co., Ltd. Terminal configured to determine a holding gesture for the terminal
JP2017510868A (ja) * 2014-01-21 2017-04-13 マイクロソフト テクノロジー ライセンシング,エルエルシー 把持状態検出
US11184771B1 (en) 2014-02-17 2021-11-23 Seungman KIM Electronic apparatus and method of selectively applying security mode in mobile device
US11811963B2 (en) 2014-02-17 2023-11-07 Seungman KIM Electronic apparatus and method of selectively applying security mode in mobile device
US10149164B1 (en) 2014-02-17 2018-12-04 Seungman KIM Electronic apparatus and method of selectively applying security mode according to exceptional condition in mobile device
US11234127B1 (en) 2014-02-17 2022-01-25 Seungman KIM Electronic apparatus and method of selectively applying security mode in mobile device
US11553072B2 (en) 2014-02-17 2023-01-10 Seungman KIM Electronic apparatus and method of selectively applying security mode in mobile device
US11184473B2 (en) 2014-02-17 2021-11-23 Seungman KIM Electronic apparatus and method of selectively applying security mode in mobile device
US10511975B2 (en) 2014-02-17 2019-12-17 Seungman KIM Electronic apparatus and method of selectively applying security mode in mobile device
US11212382B2 (en) 2014-02-17 2021-12-28 Seungman KIM Electronic apparatus and method of selectively applying security mode in mobile device
US11595507B2 (en) 2014-02-17 2023-02-28 Seungman KIM Electronic apparatus and method of selectively applying security mode in mobile device
US10299133B2 (en) 2014-02-17 2019-05-21 Seungman KIM Electronic apparatus and method of selectively applying security mode according to exceptional condition in mobile device
JP2015153391A (ja) * 2014-02-19 2015-08-24 シャープ株式会社 持ち手判定機能付き携帯端末
WO2015178094A1 (ja) * 2014-05-23 2015-11-26 シャープ株式会社 携帯端末、及び当該携帯端末による操作処理方法
JP2015232753A (ja) * 2014-06-09 2015-12-24 富士フイルム株式会社 電子機器
US9772661B2 (en) 2014-06-09 2017-09-26 Fujifilm Corporation Electronic equipment with display device
JP2017524176A (ja) * 2014-06-18 2017-08-24 ゼットティーイー コーポレーションZte Corporation 携帯端末インターフェースの調整方法、装置及び端末
US10180761B2 (en) 2014-06-27 2019-01-15 Sharp Kabushiki Kaisha Touch-panel-equipped display device including side surface electrodes
JP2016024657A (ja) * 2014-07-22 2016-02-08 日本電信電話株式会社 マルチタッチスクリーン付き携帯端末およびその動作方法
JP2016024664A (ja) * 2014-07-22 2016-02-08 日本電信電話株式会社 マルチタッチスクリーン付き携帯端末およびその動作方法
US10082909B2 (en) 2014-09-26 2018-09-25 Sharp Kabushiki Kaisha Holding manner determination device and recording medium
KR20160067287A (ko) * 2014-12-03 2016-06-14 삼성디스플레이 주식회사 표시장치 및 이를 이용한 표시장치의 구동 방법
KR102291565B1 (ko) 2014-12-03 2021-08-19 삼성디스플레이 주식회사 표시장치 및 이를 이용한 표시장치의 구동 방법
JP2017513154A (ja) * 2015-01-13 2017-05-25 シャオミ・インコーポレイテッド ロック解除方法、装置、端末、プログラム及び記録媒体
JP2016201029A (ja) * 2015-04-13 2016-12-01 ブラザー工業株式会社 携帯端末、表示制御方法および表示制御プログラム
JP2017007247A (ja) * 2015-06-24 2017-01-12 カシオ計算機株式会社 印刷装置、印刷方法、及びプログラム
CN105630330A (zh) * 2015-12-21 2016-06-01 广东欧珀移动通信有限公司 用于移动终端的控制方法、装置和移动终端
JP2016207228A (ja) * 2016-08-31 2016-12-08 日本電気株式会社 入力装置及びプログラム
WO2021255775A1 (ja) * 2020-06-15 2021-12-23 三菱電機株式会社 表示制御装置および表示制御方法
JPWO2021255775A1 (ja) * 2020-06-15 2021-12-23
JP7353491B2 (ja) 2020-06-15 2023-09-29 三菱電機株式会社 表示制御装置および表示制御方法

Also Published As

Publication number Publication date
CN103140822A (zh) 2013-06-05
JPWO2012049942A1 (ja) 2014-02-24
EP2629181A4 (en) 2017-03-29
EP2629181A1 (en) 2013-08-21
US20130215060A1 (en) 2013-08-22

Similar Documents

Publication Publication Date Title
WO2012049942A1 (ja) 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法
JP4880304B2 (ja) 情報処理装置および表示方法
CA2691899C (en) Method for tap detection and for interacting with a handheld electronic device, and a handheld electronic device configured therefor
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
US8482520B2 (en) Method for tap detection and for interacting with and a handheld electronic device, and a handheld electronic device configured therefor
US8633901B2 (en) Handheld electronic device having a touchscreen and a method of using a touchscreen of a handheld electronic device
JP5507494B2 (ja) タッチ・スクリーンを備える携帯式電子機器および制御方法
TWI401591B (zh) 可攜式電子裝置
CN101393504B (zh) 手持电子装置与其图形化用户界面的切换方法
US20120068946A1 (en) Touch display device and control method thereof
JPWO2011135944A1 (ja) 情報処理端末およびその操作制御方法
WO2012162932A1 (zh) 左右手自适应的虚拟键盘显示方法及终端
JP5646896B2 (ja) 携帯端末およびキー表示方法
JP5222967B2 (ja) 携帯端末
JP2012190297A (ja) 電子機器
US10671269B2 (en) Electronic device with large-size display screen, system and method for controlling display screen
JP2014099214A (ja) タッチスクリーン
TW201601048A (zh) 電子設備以及電子設備的工作方法
CN102156604B (zh) 可携式电子装置
JP2016126363A (ja) タッチスクリーンに入力する方法、携帯式電子機器およびコンピュータ・プログラム
JP6183820B2 (ja) 端末、及び端末制御方法
JP2013020332A (ja) 表示入力装置
JP2010272111A (ja) 使用時に目視されない面に入力部を配置した情報機器、入力方法及びプログラム
JP2013122711A (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP5855481B2 (ja) 情報処理装置、その制御方法およびその制御プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180046978.6

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11832380

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2012538611

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2011832380

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 13822851

Country of ref document: US