WO2009090704A1 - 携帯端末 - Google Patents

携帯端末 Download PDF

Info

Publication number
WO2009090704A1
WO2009090704A1 PCT/JP2008/003632 JP2008003632W WO2009090704A1 WO 2009090704 A1 WO2009090704 A1 WO 2009090704A1 JP 2008003632 W JP2008003632 W JP 2008003632W WO 2009090704 A1 WO2009090704 A1 WO 2009090704A1
Authority
WO
WIPO (PCT)
Prior art keywords
hand
state
touch sensor
holding
touch panel
Prior art date
Application number
PCT/JP2008/003632
Other languages
English (en)
French (fr)
Inventor
Satoshi Iino
Kazumasa Gomyo
Tomohiro Ishihara
Yuji Hashimoto
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Publication of WO2009090704A1 publication Critical patent/WO2009090704A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • G06F1/169Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675 the I/O peripheral being an integrated pointing device, e.g. trackball in the palm rest area, mini-joystick integrated between keyboard keys, touch pads or touch stripes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1626Constructional details or arrangements for portable computers with a single-body enclosure integrating a flat display, e.g. Personal Digital Assistants [PDAs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/16Constructional details or arrangements
    • G06F1/1613Constructional details or arrangements for portable computers
    • G06F1/1633Constructional details or arrangements of portable computers not specific to the type of enclosures covered by groups G06F1/1615 - G06F1/1626
    • G06F1/1684Constructional details or arrangements related to integrated I/O peripherals not covered by groups G06F1/1635 - G06F1/1675
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the present invention relates to a mobile terminal such as a mobile phone or a PDA (Personal Digital Assistant).
  • a mobile terminal such as a mobile phone or a PDA (Personal Digital Assistant).
  • touch panels have begun to be used as user interfaces in mobile terminals such as mobile phones and PDAs.
  • touch panel By adopting a touch panel, the user can intuitively operate the terminal simply by touching the screen.
  • Mobile terminals are used in various ways by users. Specifically, it is divided as follows. ⁇ Hold with right hand, operate with right hand ⁇ Hold with left hand, operate with left hand ⁇ Hold with right hand, operate with left hand ⁇ Hold with left hand, operate with right hand
  • FIG. 17 shows an outline of the case where the case is held with the right hand and operated with the right hand.
  • the dotted line shown in this figure represents the operating range of the thumb of the right hand when held with one hand.
  • Each block indicated by alphabets A, B, C,... represents software keys (hereinafter referred to as operation buttons) displayed on a monitor (liquid crystal display, organic EL display, etc.) corresponding to the touch panel. is there.
  • operation buttons software keys displayed on a monitor (liquid crystal display, organic EL display, etc.) corresponding to the touch panel.
  • FIG. 18 shows an outline when the case is held and operated with the left hand. In this case, on the contrary, for the functions “C” and “D”, it is difficult to naturally press the operation button outside the dotted line with the thumb of the left hand.
  • Patent Document 1 there is a proposal for setting an input device or an output device function in an optimum environment suitable for the user depending on the state in which the device is held (see, for example, Patent Document 1).
  • a touch sensor that detects a contact state when the device casing is held by hand is arranged on both sides of the device casing, and the CPU (Central Processing Unit) of the device is based on the detection result of the touch sensor.
  • the function of the operation button is switched by determining the holding state of the device casing.
  • Patent Document 1 improves the user-friendliness by changing the input method and the output method depending on whether the device housing is held with the right hand or the left hand. It is assumed to be used with a handheld terminal with a size larger than that of mobile terminals such as mobile phones and PDAs, and it is assumed that fingers other than the thumb do not turn to the opposite side when holding the device housing I have to. Therefore, when the detection method as it is is applied to a mobile terminal, there is a problem that it cannot be detected correctly.
  • the present invention has been made in view of such circumstances, and an object of the present invention is to provide a portable terminal that can be operated without difficulty even if the case is held with either the left or right hand.
  • the portable terminal of the present invention is a portable terminal provided with a touch panel that is a user interface for operating the terminal, a touch sensor provided on at least one of the upper right edge and the upper left edge of the housing, and the touch sensor Holding information indicating how the casing is held by a human hand based on event information output from the touch sensor by touching and event information output from the touch panel by touching the touch panel.
  • the holding state management means to be managed Based on the holding state management means to be managed and the holding information managed by the holding state management means, it is determined whether the operation of the terminal is one-handed operation with the right hand, one-handed operation with the left hand or two-handed operation. Display that changes the arrangement of the operation buttons displayed on the monitor corresponding to the touch panel so that it can be easily operated with one hand Further comprising: means, including a.
  • the operation buttons are arranged so that the right hand can be easily operated.
  • the left hand is easily operated.
  • the operation buttons are arranged in such a manner that the operation can be easily performed regardless of whether the case is held by the left or right hand.
  • the display changing unit changes a display range of the operation button according to a position of a thumb touching the touch sensor.
  • the operation button is arranged within the reach of the thumb while maintaining the relative position of the operation button during one-hand operation, so that even a person with a large hand or a small person can operate easily.
  • the display changing means expands the display range of the operation buttons to the upper side on the monitor as the position of the thumb touching the touch sensor is higher than the touch sensor.
  • the display range of the operation button is expanded upward as the thumb is positioned above the touch sensor while maintaining the relative position of the operation button during one-hand operation. Even humans can perform operations without difficulty.
  • the display changing means moves the operation button on a straight line connecting a point on the housing corresponding to a fulcrum of the thumb and the operation button.
  • the direction in which the thumb comes out can be made constant, so that the operability can be improved.
  • the arrangement of the operation buttons is changed depending on how the case is held, so that the operation can be performed without difficulty even if the case is held with either the left or right hand.
  • the block diagram which shows the structure of the part which performs operation and display of the portable terminal which concerns on Embodiment 1 of this invention.
  • the perspective view which looked at the portable terminal which concerns on Embodiment 1 of this invention from the side in which the left touch sensor part can be seen.
  • movement of the right touch sensor part of the portable terminal which concerns on Embodiment 1 of this invention The flowchart for demonstrating operation
  • indication part of the portable terminal which concerns on Embodiment 1 of this invention The figure for demonstrating the position change process at the time of operation button right hand operation which the UI display change instruction
  • FIG. 1 is a block diagram showing a schematic configuration of a mobile terminal according to Embodiment 1 of the present invention. This figure shows only a portion for operating and displaying the portable terminal 10 of the present embodiment, and includes a touch panel unit 11, a right touch sensor unit 12, a left touch sensor unit 13, and a holding state management unit 14. And a display unit 15 and a UI (User Interface) display change instruction unit 16.
  • a touch panel unit 11 a right touch sensor unit 12
  • a left touch sensor unit 13 and a holding state management unit 14.
  • UI User Interface
  • the touch panel unit 11 is a touch panel provided on the display unit 15.
  • the right touch sensor unit 12 is provided on the right side when the screen of the touch panel unit 11 is viewed in front.
  • FIG. 3 is an external view showing how to hold the right touch sensor unit 12 and the right hand thumb is touching the right touch sensor unit 12.
  • the left touch sensor unit 13 is provided on the left side surface when the screen of the touch panel unit 11 is viewed in front.
  • FIG. 5 is an external view showing how to hold the left touch sensor unit 13 when the left touch sensor unit 13 is used. The thumb of the left hand touches the left touch sensor unit 13.
  • the detection states in the right touch sensor unit 12 and the left touch sensor unit 13 are the following two types. None: A finger is not touching the touch sensor. Yes: A finger is touching the touch sensor.
  • the right touch sensor unit 12 and the left touch sensor unit 13 output a touch sensor detection state change event when a finger touches the touch sensor.
  • a touch sensor detection state change event As the information of the touch sensor detection state change event, one of the following two types is notified to the holding state management unit 14. No sensor detection status ⁇ Change event with sensor detection status ⁇ Change event with no
  • FIG. 6 is a flowchart showing the operation of the right touch sensor unit 12. Since the operation of the left touch sensor unit 13 is the same as that of the right touch sensor unit 12, a description thereof will be omitted.
  • a change in the touch sensor detection state is determined (step ST10). If there is no change in the state, this step is repeated until there is a change, and if there is a change, a touch sensor detection state change event is held.
  • the management unit 14 is notified (step ST11), and the process returns to the determination of step ST10.
  • the right touch sensor unit 12 and the left touch sensor unit 13 maintain the sensor detection waiting state, and notify the holding state management unit 14 of a touch sensor detection state change event only when the touch sensor detection state changes. .
  • the touch panel unit 11 detects that a finger has touched and notifies the holding state management unit 14 as a touch panel detection event.
  • the holding state management unit 14 is also notified of the position on the screen of the display unit 15 from the position touched by the finger.
  • FIG. 7 is a flowchart showing the operation of the touch panel unit 10.
  • step ST20 it is determined whether or not there is a change in the touch panel detection state. If there is no change in the state, this step is repeated until there is a change, and if there is a change, a touch panel detection event is held. 14 (step ST21), and the process returns to the determination of step ST20.
  • step ST21 the process returns to the determination of step ST20.
  • a touch panel detection event is notified to the holding state management unit 14.
  • the holding state management unit 14 generates a touch sensor detection state change event (event information) from the right touch sensor unit 12 or the left touch sensor unit 13 and a touch panel detection event (event information) from the touch panel unit 11. Based on the current holding status.
  • the holding state management unit 14 defines and manages the state as a holding state below. 1.
  • Initial state state in which the user does not hold the terminal (mobile terminal, the same applies hereinafter) 2.
  • Hold with one left hand Hold with left hand. Before left one-handed operation: State of trying to operate terminal with thumb of left hand After left hand operation: The terminal is being operated at least once with the thumb of the left hand. 5.
  • Left hold / right operation Hold with left hand and operate with right hand 6.
  • Hold with one right hand Hold with right hand Before right one-handed operation: State of trying to operate the terminal with the thumb of the right hand. After one right hand operation: The terminal is operated at least once with the thumb of the right hand. 9. Right hold left operation: Hold with the right hand and operate with the left hand. Holding both hands: Holding the terminal with both hands
  • the holding state management unit 14 also relates to the management of the holding state, the touch sensor detection state change event input from the right touch sensor unit 12 or the left touch sensor unit 13 and the touch panel input from the touch panel unit 11.
  • the holding state is changed based on the detection event.
  • FIG. 8 shows the holding state transition. This holding state transition is held in the holding state management unit 14 in a table format.
  • the “initial state” is an “x, x” state in which the current touch state is not touched on both the left and right sides.
  • the left touch sensor unit 13 When the left touch sensor unit 13 is touched with a finger in this initial state, the left side becomes the touch state, and “x , X ”state changes to“ ⁇ , x ”state, and transitions to the state of“ 2.
  • the right touch sensor unit 12 is touched with a finger in the initial state of “x, x”, the right side is changed to the touch state, the “x, x” state is changed to the “x, o” state, and “6. Transition to the state of "holding right hand and one hand”. Further, when the touch panel unit 11 is touched in the initial state, the “1. initial state” is maintained.
  • the left touch sensor unit 13 is touched in the “x, x” state before the left one-hand operation
  • the left side is changed to the touch state
  • the “x, x” state is changed to the “ ⁇ , x” state, and “2. Transition to the state of "holding one left hand”.
  • the right touch sensor unit 12 is touched in the “x, x” state before the left one-hand operation
  • the right side is changed to the touch state
  • the “x, x” state is changed to the “x, o” state, and “6. Transition to the state of “holding right hand”.
  • the touch panel unit 11 is touched in the “x, x” state before the left one-hand operation
  • the process transits to “4. after the left one-hand operation”.
  • the left touch sensor unit 13 is touched in the “x, x” state after the left one-hand operation
  • the left side is changed to the touch state
  • the “x, x” state is changed to the “ ⁇ , x” state, and “2. Transition to the state of "holding one left hand”.
  • the right touch sensor unit 12 is touched in the “x, x” state after the left one-handed operation
  • the right side is changed to the touch state
  • the “x, x” state is changed to the “x, o” state, and “6. Transition to the state of “holding right hand”.
  • the touch panel unit 11 is touched in the “x, x” state after the left one-hand operation, “4. After left one-hand operation” is maintained.
  • FIG. 9 is a flowchart showing the operation of the holding state management unit 14 when changing the holding state.
  • the holding state is set to “1. initial state” and notified to the UI display change instruction unit 16 (step ST30).
  • event information touch sensor detection state change event or touch panel detection event
  • step ST31 it is determined whether event information (touch sensor detection state change event or touch panel detection event) has been received (step ST31). If not received, the process of step ST31 is repeated until it is received.
  • the holding state is changed according to the holding state table shown in FIG. 8 (step ST32).
  • the holding state is notified to the UI change instruction unit 16 (step ST33). In other words, the notification is performed in order to always share the holding state with the UI change instruction unit 16.
  • the UI display change instruction unit 16 changes the display mode based on the holding state managed by the holding state management unit 14. That is, the UI display change instruction unit 16 changes the display mode based on the holding state notified from the holding state management unit 14. There are three display modes as shown below.
  • Normal mode No restrictions on the button arrangement of the touch panel unit 11. It is assumed to be used when operating with both hands or when operating with the opposite hand.
  • Right-hand mode The buttons on the touch panel unit 11 are rearranged at positions other than the upper left corner. Assumes only right hand operation.
  • Left-hand mode The buttons on the touch panel unit 11 are rearranged in places other than the upper right corner. Assumes only left hand operation. Note that how to change the touch panel in the right-hand mode and the left-hand mode will be described later.
  • Pattern 1 is such that when one hand operation is performed once or more with the right hand or the left hand, the mode is changed to the hand mode. That is, the mode transitions to the left-hand mode after the left one-hand operation, and transitions to the right-hand mode after the right one-hand operation.
  • Pattern 2 is a transition to the hand mode at the moment when one-handed operation is attempted with the right or left hand. Specifically, the right-hand mode is entered at the moment when the thumb is released from the right touch sensor unit 12 to perform the one-hand operation of the right hand. In addition, the mode is shifted to the left-hand mode at the moment when the thumb is separated from the left touch sensor unit 13 for one-hand operation of the left hand.
  • FIG. 11 is a flowchart showing the operation of the UI change instruction unit 16. Basically, the display is changed from the held state according to the display mode.
  • step ST40 it is first determined whether or not the hold state has been received (step ST40). If not, the process of step ST40 is repeated until it is received.
  • step ST41 the display mode is changed according to the display mode table shown in FIG. 10 from the received holding state (step ST41).
  • step ST42 it is determined whether or not the display mode has been changed. If not changed, the process returns to step ST40, and if changed, the display is changed according to the changed display mode (step ST43).
  • the arrangement of the operation buttons on the upper left (upper right) is moved so that it can be easily reached with the thumb of the right hand (left hand) and moved to a position where the thumb can easily reach.
  • the position of the operation button centered on the outside of a circle having the thumb length as a radius from the fulcrum of the thumb is changed.
  • the operation button “A” corresponds, and therefore the position of the operation button is changed.
  • the operation button “D” is applicable, and the position of the operation button is changed.
  • the whole operation buttons may be shifted little by little by moving the operation button “A”.
  • the operation buttons from “A” to “D” are moved little by little to the right so that they can be easily pushed with the right hand.
  • the operation buttons from “A” to “D” are moved little by little to the left so that they can be easily pushed with the left hand.
  • fulcrum of the thumb varies depending on the shape of the terminal, but it may be fixed for each terminal. For example, there may be fulcrums at the right end and the left end slightly below the center of the casing holding the terminal.
  • Fig. 14 shows an operation image in an actual application.
  • the “return” button is moved closer to the center, making it easier to press with the right hand.
  • the “Add Memo” button is moved closer to the center, making it easier to press with the left hand.
  • the touch sensor detection state from the right touch sensor unit 12 provided on the upper right edge of the housing or the left touch sensor unit 13 provided on the upper left edge of the housing.
  • the holding state management unit 14 that manages holding information indicating how the casing is held by a human hand, and the holding state management unit 14 manage
  • it is determined whether the terminal operation is one-handed operation with the right hand, one-handed operation with the left hand, or two-handed operation. In the case of one-handed operation, it is easy to operate with one hand.
  • the UI display change instruction unit 16 for changing the arrangement of the operation buttons on the touch panel unit 11 is provided as described above, so that the user can hold the right hand or the left hand with one hand and the right hand or the left hand and hold it with the opposite hand. Control When it can manipulate the terminal with the best user interface to use at that time. Further, by changing the correspondence between the state transition and the display mode, the correspondence between the held state and the display mode can be flexibly changed.
  • Embodiment 2 a mobile terminal according to Embodiment 2 of the present invention will be described.
  • the portable terminal of this Embodiment takes the structure similar to the portable terminal 10 of Embodiment 1 mentioned above, suppose that FIG. 1 is used. Further, in order to distinguish from the mobile terminal 10 of the first embodiment, the code given to the mobile terminal of the present embodiment is “20”.
  • the mobile terminal 20 has information indicating which part of the touch sensor unit 12 is touching the touch sensor detection state change event of the right touch sensor unit 12 and the touch sensor according to this information.
  • the range of the place to move the operation button is widened, and when touching the lower part of the touch sensor part 12, it is determined that it is difficult to reach
  • the range of the location where the operation button is moved is narrowed.
  • the radius is changed by a portion touched by the right touch sensor unit 12.
  • FIG. 15A when the upper part of the right touch sensor unit 12 is touched, the radius is increased.
  • FIG. 15B when the lower part of the right touch sensor unit 12 is touched, the radius is made smaller.
  • the position information touched by the right touch sensor unit 12 is managed by the holding state management unit 14 by the touch sensor detection state change event from the right touch sensor unit 12. Then, the UI display change instruction unit 16 is notified together with the holding state, and the display range is changed based on the information at the time of the right hand mode transition.
  • the above process is the same for the left touch sensor unit 13.
  • the movement range of the operation button is changed depending on the size of the hand, so that it is possible to provide an optimal user interface for both a small hand and a large hand.
  • Embodiment 3 a mobile terminal according to Embodiment 3 of the present invention will be described.
  • the portable terminal of this Embodiment takes the structure similar to the portable terminal 10 of Embodiment 1 mentioned above, suppose that FIG. 1 is used. Further, in order to distinguish from the mobile terminal 10 of the first embodiment, the code given to the mobile terminal of the present embodiment is “30”.
  • the mobile terminal 30 is characterized by how the operation buttons transition at the time of transition to the right hand mode (left hand mode).
  • the mobile terminal 30 is moved on a straight line drawn from a fixed point called a right thumb fulcrum to an operation button on the movement target in the right hand mode (at the time of the left hand mode transition).
  • the right thumb fulcrum is fixed and is fixedly determined by the terminal.
  • FIG. 1 An actual example is shown in FIG.
  • the operation button “A” is not reachable from the right thumb, “A” is moved on a straight line drawn from “A” to the right thumb fulcrum. Since the operation button “B” overlaps “B” by the movement of “A”, “B” is moved on a straight line drawn from “B” to the right thumb fulcrum. By moving in this way, it is not necessary to change the direction of the thumb when pressing the “A” operation button when shifting to the right mode (left mode).
  • the mobile terminal 30 of the present embodiment when changing the position of the operation button so that it can be easily handled with one hand, it is moved so as not to change the direction in which the thumb is put out, the normal mode and the right hand (or the left hand) ) Mode can provide a user interface that can be handled comfortably.
  • portable terminals such as cellular phones and PDAs have been described.
  • the present invention is naturally applicable to apparatuses having substantially the same shape as portable terminals (for example, remote controllers used in televisions, recorders, etc.). can do.
  • the present invention has an effect that it can be operated without difficulty even if the case is held with either the left or right hand, and can be applied to a mobile terminal such as a mobile phone or a PDA.

Abstract

 本発明の課題は、筐体を左右のどちらの手で持っても無理なく操作することができる携帯端末を提供することである。  筐体の右縁上側に設けた右タッチセンサ部(12)又は筐体の左縁上側に設けた左タッチセンサ部(13)からのタッチセンサ検知状態変化イベントとタッチパネル部(11)からのタッチパネル検知イベントとを基に筐体が人の手によってどのように保持されているかを示す保持情報を管理する保持状態管理部(14)と、保持状態管理部(14)で管理されている保持情報を基に端末の操作が右手での片手操作か、左手での片手操作か又は両手での操作かを判断し、片手での操作の場合には片手での操作がし易いようにタッチパネル部(11)における操作ボタンの配置を変更するUI表示変更指示部(16)とを備える。この構成により、筐体を左右のどちらの手で持っても無理なく操作を行うことができる。

Description

携帯端末
 本発明は、携帯電話やPDA(Personal Digital Assistant)等の携帯端末に関する。
 近年、携帯電話やPDA等の携帯端末におけるユーザインタフェースとしてタッチパネルが使われ始めている。タッチパネルの採用によりユーザは画面を触るだけで直感的に端末を操作することができる。
 携帯端末はユーザによって様々な持ち方で使われる。具体的には次のように分けられる。
 ・右手で保持、右手で操作
 ・左手で保持、左手で操作
 ・右手で保持、左手で操作
 ・左手で保持、右手で操作
 図17に筐体を右手で保持して右手で操作する場合の概要を示す。この図に示す点線は、片手で保持するときの右手の親指の稼動範囲を表している。また、A、B、C、…のアルファベットで示す各ブロックはタッチパネルに対応してモニタ(液晶ディスプレイ、有機ELディスプレイ等)上に表示されるソフトウェアキー(以下、操作ボタンと呼ぶ)を表すものである。この図に示すように、右手の親指で点線の外側にある操作ボタンを自然に押下することが困難である。例えば「A」及び「B」の機能が該当する。逆に、筐体を左手で保持し、操作する場合の概要を図18に示す。この場合は逆に「C」及び「D」の機能について、左手の親指で点線の外側にある操作ボタンを自然に押下することが難しい。
 一方、筐体を右手で保持して左手で操作する場合と、左手で保持して右手で操作する場合は片手で操作する制限はない。逆に、制限がないので画面全体を広く使えるように機能を割り当てた方が使い易いと言える。
 従来、機器をどのような状態で保持しているかによって入力デバイスあるいは出力デバイスの機能をユーザに合った最適な環境に設定する提案がある(例えば、特許文献1参照)。特許文献1では、機器筐体の両側部に機器筐体を手で保持したときの接触状態を検出するタッチセンサを配置し、機器のCPU(Central Processing Unit)がタッチセンサの検出結果に基づいて機器筐体の保持状態を判別して操作ボタンの機能を切り替えるようにしている。
特開2000-330946号公報
 しかしながら、特許文献1で開示された技術は、機器筐体を右手で持つときと左手で持つときで入力方法及び出力方法を変更することで、ユーザの使い勝手を向上させたものであるが、スキャナ付きハンディターミナルでの使用を前提にしたものであり、大きさが携帯電話やPDA等の携帯端末よりも大きく、機器筐体を保持するとき親指以外の指が逆の側面に回らないことを前提にしている。そのため、そのままの検知方法を携帯端末に応用すると、正しく検知することができないという問題がある。
 また、保持する手によって操作ボタン相対配置を変更するので、操作時に混乱が生ずる虞があるという問題もある。
 本発明は、係る事情に鑑みてなされたものであり、筐体を左右のどちらの手で持っても無理なく操作することができる携帯端末を提供することを目的とする。
 本発明の携帯端末は、端末を操作するためのユーザインタフェースであるタッチパネルを備えた携帯端末において、筐体の右縁上側及び左縁上側の少なくとも一方に設けられたタッチセンサと、前記タッチセンサに触れることで該タッチセンサから出力されるイベント情報と前記タッチパネルに触れることで該タッチパネルから出力されるイベント情報とを基に筐体が人の手によってどのように保持されているかを示す保持情報を管理する保持状態管理手段と、前記保持状態管理手段で管理されている保持情報を基に端末の操作が右手での片手操作か左手での片手操作か又は両手での操作かを判断し、片手での操作の場合には片手での操作を行い易いように前記タッチパネルに対応してモニタ上に表示する操作ボタンの配置を変更する表示変更手段と、を備えた。
 上記構成によれば、筐体を右手で操作する場合は、右手での操作がし易いように操作ボタンの配置を変更し、筐体を左手で操作する場合は、左手での操作がし易いように操作ボタンの配置を変更するので、筐体を左右のどちらの手で持っても無理なく操作を行うことができる。
 また、上記構成において、前記表示変更手段は、前記タッチセンサに触れている親指の位置によって前記操作ボタンの表示範囲を変更する。
 上記構成によれば、片手操作時には操作ボタンの相対的な位置は保持したまま、親指の届く範囲内に操作ボタンを配置させるので、手の大きい人でも小さい人でも無理なく操作を行うことができる。
 また、上記構成において、前記表示変更手段は、前記タッチセンサに触れている親指の位置が該タッチセンサの上側になるほど、前記操作ボタンの表示範囲を前記モニタ上の上側へ拡げる。
 上記構成によれば、片手操作時には操作ボタンの相対的な位置は保持したまま、親指の位置がタッチセンサの上側になるほど、前記操作ボタンの表示範囲を上側へ拡げるので、手の大きい人でも小さい人でも無理なく操作を行うことができる。
 また、上記構成において、前記表示変更手段は、親指の支点にあたる筐体上の点と前記操作ボタンを結ぶ直線上で前記操作ボタンを移動させる。
 上記構成によれば、親指の出す方向を常に一定にできるので、操作性の向上が図れる。
 本発明は、筐体の持ち方によって操作ボタンの配置を変更するので、筐体を左右のどちらの手で持っても無理なく操作を行うことができる。
本発明の実施の形態1に係る携帯端末の操作及び表示を行う部分の構成を示すブロック図 本発明の実施の形態1に係る携帯端末を右タッチセンサ部が見える側から見た斜視図 本発明の実施の形態1に係る携帯端末を右手で持っている様子を示す斜視図 本発明の実施の形態1に係る携帯端末を左タッチセンサ部が見える側から見た斜視図 本発明の実施の形態1に係る携帯端末を左手で持っている様子を示す斜視図 本発明の実施の形態1に係る携帯端末の右タッチセンサ部の動作を説明するためのフローチャート 本発明の実施の形態1に係る携帯端末のタッチパネル部の動作を説明するためのフローチャート 本発明の実施の形態1に係る携帯端末の保持状態管理部が実行する保持状態遷移処理を説明するための図 本発明の実施の形態1に係る携帯端末の保持状態管理部の動作を説明するためのフローチャート 本発明の実施の形態1に係る携帯端末のUI表示変更指示部が実行する表示モードの変更処理を説明するための図 本発明の実施の形態1に係る携帯端末のUI表示変更指示部の動作を説明するためのフローチャート 本発明の実施の形態1に係る携帯端末のUI表示変更指示部が実行する操作ボタン右手操作時の位置変更処理を説明するための図 本発明の実施の形態1に係る携帯端末のUI表示変更指示部が実行する操作ボタン左手操作時の位置変更処理を説明するための図 本発明の実施の形態1に係る携帯端末のUI表示変更指示部が実行する位置変更処理を説明するための図 本発明の実施の形態2に係る携帯端末のUI表示変更指示部が実行する表示モードの変更処理を説明するための図 本発明の実施の形態3に係る携帯端末のUI表示変更指示部が実行する表示モードの変更処理を説明するための図 従来の携帯端末を右手で保持して右手で操作する場合の概要を示す図 従来の携帯端末を左手で保持して左手で操作する場合の概要を示す図
符号の説明
 10、20、30 携帯端末
 11 タッチパネル部
 12 右タッチセンサ部
 13 左タッチセンサ部
 14 保持状態管理部
 15 表示部
 16 UI表示変更指示部
 以下、本発明を実施するための好適な実施の形態について、図面を参照して詳細に説明する。
 (実施の形態1)
 図1は、本発明の実施の形態1に係る携帯端末の概略構成を示すブロック図である。この図は本実施の形態の携帯端末10の操作及び表示を行う部分のみを示したものであり、タッチパネル部11と、右タッチセンサ部12と、左タッチセンサ部13と、保持状態管理部14と、表示部15と、UI(User Interface)表示変更指示部16とを備えて構成される。
 タッチパネル部11は、表示部15の上に設けられたタッチパネルである。右タッチセンサ部12は、図2に示すようにタッチパネル部11の画面を正面に見て右側の側面に設けられている。図3は右タッチセンサ部12を使用するときの持ち方を示す外観図であり、右手の親指が右タッチセンサ部12に触れている。左タッチセンサ部13は、図4に示すように、タッチパネル部11の画面を正面に見て左側の側面に設けられている。図5は左タッチセンサ部13を使用するときの持ち方を示す外観図であり、左手の親指が左タッチセンサ部13に触れている。
 右タッチセンサ部12及び左タッチセンサ部13における検知状態は以下の2種類である。
  無し:タッチセンサに指が触れていない状態
  有り:タッチセンサに指が触れている状態
 右タッチセンサ部12及び左タッチセンサ部13では、タッチセンサに指が触れたときにタッチセンサ検知状態変更イベントを出力する。このタッチセンサ検知状態変更イベントの情報として、以下の2種類のいずれかを保持状態管理部14に通知する。
  センサ検知状態が無し⇒有りの変化イベント
  センサ検知状態が有り⇒無しの変化イベント
 図6は、右タッチセンサ部12の動作を示すフローチャートである。なお、左タッチセンサ部13の動作も右タッチセンサ部12と同様であるので説明を省略する。図6において、まずタッチセンサ検知状態の変化を判定し(ステップST10)、当該状態に変化が無ければその変化が有るまでこのステップを繰り返し、変化が有ればタッチセンサ検知状態変更イベントを保持状態管理部14に通知し(ステップST11)、ステップST10の判定に戻る。このように、右タッチセンサ部12及び左タッチセンサ部13は、センサの検知待ち状態を維持し、タッチセンサ検知状態が変化したときのみタッチセンサ検知状態変更イベントを保持状態管理部14に通知する。
 図1において、タッチパネル部11は、指が触れたことを検知し、タッチパネル検知イベントとして保持状態管理部14に通知する。なお、指が触れた位置から表示部15の画面上の位置も保持状態管理部14に通知する。また、指の接触の検知には感圧式と静電式の2通りがあり、前者は圧力の変化を検知し、後者は静電気による電気信号を検知する。
 図7は、タッチパネル部10の動作を示すフローチャートである。図7において、まずタッチパネル検知状態の変化の有無を判定し(ステップST20)、当該状態に変化が無ければその変化が有るまでこのステップを繰り返し、変化が有ればタッチパネル検知イベントを保持状態管理部14に通知し(ステップST21)、ステップST20の判定に戻る。このように、タッチパネル部10に指が触れたことを検知したときにタッチパネル検知イベントを保持状態管理部14に通知する。
 図1に戻り、保持状態管理部14は、右タッチセンサ部12又は左タッチセンサ部13からのタッチセンサ検知状態変化イベント(イベント情報)とタッチパネル部11からのタッチパネル検知イベント(イベント情報)とを基に現在の保持状態を管理する。保持状態管理部14は、以下に状態を保持状態と定義し、管理している。
 1.初期状態:まだユーザが端末(携帯端末、以下同様)を保持していない状態
 2.左片手保持:左手で保持している状態
 3.左片手操作前:左手の親指で端末を操作しようとしている状態
 4.左手操作後:左手の親指で端末を1回以上操作している状態
 5.左保持右操作:左手で保持したまま、右手で操作している状態
 6.右片手保持:右手で保持している状態
 7.右片手操作前:右手の親指で端末を操作しようとしている状態
 8.右片手操作後:右手の親指で端末を1回以上操作している状態
 9.右保持左操作:右手で保持したまま、左手で操作している状態
 10.両手保持:両手で端末を保持している状態
 また、保持状態管理部14は、保持状態の管理に関して、上記した保持状態を右タッチセンサ部12又は左タッチセンサ部13から入力されるタッチセンサ検知状態変化イベントとタッチパネル部11から入力されるタッチパネル検知イベントとを基に保持状態を遷移させる。図8に保持状態遷移を示す。この保持状態遷移はテーブル形式で保持状態管理部14に保持される。
 “初期状態”は、現在のタッチ状態が左右共に未タッチの「×、×」状態であり、この初期状態で左タッチセンサ部13に指でタッチすると、左がタッチ状態となって、「×、×」状態から「○、×」状態になり、「2.左手片手保持」の状態に遷移する。
 また、初期状態の「×、×」状態で右タッチセンサ部12に指でタッチすると、右がタッチ状態となって、「×、×」状態から「×、○」状態になり、「6.右手片手保持」の状態に遷移する。
 また、初期状態でタッチパネル部11がタッチされた場合、「1.初期状態」を維持する。
 また、左片手保持の「○、×」状態で左タッチセンサ部13から指を離すと、左が未タッチ状態となって、「○、×」状態から「×、×」状態になり、「3.左片手操作前」の状態に遷移する。
 また、左片手保持の「○、×」状態で右タッチセンサ部12にタッチすると、右がタッチ状態となって、「○、×」状態から「○、○」状態になり、「10.両手保持」の状態に遷移する。
 また、左片手保持の「○、×」状態でタッチパネル部11がタッチされた場合、「5.左保持右操作」に遷移する。
 また、左片手操作前の「×、×」状態で左タッチセンサ部13にタッチすると、左がタッチ状態となって、「×、×」状態から「○、×」状態になり、「2.左片手保持」の状態に遷移する。
 また、左片手操作前の「×、×」状態で右タッチセンサ部12にタッチすると、右がタッチ状態となって、「×、×」状態から「×、○」状態になり、「6.右片手保持」の状態に遷移する。
 また、左片手操作前の「×、×」状態でタッチパネル部11がタッチされた場合、「4.左片手操作後」に遷移する。
 また、左片手操作後の「×、×」状態で左タッチセンサ部13にタッチすると、左がタッチ状態となって、「×、×」状態から「○、×」状態になり、「2.左片手保持」の状態に遷移する。
 また、左片手操作後の「×、×」状態で右タッチセンサ部12にタッチすると、右がタッチ状態となって、「×、×」状態から「×、○」状態になり、「6.右片手保持」の状態に遷移する。
 また、左片手操作後の「×、×」状態でタッチパネル部11がタッチされた場合、「4.左片手操作後」を維持する。
 また、左保持右操作の「○、×」状態で左タッチセンサ部13から指を離すと、左が未タッチ状態となって、「○、×」状態から「×、×」状態になり、「3.左片手操作前」の状態に遷移する。
 また、左保持右操作の「○、×」状態で右タッチセンサ部12にタッチすると、右がタッチ状態となって、「○、×」状態から「○、○」状態になり、「10.両手保持」の状態に遷移する。
 また、左保持右操作の「○、×」状態でタッチパネル部11がタッチされた場合、「5.左保持右操作」を維持する。
 また、右片手保持の「×、○」状態で左タッチセンサ部13にタッチすると、左がタッチ状態となって、「×、○」状態から「○、○」状態になり、「10.両手保持」の状態に遷移する。
 また、右片手保持の「×、○」状態で右タッチセンサ部12から指を離すと、右が未タッチ状態となって、「×、○」状態から「×、×」状態になり、「7.右片手操作前」の状態に遷移する。
 また、右片手保持の「×、○」状態でタッチパネル部11がタッチされた場合、「9.右保持左操作」に遷移する。
 また、右片手操作前の「×、×」状態で左タッチセンサ部13にタッチすると、左がタッチ状態となって、「×、×」状態から「○、×」状態になり、「2.左片手保持」の状態に遷移する。
 また、右片手操作前の「×、×」状態で右タッチセンサ部12にタッチすると、右がタッチ状態となって、「×、×」状態から「×、○」状態になり、「6.右片手保持」の状態に遷移する。
 また、右片手操作前の「×、×」状態でタッチパネル部11がタッチされた場合、「8.右片手操作後」に遷移する。
 また、右片手操作後の「×、×」状態で左タッチセンサ部13にタッチすると、左がタッチ状態となって、「×、×」状態から「○、×」状態になり、「2.左片手保持」の状態に遷移する。
 また、右片手操作後の「×、×」状態で右タッチセンサ部12にタッチすると、右がタッチ状態となって、「×、×」状態から「×、○」状態になり、「6.右片手保持」の状態に遷移する。
 また、右片手操作後の「×、×」状態でタッチパネル部11がタッチされた場合、「8.右片手操作後」を維持する。
 また、右保持左操作の「×、○」状態で左タッチセンサ部13にタッチすると、左がタッチ状態となって、「×、○」状態から「○、○」状態になり、「10.両手保持」の状態に遷移する。
 また、右保持左操作の「×、○」状態で右タッチセンサ部12から指を離すと、右が未タッチ状態となって、「×、○」状態から「×、×」状態になり、「7.右片手操作前」の状態に遷移する。
 また、右保持左操作の「×、○」状態でタッチパネル部11がタッチされた場合、「9.右保持左操作」を維持する。
 また、両手保持の「○、○」状態で左タッチセンサ部13から指を離すと、左が未タッチ状態となって、「○、○」状態から「×、○」状態になり、「6.右片手保持」の状態に遷移する。
 また、両手保持の「○、○」状態で右タッチセンサ部12から指を離すと、右が未タッチ状態となって、「○、○」状態から「○、×」状態になり、「2.左片手保持」の状態に遷移する。
 また、両手保持の「○、○」状態でタッチパネル部11がタッチされた場合、「10.両手保持」を維持する。
 図9は、保持状態を遷移するときの保持状態管理部14の動作を示すフローチャートである。図9において、まず保持状態を「1.初期状態」にセットし、UI表示変更指示部16に通知する(ステップST30)。次いで、イベント情報(タッチセンサ検知状態変更イベント又はタッチパネル検知イベント)を受信したかどうか判定し(ステップST31)、受信しない場合はそれを受信するまでステップST31の処理を繰り返す。イベントを受信した場合は、図8に示す保持状態のテーブルに従って保持状態を遷移する(ステップST32)。次いで、保持状態をUI変更指示部16に通知する(ステップST33)。すなわち、保持状態を常にUI変更指示部16と共有するため通知を行う。
 図1に戻り、UI表示変更指示部16は、保持状態管理部14が管理している保持状態を基に表示モードを変更する。すなわち、UI表示変更指示部16は、保持状態管理部14から通知される保持状態を基に表示モードを変更する。表示モードは以下に示す3種類がある。
 ノーマルモード:タッチパネル部11のボタン配置の制限無し。
 両手で操作しているときや、保持している手と逆の手で操作しているときに用いることを想定。
 右手モード:タッチパネル部11のボタン配置を左上隅以外の所に再配置する。
 右手だけの操作を想定。
 左手モード:タッチパネル部11のボタン配置を右上隅以外の所に再配置する。
 左手だけの操作を想定。
 なお、右手モード及び左手モードのときのタッチパネルの変更の仕方については後述する。
 表示モードと保持状態の関係は実装上いろいろ挙げられるが、ここでは代表的なパターンを図10に示す。パターン1は、右手又は左手で片手操作を1回以上行うと、その手のモードに遷移するというものである。すなわち、左片手操作後に左手モードに遷移し、また右片手操作後に右手モードに遷移する。パターン2は、右手又は左手で片手操作をしようとした瞬間にその手モードに遷移するというものである。具体的には、右手の片手操作をしようと親指を右タッチセンサ部12から離した瞬間に右手モードに遷移する。また、左手の片手操作をしようと親指を左タッチセンサ部13から離した瞬間に左手モードに遷移する。
 図11は、UI変更指示部16の動作を示すフローチャートである。基本的には保持状態から表示モードに従って表示を変更する。図11において、まず保持状態を受信したかどうか判定し(ステップST40)、受信しない場合はそれを受信するまでステップST40の処理を繰り返す。保持状態を受信した場合は、表示モードを、受信した保持状態から図10に示す表示モードテーブルに従って変更する(ステップST41)。次いで、表示モードが変更したかどうか判定し(ステップST42)、変更してない場合はステップST40に戻り、変更した場合は変更後の表示モードに従って表示を変更する(ステップST43)。
 (右手モード及び左手モード)
 右手(左手)の親指で届きやすいように、左上(右上)にある操作ボタンの配置を移動させて、親指の届きやすい位置に移動させる。例えば、親指の支点から親指の長さを半径にした円の外に中心がある操作ボタンの位置を変更する。図12に示す操作ボタンの配置では、右手で操作する場合は、「A」の操作ボタンが該当するので、該操作ボタンの位置を変更させる。また、左手で操作する場合は、図13に示すように、「D」の操作ボタンが該当するので、該操作ボタンの位置を変更させる。
 「A」の操作ボタンを移動させることで、全体の操作ボタンを少しずつずらすようにしてもよい。図12では「A」から「D」までの操作ボタンを少しずつ右に移動させて、右手で押し易くしている。同様に、図13では「A」から「D」までの操作ボタンを少しずつ左に移動させて、左手で押し易くしている。
 なお、親指の支点の決め方は端末の形状によって変わるが、端末毎に固定するとよい。例えば、端末を保持する筐体の中央より少し下の右端及び左端のそれぞれの支点があるとよい。
 図14に、実際のアプリケーションでの動作イメージを示す。右手モードでは「戻る」ボタンを中央寄りに移動させることで、右手で押し易くなる。左手モードでは「メモ追加」ボタンを中央寄りに移動させることで、左手で押し易くなる。
 このように本実施の形態の携帯端末10によれば、筐体の右縁上側に設けた右タッチセンサ部12又は筐体の左縁上側に設けた左タッチセンサ部13からのタッチセンサ検知状態変化イベントとタッチパネル部11からのタッチパネル検知イベントとを基に筐体が人の手によってどのように保持されているかを示す保持情報を管理する保持状態管理部14と、保持状態管理部14で管理されている保持情報を基に端末の操作が右手での片手操作か、左手での片手操作か又は両手での操作かを判断し、片手での操作の場合には片手での操作がし易いようにタッチパネル部11における操作ボタンの配置を変更するUI表示変更指示部16とを備えたので、右手又は左手で持って片手で操作するときと、右手又は左手で保持していて逆の手で操作するときで、そのとき使う最適なユーザインタフェースで端末を操作することができる。また、状態遷移と表示モードの対応を変更することで保持している状態と表示モードの対応を柔軟に変えることができる。
 (実施の形態2)
 次に、本発明の実施の形態2に係る携帯端末について説明する。なお、本実施の形態の携帯端末は、前述した実施の形態1の携帯端末10と同様の構成を採るので、図1を援用することとする。また、実施の形態1の携帯端末10と区別するために本実施の形態の携帯端末に付与する符号を“20”とする。
 本実施の形態の携帯端末20は、右タッチセンサ部12のタッチセンサ検知状態変化イベントにタッチセンサ部12のどの部分を親指がタッチしているかを示す情報を有し、この情報に従い、タッチセンサ部12の上方の部分に触れている場合は、右手モード移行時において、操作ボタンを移動させる場所の範囲を広めにし、タッチセンサ部12の下方の部分に触れている場合は、届き難いと判断して、右手モード移行時において、操作ボタンを移動させる場所の範囲を狭めにする。
 具体的には、親指の支点から親指の長さを半径にした円の外のキーを移動させる場合、その半径を右タッチセンサ部12の触れる部分によって変更させる。図15の(a)に示すように、右タッチセンサ部12の上方の部分に触れている場合はその半径を大きめにする。また、図15の(b)に示すように、右タッチセンサ部12の下方の部分に触れている場合はその半径を小さめにする。右タッチセンサ部12の触れている位置情報は、右タッチセンサ部12からタッチセンサ検知状態変化イベントにより保持状態管理部14で管理を行う。そして、保持状態とともにUI表示変更指示部16に通知を行い、右手モード遷移時にその情報を元に表示範囲の変更を加える。なお、上記処理は左タッチセンサ部13でも同様である。
 このように本実施の形態の携帯端末20によれば、手の大きさによって操作ボタンの移動範囲を変更するので、手の小さい人も手の大きい人にも最適なユーザインタフェースを提供できる。
 (実施の形態3)
 次に、本発明の実施の形態3に係る携帯端末について説明する。なお、本実施の形態の携帯端末は、前述した実施の形態1の携帯端末10と同様の構成を採るので、図1を援用することとする。また、実施の形態1の携帯端末10と区別するために本実施の形態の携帯端末に付与する符号を“30”とする。
 本実施の形態の携帯端末30は、右手モード(左手モード)遷移時の操作ボタンの遷移の仕方に特徴を有するものである。本実施の形態の携帯端末30では、右手モード(左手モード遷移時)に右親指支点と呼ぶ固定点からその移動対象にある操作ボタンまで引いた直線上で移動させる。右親指支点は固定であり端末によって固定的に決める。
 実際の例を図16に示す。この図において、「A」の操作ボタンは右親指から届かないところにあるので、「A」から右親指支点まで引いた直線上で「A」を移動させる。「B」の操作ボタンに関しては、「A」の移動により「B」と重なってしまうので、「B」から右親指支点まで引いた直線上で「B」を移動させる。このように移動させることで、右モード(左モード)に遷移するときに「A」の操作ボタンを押すときに親指の出す方向を変えなくてよくなるので、違和感なく使用することができる。
 このように本実施の形態の携帯端末30によれば、片手で扱いやすいように操作ボタンの位置変更をする際に親指の出す方向を変更しないように移動させるので、ノーマルモードと右手(又は左手)モードで違和感なく扱えるようなユーザインタフェースを提供できる。
 なお、上記実施の形態では、携帯電話やPDA等の携帯端末について述べたが、本発明は、携帯端末と略同様の形状の装置(例えばテレビやレコーダ等で使用されるリモコン)にも勿論適用することができる。
 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明らかである。
 本出願は、2008年1月18日出願の日本特許出願(特願2008-009173)に基づくものであり、その内容はここに参照として取り込まれる。
 本発明は、筐体を左右のどちらの手で持っても無理なく操作することができるといった効果を有し、携帯電話やPDA等の携帯端末への適用が可能である。

Claims (4)

  1.  端末を操作するためのユーザインタフェースであるタッチパネルを備えた携帯端末
    において、
     筐体の右縁上側及び左縁上側の少なくとも一方に設けられたタッチセンサと、
     前記タッチセンサに触れることで該タッチセンサから出力されるイベント情報と前記タッチパネルに触れることで該タッチパネルから出力されるイベント情報とを基に筐体が人の手によってどのように保持されているかを示す保持情報を管理する保持状態管理手段と、
     前記保持状態管理手段で管理されている保持情報を基に端末の操作が右手での片手操作か左手での片手操作か又は両手での操作かを判断し、片手での操作の場合には片手での操作を行い易いように前記タッチパネルに対応してモニタ上に表示する操作ボタンの配置を変更する表示変更手段と、
     を備えた携帯端末。
  2.  前記表示変更手段は、前記タッチセンサに触れている親指の位置によって前記操作ボタンの表示範囲を変更する請求項1に記載の携帯端末。
  3.  前記表示変更手段は、前記タッチセンサに触れている親指の位置が該タッチセンサの上側になるほど、前記操作ボタンの表示範囲を前記モニタ上の上側へ拡げる請求項2に記載の携帯端末。
  4.  前記表示変更手段は、親指の支点にあたる筐体上の点と前記操作ボタンを結ぶ直線上で前記操作ボタンを移動させる請求項1に記載の携帯端末。
PCT/JP2008/003632 2008-01-18 2008-12-05 携帯端末 WO2009090704A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008-009173 2008-01-18
JP2008009173A JP2009169820A (ja) 2008-01-18 2008-01-18 携帯端末

Publications (1)

Publication Number Publication Date
WO2009090704A1 true WO2009090704A1 (ja) 2009-07-23

Family

ID=40885115

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/003632 WO2009090704A1 (ja) 2008-01-18 2008-12-05 携帯端末

Country Status (2)

Country Link
JP (1) JP2009169820A (ja)
WO (1) WO2009090704A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076521A (ja) * 2009-10-01 2011-04-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
WO2012126992A3 (en) * 2011-03-24 2012-11-15 Microchip Technology Incorporated Measuring device and method for the detection of an approach to a hand -held device
WO2013035229A1 (ja) * 2011-09-05 2013-03-14 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、携帯端末制御方法及びプログラム
JP2014021596A (ja) * 2012-07-13 2014-02-03 Fujitsu Ltd タブレット端末、操作受付方法および操作受付プログラム
EP2711819A4 (en) * 2011-08-19 2014-03-26 Huawei Device Co Ltd METHOD FOR IDENTIFYING THE OPERATING MODE OF A PORTABLE DEVICE AND ASSOCIATED PORTABLE DEVICE
US8760426B1 (en) * 2012-03-26 2014-06-24 Amazon Technologies, Inc. Dominant hand detection for computing devices
JP2014179085A (ja) * 2013-03-13 2014-09-25 Immersion Corp ユーザの接触に基づいてグラフィカルユーザインターフェースを表示するための方法及び装置
WO2015025550A1 (ja) * 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
CN104898959A (zh) * 2015-04-30 2015-09-09 努比亚技术有限公司 一种调整虚拟按钮位置的方法和装置
EP3214533A4 (en) * 2014-11-28 2017-11-15 Huawei Technologies Co. Ltd. Method and terminal for moving screen interface
GB2541730B (en) * 2015-08-28 2020-05-13 Samsung Electronics Co Ltd Displaying graphical user interface elements on a touch screen

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100297929A1 (en) * 2009-05-20 2010-11-25 Harris Technology, Llc Prevention against Texting and other Keyboard Operations While Driving
KR20110034858A (ko) * 2009-09-29 2011-04-06 주식회사 넥슨모바일 게임 운영을 제어하기 위한 사용자 인터페이스 제공 방법
JP2011086036A (ja) * 2009-10-14 2011-04-28 Victor Co Of Japan Ltd 電子機器、アイコン表示方法およびアイコン表示プログラム
US8665227B2 (en) * 2009-11-19 2014-03-04 Motorola Mobility Llc Method and apparatus for replicating physical key function with soft keys in an electronic device
JP5115546B2 (ja) * 2009-12-24 2013-01-09 ブラザー工業株式会社 入力装置および入力制御プログラム
JP5526789B2 (ja) 2010-01-08 2014-06-18 ソニー株式会社 情報処理装置およびプログラム
JP5411733B2 (ja) * 2010-02-04 2014-02-12 株式会社Nttドコモ 表示装置及びプログラム
JP5387469B2 (ja) * 2010-03-19 2014-01-15 富士通株式会社 情報処理装置
JP5561043B2 (ja) * 2010-09-07 2014-07-30 日本電気株式会社 携帯端末装置及びプログラム
WO2012049942A1 (ja) 2010-10-13 2012-04-19 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、および携帯端末装置におけるタッチパネルの表示方法
JP2012191445A (ja) * 2011-03-10 2012-10-04 Kddi Corp 携帯端末装置および制御プログラム
JP5453351B2 (ja) * 2011-06-24 2014-03-26 株式会社Nttドコモ 移動情報端末、操作状態判定方法、プログラム
JP5588931B2 (ja) * 2011-06-29 2014-09-10 株式会社Nttドコモ 移動情報端末、配置領域取得方法、プログラム
JP5911961B2 (ja) 2011-09-30 2016-04-27 インテル コーポレイション 意図的でないタッチセンサへの接触を排除するモバイルデバイス
KR101654553B1 (ko) * 2011-12-16 2016-09-07 삼성전자주식회사 휴대 단말기의 터치 입력 방법 및 장치
US9541993B2 (en) 2011-12-30 2017-01-10 Intel Corporation Mobile device operation using grip intensity
US9250768B2 (en) 2012-02-13 2016-02-02 Samsung Electronics Co., Ltd. Tablet having user interface
KR101496512B1 (ko) 2012-03-08 2015-02-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
JP2013214164A (ja) 2012-03-30 2013-10-17 Fujitsu Ltd 携帯電子機器、スクロール処理方法及びスクロール処理プログラム
JP2013218428A (ja) 2012-04-05 2013-10-24 Sharp Corp 携帯型電子機器
CN102694915B (zh) * 2012-05-18 2014-04-09 张群 用于具有触摸屏幕的手机的显示控制方法及系统
CN103809866B (zh) * 2012-11-13 2018-07-06 联想(北京)有限公司 一种操作模式切换方法和电子设备
JP5965339B2 (ja) * 2013-03-11 2016-08-03 シャープ株式会社 携帯型装置
JP6218415B2 (ja) 2013-04-02 2017-10-25 キヤノン株式会社 情報処理装置、制御方法、コンピュータプログラム
KR102161450B1 (ko) 2013-04-09 2020-10-05 삼성전자 주식회사 휴대형 전자장치의 객체 표시 방법 및 그에 관한 장치
CN103677266B (zh) * 2013-12-09 2017-01-25 联想(北京)有限公司 一种电子设备及其显示控制方法和系统
JP6275584B2 (ja) * 2014-08-05 2018-02-07 シャープ株式会社 電子機器
JP5999164B2 (ja) * 2014-10-27 2016-09-28 株式会社ニコン 表示装置、プログラム及び表示方法
CN104598123B (zh) * 2014-12-22 2018-07-20 深圳市万普拉斯科技有限公司 移动终端的屏幕显示画面的显示方法和装置
CN104461322A (zh) * 2014-12-30 2015-03-25 中科创达软件股份有限公司 一种手持设备的用户界面显示方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179502A (ja) * 2005-12-28 2007-07-12 Sharp Corp 情報処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007179502A (ja) * 2005-12-28 2007-07-12 Sharp Corp 情報処理装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076521A (ja) * 2009-10-01 2011-04-14 Sony Corp 情報処理装置、情報処理方法およびプログラム
JP2014508948A (ja) * 2011-03-24 2014-04-10 マイクロチップ テクノロジー インコーポレイテッド 携帯デバイスへの接近の検出のための測定デバイスおよび方法
WO2012126992A3 (en) * 2011-03-24 2012-11-15 Microchip Technology Incorporated Measuring device and method for the detection of an approach to a hand -held device
CN103443731B (zh) * 2011-03-24 2017-02-15 密克罗奇普技术公司 用于检测到手持式装置的接近的测量装置及方法
CN103443731A (zh) * 2011-03-24 2013-12-11 密克罗奇普技术公司 用于检测到手持式装置的接近的测量装置及方法
KR20140012701A (ko) * 2011-03-24 2014-02-03 마이크로칩 테크놀로지 인코포레이티드 휴대용 디바이스에의 접근 검출을 위한 측정 장치 및 방법
US9354263B2 (en) 2011-03-24 2016-05-31 Microchip Technology Germany Gmbh Measuring device and method for the detection of an approach
KR101868924B1 (ko) * 2011-03-24 2018-06-19 마이크로칩 테크놀로지 인코포레이티드 휴대용 디바이스에의 접근 검출을 위한 측정 장치 및 방법
EP2711819A4 (en) * 2011-08-19 2014-03-26 Huawei Device Co Ltd METHOD FOR IDENTIFYING THE OPERATING MODE OF A PORTABLE DEVICE AND ASSOCIATED PORTABLE DEVICE
EP2711819A1 (en) * 2011-08-19 2014-03-26 Huawei Device Co., Ltd. Handheld device operation mode identification method and handheld device
WO2013035229A1 (ja) * 2011-09-05 2013-03-14 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、携帯端末制御方法及びプログラム
JPWO2013035229A1 (ja) * 2011-09-05 2015-03-23 Necカシオモバイルコミュニケーションズ株式会社 携帯端末装置、携帯端末制御方法及びプログラム
US8760426B1 (en) * 2012-03-26 2014-06-24 Amazon Technologies, Inc. Dominant hand detection for computing devices
JP2014021596A (ja) * 2012-07-13 2014-02-03 Fujitsu Ltd タブレット端末、操作受付方法および操作受付プログラム
US9952690B2 (en) 2012-07-13 2018-04-24 Fujitsu Limited Tablet device, and operation receiving method
JP2014179085A (ja) * 2013-03-13 2014-09-25 Immersion Corp ユーザの接触に基づいてグラフィカルユーザインターフェースを表示するための方法及び装置
WO2015025550A1 (ja) * 2013-08-22 2015-02-26 シャープ株式会社 表示装置、および、タッチ操作処理方法
EP3214533A4 (en) * 2014-11-28 2017-11-15 Huawei Technologies Co. Ltd. Method and terminal for moving screen interface
CN104898959A (zh) * 2015-04-30 2015-09-09 努比亚技术有限公司 一种调整虚拟按钮位置的方法和装置
GB2541730B (en) * 2015-08-28 2020-05-13 Samsung Electronics Co Ltd Displaying graphical user interface elements on a touch screen

Also Published As

Publication number Publication date
JP2009169820A (ja) 2009-07-30

Similar Documents

Publication Publication Date Title
WO2009090704A1 (ja) 携帯端末
JP5642659B2 (ja) 電子機器及び電子機器の制御方法
JP5759660B2 (ja) タッチ・スクリーンを備える携帯式情報端末および入力方法
JP4372188B2 (ja) 情報処理装置および表示制御方法
US8739053B2 (en) Electronic device capable of transferring object between two display units and controlling method thereof
WO2012042876A1 (ja) 入力装置及び入力装置の制御方法
JP5755219B2 (ja) タッチパネル機能付き携帯端末及びその入力方法
JP2010152716A (ja) 入力装置
JP2010152736A (ja) 入力装置
JP2013131087A (ja) 表示装置
JP2012505443A (ja) ポータブル電子デバイス、ならびに2次的文字レンダリングおよび入力の方法
US20120287073A1 (en) Selection of a selection item on a touch-sensitive display
JP6162299B1 (ja) 情報処理装置、入力切替方法、及びプログラム
JP5197533B2 (ja) 情報処理装置および表示制御方法
JP6109788B2 (ja) 電子機器及び電子機器の作動方法
US20110316811A1 (en) Input device of portable electronic apparatus, control method of input device, and program
CN107621899B (zh) 信息处理装置、误操作抑制方法以及计算机可读存储介质
EP3211510B1 (en) Portable electronic device and method of providing haptic feedback
JP5968588B2 (ja) 電子機器
EP2818984B1 (en) Touch panel input device and control method for same
KR20090015259A (ko) 단말 및 그의 기능 수행 방법
JP5793054B2 (ja) 携帯端末装置、プログラムおよび実行抑制方法
KR20120129621A (ko) 휴대용 전기전자 기기의 사용자 인터페이스 제어 장치 및 방법
JP2004287640A (ja) 入力表示装置
GB2438477A (en) Portable electronic device having plural touchpad modes and keypad press mode of operation

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08870956

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 08870956

Country of ref document: EP

Kind code of ref document: A1