WO2014024277A1 - 携帯電子機器、その制御方法及びプログラム - Google Patents

携帯電子機器、その制御方法及びプログラム Download PDF

Info

Publication number
WO2014024277A1
WO2014024277A1 PCT/JP2012/070228 JP2012070228W WO2014024277A1 WO 2014024277 A1 WO2014024277 A1 WO 2014024277A1 JP 2012070228 W JP2012070228 W JP 2012070228W WO 2014024277 A1 WO2014024277 A1 WO 2014024277A1
Authority
WO
WIPO (PCT)
Prior art keywords
electronic device
portable electronic
unit
display
function
Prior art date
Application number
PCT/JP2012/070228
Other languages
English (en)
French (fr)
Inventor
恵一 中嶋
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to CN201280075166.9A priority Critical patent/CN104520798B/zh
Priority to US14/419,096 priority patent/US20150242117A1/en
Priority to EP12882809.2A priority patent/EP2884376A4/en
Priority to PCT/JP2012/070228 priority patent/WO2014024277A1/ja
Publication of WO2014024277A1 publication Critical patent/WO2014024277A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the present invention is based on a Japanese patent application: Japanese Patent Application No. 2011-032850 (filed on Feb. 18, 2011), and the entire description of the application is incorporated herein by reference.
  • the present invention relates to a portable electronic device, a control method thereof, and a program.
  • the present invention relates to a portable electronic device provided with a touch panel.
  • portable electronic devices such as mobile phones, smartphones, PDAs (Personal Digital Assistants), digital cameras, music players, and game consoles have become widespread.
  • portable electronic devices equipped with a touch panel are widely used with the enhancement of the functionality of portable electronic devices. This is because if the touch panel is used, icons and keys displayed on an LCD (Liquid Crystal Display) included in the portable electronic device can be directly operated, and menu settings and application operations can be performed intuitively.
  • a very excellent operability is provided by combining a GUI (Graphical User Interface) with a touch panel and an LCD.
  • Patent Document 1 when a user touches the screen display unit with a touch panel, various operation buttons are displayed around the contacted position, and a predetermined operation can be performed without changing with one hand.
  • a digital camera is disclosed.
  • Patent Document 1 discloses an operation method for displaying various operation keys around a position touched on a screen.
  • Such an operation method is a feasible method because it is a digital camera specialized in the function of taking a photograph. Therefore, the operation method disclosed in Patent Document 1 cannot be applied to portable electronic devices having various functions such as a telephone, mail, and WEB (web) browser.
  • An application such as a WEB browser is operated by an operation using a touch panel.
  • a certain position on the display screen is touched, it is an instruction to the application such as the WEB browser, or various operation buttons are displayed. It is necessary to clearly distinguish whether it is an instruction.
  • the user touches the touch panel in the state where the WEB browser is activated and the user touches the touch panel in anticipation of returning to the previous page the user's intention is Therefore, it is recognized as a portable electronic device with poor convenience and operability.
  • a portable electronic device that can be easily operated by a user without changing the hand holding the portable electronic device, a control method thereof, and a program are desired.
  • a display unit that displays a screen, an operation unit that receives an operation by a user, a first function that is executed when the operation unit receives a first operation, and the operation unit
  • a portable electronic device When receiving the second operation, a portable electronic device is provided that includes a control unit that displays virtual operation means for executing the second function on the display unit.
  • a method for controlling a portable electronic device including a display unit that performs screen display and an operation unit that receives an operation by a user, and the operation unit receives the first operation. And a step of executing the first function, and a step of displaying a virtual operation means for executing the second function on the display unit when the operation unit accepts the second operation.
  • a control method is provided.
  • this method is tied to the specific machine called a portable electronic device provided with a display part and an operation part.
  • a program that is executed by a computer that controls a portable electronic device that includes a display unit that displays a screen and an operation unit that receives an operation by a user.
  • a process for executing a first function when an operation of 1 is received, a process for displaying a virtual operation means for executing a second function on the display unit when the operation unit receives a second operation; Is provided.
  • This program can be recorded on a computer-readable storage medium.
  • the storage medium may be non-transient such as a semiconductor memory, a hard disk, a magnetic recording medium, an optical recording medium, or the like.
  • the present invention can also be embodied as a computer program product.
  • a portable electronic device that can be easily operated by a user without changing a hand holding the portable electronic device, a control method thereof, and a program are provided.
  • a portable electronic device 600 shown in FIG. 1 executes a first function when a display unit 601 that performs screen display, an operation unit 602 that receives an operation by a user, and the operation unit 602 receives a first operation.
  • the control unit 603 displays a virtual operation unit for executing the second function on the display unit 601. If the user is using the portable electronic device 600 and an operation such as an instruction given to a running application is a first operation, a function corresponding to the first operation is executed. To do.
  • the second operation performed by the user is detected, and when the second operation is detected, the virtual operation means is displayed.
  • This provides an opportunity (option) to perform the second function.
  • the second operation is set so that it can be easily operated with one hand, and when the second operation is performed, the option indicated by the virtual operation means is selected and the second function is executed.
  • FIG. 2 is a plan view showing an example of the overall configuration of the portable electronic device 1 according to the present embodiment.
  • a portable electronic device 1 shown in FIG. 2 includes an LCD 10, a touch panel 20, and hard keys 30 to 32.
  • the LCD 10 displays information necessary for the user to operate the portable electronic device 1.
  • the LCD 10 is a monochrome or color liquid crystal panel.
  • a liquid crystal panel will be described as a display device of the portable electronic device 1, but the display device is not limited to this, and may be a display device such as an organic EL (electrofluorescence).
  • the touch panel 20 is a device that detects a user operation using a flat plate sensor. There are various types of touch panel methods including a capacitance method, but the method is not limited.
  • a touch panel 20 is arranged so as to substantially overlap the LCD 10. Therefore, the display area of the LCD 10 corresponds to the operation area of the touch panel 20 as it is. Since the display area of the LCD 10 and the operation detection area on the touch panel 20 are substantially overlapped, only the LCD 10 is illustrated in the following drawings.
  • the hard key 30 functions as a MENU key
  • the hard key 31 functions as a HOME key
  • the hard key 32 functions as a BACK key.
  • Various menus are displayed by pressing the MENU key, transition to the standby screen by pressing the HOME key, and transition to the previous screen by pressing the BACK key.
  • FIG. 3 is a diagram illustrating an example of the configuration of the portable electronic device 1 according to the present embodiment.
  • a portable electronic device 1 shown in FIG. 3 includes an LCD 10, a touch panel 20, hard keys 30 to 32, and a control unit 40. Since the LCD 10, the touch panel 20, and the hard keys 30 to 32 are as described above, description thereof is omitted.
  • the control unit 40 includes a touch panel control unit 100, an input operation detection unit 200, an LCD control unit 300, and a screen display control unit 400.
  • the control unit 40 realizes switching of operation modes based on user operations detected by the input operation detection unit 200, operation instructions for each application, generation and display of information necessary when the user operates the mobile electronic device 1, and the like. To do.
  • the touch panel control unit 100 is connected to the touch panel 20 and plays a role as a driver for setting and driving the touch panel 20 as hardware.
  • the touch panel control unit 100 detects the position (physical coordinates) where the user touches the touch panel 20 and transmits the coordinate information to the input operation detection unit 200.
  • the input operation detection unit 200 calculates, from the coordinate information received from the touch panel control unit 100, a position where the user touches the touch panel as a coordinate (logical coordinate) on the LCD 10. Note that the input operation detection unit 200 can also detect operations by the hard keys 30 to 32.
  • the LCD control unit 300 is connected to the LCD 10 and plays a role as a driver for setting and driving the LCD 10 as hardware.
  • the LCD control unit 300 generates a signal for driving the LCD 10 from the screen display information transmitted from the screen display control unit 400 and transmits the signal to the LCD 10.
  • the screen display control unit 400 generates a display image such as a key selection screen that is directly seen when the user operates.
  • the information required by the screen display control unit 400 includes contents such as what key is displayed and where the key is displayed.
  • FIG. 4 is a diagram illustrating an example of a hardware configuration of the control unit 40.
  • the control unit 40 includes a CPU (Central Processing Unit) 41, a storage unit 42, and a work memory 43, and is connected via a bus 44.
  • CPU Central Processing Unit
  • the CPU 41 is a central processing unit that operates according to a program. Various functions and applications of the mobile electronic device 1 are realized by the CPU 41 executing the program.
  • the CPU 41 stores various setting information necessary for realizing each function of the portable electronic device 1. Examples of information stored in the storage unit 42 include the current operation mode of the mobile electronic device 1, key information displayed on the screen, and the display direction of the key selection screen. Further, the storage unit 42 includes a nonvolatile memory 421 and a ROM (Read Only Memory) 422.
  • the nonvolatile memory 421 holds information that needs to be stored even after the power supplied to the portable electronic device 1 is turned off.
  • the ROM 422 is a storage device that stores fixed data such as various control programs executed by the CPU 41 and built-in contents.
  • the working memory 43 is constituted by a RAM (Random Access Memory), and stores data temporarily required when the CPU 41 executes the program.
  • the operation mode of the mobile electronic device 1 has a plurality of operation modes.
  • the normal mode is a mode in which screen display and screen transition are not performed in consideration of a mode (both hands, right hand, left hand) when the user performs an operation.
  • the user performs screen display and screen transition considering mainly whether the user operates with the right hand or the left hand.
  • the case of operating with the right hand is referred to as the right hand mode
  • the case of operating with the left hand is referred to as the left hand mode, and will be described below.
  • the mobile electronic device 1 has a terminal lock state that transitions when no operation is performed for a certain period of time. This is a function for preventing a malfunction of the portable electronic device 1 by making a transition to the terminal lock state when the portable electronic device 1 is not operated for a certain period of time and restricting operations by the touch panel.
  • FIG. 5 is a diagram illustrating the state transition of each mode and the terminal lock state.
  • FIG. 6 is a diagram illustrating an example of a screen display when the mobile electronic device 1 is in the terminal lock state.
  • the display area (display area) of the LCD 10 includes an upper pictogram area 501 for displaying an icon indicating a radio wave state and a remaining battery level, a time, etc., a lock state display area 502 indicating that the terminal is locked, and a terminal lock
  • Each display area has a pointer area 503 in which a touch panel operation in a state can be performed.
  • an arrow 504 for guiding a slide operation in the upper left direction an arrow 505 for guiding the slide operation in the upward direction, and an arrow 506 for guiding the slide operation in the upper right direction are displayed on the LCD 10.
  • a message left hand mode, normal mode, right hand mode
  • the terminal lock state exists in order to prevent malfunction of the mobile electronic device 1, and such an operation is invalid even if an area other than the circular pointer 503 is touched.
  • the terminal locked state is released by sliding the circular pointer area 503 along a predetermined locus.
  • the portable electronic device 1 it is determined whether the user has slid along one of the trajectories indicated by arrows 504 to 506, and the operation mode is determined.
  • FIG. 7 is a diagram illustrating an example of a user operation when releasing the terminal lock state of the mobile electronic device 1 and shifting to the left-hand mode.
  • the user wants to change to the left-hand mode, the user touches the point 503a displayed at the center of the pointer area 503. Thereafter, the point 503a is slid to the point 503b according to the locus indicated by the arrow 504 while touching the point 503a.
  • the control unit 40 recognizes such a slide operation via the touch panel control unit 100 and the input operation detection unit 200, the terminal lock state of the portable electronic device 1 is released, and the mode shifts to the left-hand mode.
  • the point 503a is slid according to the trajectory indicated by the arrow 506 in the upper right direction to make a transition to the right-hand mode, and the point 503a is slid according to the trajectory indicated by the upward arrow 505 to be changed to the normal mode. it can.
  • the operation mode can be determined without changing the portable electronic device 1 by assigning the left-hand mode and assigning the right-hand mode to the right-handed slide operation that is easy to operate with the right hand.
  • the arrow displayed when determining the operation mode is not limited to the direction shown in FIGS. 6 and 7, and may be the horizontal direction.
  • the scene where the operation mode can be determined is not limited to the return from the terminal lock state.
  • the key operation screen that displays keys that perform operations different from the icons and soft keys displayed on the LCD 10 of the portable electronic device 1.
  • the key operation screen is a screen that displays on the LCD 10 a key that realizes a function equivalent to the function assigned to the hard keys 30 to 32.
  • the operation method on the key operation screen will be described later.
  • the key operation screen is easily called with the left hand in the left-hand mode and with the right hand in the right-hand mode to realize key selection.
  • the key selection screen is a screen virtually provided on the normal operation screen, and the normal operation screen and the key selection screen can be switched to each other (see FIG. 8).
  • the key selection screen corresponds to the virtual operation means described above.
  • FIG. 9 is a diagram illustrating an example of an operation method when a key selection screen is called from the operation screen in the left-hand mode.
  • the thumb slides from point 508a to point 508b.
  • the portable electronic device 1 In the left hand mode, the portable electronic device 1 always displays a touch operation detection area 507 for shifting to the key selection screen at the left end of the LCD 10. Since the active applications are displayed in the area other than the touch operation detection area 507, the key selection screen is displayed in a range that does not affect the display of these applications.
  • the control unit 40 detects an operation on the touch panel 20 by the user at any position in the touch operation detection area 507 and then detects that a slide operation has been performed, the screen display control unit 400 generates a display image, A key selection screen is displayed on the LCD 10 through the LCD control unit 300.
  • FIG. 10 is an example of a display including a key selection screen after the user slides from point 508a to point 508b.
  • Virtual keys 509 to 511 in FIG. 10 are key selection screens.
  • the control unit 40 detects that the slide operation has been performed up to the position of the point 508b, the control unit 40 displays a key selection screen at a position centered on the point 508a.
  • the virtual key 509 corresponds to the MENU key
  • the virtual key 510 corresponds to the HOME key
  • the virtual key 511 corresponds to the BACK key.
  • the key selection screen is displayed centering on the position.
  • the rightward slide amount (coordinate movement amount from the points 508a to 508b) is determined to be an optimum value depending on the shape of the mobile electronic device 1, but the user does not feel any stress during the slide operation. About half the width of the thumb is preferable.
  • the same can be done in the right-hand mode by applying the left-hand mode operation symmetrically.
  • the touch operation detection area in the left hand mode or the right hand mode is not displayed, and each function assigned to the hard key can be executed by pressing the hard keys 30 to 32.
  • the transition to the left-hand mode and the right-hand mode is not limited to returning from the terminal lock state or the like, but it is also possible to provide a key having a role of changing the handle. For example, a part of the keys displayed on the key selection screen can be provided with a key that allows the handle to be changed.
  • the operation for releasing the lock state and the operation for selecting the operation mode can be performed simultaneously.
  • the terminal lock state can be released and the operation mode can be selected with the minimum necessary operation, and a portable electronic device with high operability can be provided.
  • the display of the running application is not disturbed and can be easily performed by the operating hand. It is possible to make a transition to the key selection screen. Furthermore, by displaying the key selection screen centering on the position detected in the touch operation detection area when transitioning to the key selection screen, it is easy regardless of the size of the hand or the position where the portable electronic device 1 is different for each user. It is possible to call the key selection screen by simple operation.
  • the portable electronic device 1 realizes an intuitive and simple operation using the touch panel without requiring any prior operation when realizing the function assigned to the hard key. ing.
  • the keys displayed on the key selection screen are not limited to hard keys, and soft keys can be arranged. Keys that are frequently used are assigned to the keys displayed on the key selection screen and can be operated quickly with one hand.
  • the touch operation detection area according to the first embodiment has been described as being set at the left end in the left-hand mode and arranged at the right end in the right-hand mode. This embodiment demonstrates that it is not restricted to these arrangement
  • the area from the upper end to the lower end of the area that can be displayed on the LCD 10 as the touch operation detection area 507 has been described.
  • the touch operation detection area at the left end in the left hand mode, and the right end in the right hand mode, and a touch operation detection area common to the left hand mode and the right hand mode may be provided. Specifically, it is conceivable to arrange the touch operation detection areas at the left and right ends in both the left hand mode and the right hand mode.
  • the arrangement of the touch operation detection area may be changed depending on the attitude of the mobile electronic device 2.
  • the portable electronic device 2 includes an acceleration sensor or a gyro sensor and can detect that the posture of the portable electronic device 2 has changed, it is possible to arrange a touch operation detection area corresponding to the changed posture.
  • the touch operation detection area may be arranged on the left end when the user is in the vertical orientation, and the touch operation detection area may be arranged on the upper side or the lower side when the user is changed to the horizontal orientation. .
  • the key operation screen can be easily called, and the convenience can be further improved.
  • the hard keys 30 to 32 are assigned to the keys displayed on the key selection screen.
  • the keys displayed on the key selection screen are not limited to hard keys.
  • hard keys are displayed on the key selection screen, but soft keys instead of hard keys can be used as targets on the key selection screen. It is also possible to display virtual keys to which different operations are assigned for each application. Specifically, when the WEB browser is being executed, frequently used keys such as “return”, “forward”, and “page update” can be displayed on the key selection screen. Further, when mail is being viewed by the mail application, keys such as “reply”, “forward”, and “delete” may be displayed on the key selection screen to perform these operations.
  • the touch operation detection area is divided into two upper and lower areas, and when a user operation on the touch panel 20 is detected in the upper half touch operation detection area, a hard key is displayed on the key selection screen, and the lower half When the operation of the touch panel 20 is detected in the touch operation detection area, the virtual key displayed on the key selection screen may be changed according to the application.
  • selection screen selection menu
  • the selection of the virtual key displayed on the key selection screen is determined based on the number of times the touch operation detection area is touched, and is determined by the left hand mode or the right hand mode. It is also possible to use a key disposed on the side surface or the back surface instead of the hard key disposed on
  • the virtual keys to be displayed on the key selection screen do not have to be aligned in the horizontal direction, and can be arranged in any direction such as the vertical direction. These settings can be made by the selection menu and stored in the storage unit 42. .
  • Mode 2 The mobile electronic device, wherein the control unit displays a display instruction area for receiving the second operation on the display unit.
  • the control unit receives a third operation from the operation unit when the portable electronic device is activated or when returning from the locked state in which the operation by the operation unit is restricted, and the third operation A portable electronic device that determines whether or not to display the virtual operation means based on the operation.
  • (Mode 4) The portable electronic device, wherein the control unit changes the display position of the display instruction area based on the third operation when displaying the virtual operation means.
  • the operation unit accepts an operation by a user through a touch panel, the control unit detects a first contact point by the user in the display instruction area, and the first contact point reaches the second contact point.
  • control unit is a portable electronic device that executes the second function in accordance with a position where the contact is released after the virtual operation means is displayed.
  • Mode 7 A portable electronic device in which a plurality of the display instruction areas are displayed on the display unit.
  • the second function is a portable electronic device that is a function assigned in advance corresponding to a hard key or a function designated by a user.
  • Mode 10 A method for controlling a portable electronic device, further comprising a step of displaying a display instruction area for accepting the second operation on the display unit.
  • (Mode 11) Further, a step of accepting a third operation at the time of starting the portable electronic device or returning from a locked state in which the operation by the operation unit is restricted, and based on the third operation
  • a method for controlling a portable electronic device comprising the step of determining whether or not to display the virtual operation means.
  • Mode 12 When the operation unit accepts an operation by a user through a touch panel and detects a first contact point by the user in the display instruction area, and when the first contact point moves to a second contact point A method for controlling a portable electronic device, further comprising displaying the virtual operation means on the display.
  • Module 13 A method for controlling a portable electronic device, further comprising a step of executing the second function according to a position where the contact is released after the virtual operation means is displayed.
  • Module 16 Further, based on the third operation and a process of accepting a third operation when the portable electronic device is activated or when returning from the locked state where the operation by the operation unit is restricted A program for executing a process for determining whether to display the virtual operation means.
  • Mode 17 When the operation unit accepts an operation by a user through a touch panel and detects a first contact point by the user in the display instruction area, and the first contact point has moved to a second contact point A program for executing processing for displaying the virtual operation means.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 携帯電子機器は、画面表示を行なう表示部と、ユーザによる操作を受け付ける操作部と、操作部が第1の操作を受け付けると第1の機能を実行し、操作部が第2の操作を受け付けると、第2の機能を実行するための仮想操作手段を表示部に表示する制御部と、を備える(図1)。

Description

携帯電子機器、その制御方法及びプログラム
 [関連出願についての記載]
 本発明は、日本国特許出願:特願2011-032850号(2011年2月18日出願)に基づくものであり、同出願の全記載内容は引用をもって本書に組み込み記載されているものとする。
 本発明は、携帯電子機器、その制御方法及びプログラムに関する。特に、タッチパネルを備えた携帯電子機器に関する。
 近年、携帯電話、スマートフォン、PDA(Personal Digital Assistants)、デジタルカメラ、音楽プレイヤー、ゲーム機と言った携帯電子機器が広く普及している。特に、携帯電子機器の高機能化に伴ってタッチパネルを備えた携帯電子機器が広く用いられている。タッチパネルを使用すれば、携帯電子機器が備えるLCD(Liquid Crystal Display)に表示されたアイコンやキーを直接操作できるようになり、メニュー設定やアプリケーションの操作を直感的に行なうことができるためである。このように、タッチパネルとLCDによるGUI(Graphical User Interface)を組み合わせることで非常に優れた操作性を提供している。
 さらに、LCDで表示する領域は広いほど表示内容が充実し、より直感的な操作が可能になるためLCDの大画面化の傾向が顕著である。一方で、LCDの大画面化が進行する状況であっても、携帯電子機器自体は小型化・軽量化が進んでおり、片手で携帯電子機器を固定し、片手での操作が可能な機器も数多く存在する。このように、携帯電子機器自体の小型化とLCDの大画面化が同時に進行すると、携帯電子機器の操作側の表面の多くの領域がLCD及びタッチパネルで占められるようになる。その結果、スイッチ等でユーザの操作を認識するハードキーは、タッチパネルが搭載された面(表示面)の下部の一部や側面に配置されることが多くなる。すると、携帯電子機器が小型化・軽量化したことにより、片手で携帯電子機器を操作できても、ハードキーに触れることができず携帯電子機器を持ち替える等の行為が必要になる。
 タッチパネルを用いて操作するソフトキーであっても、携帯電子機器を握っている手の逆側の領域に配置されたソフトキーの操作を行なおうとする場合には、携帯電子機器を持ち替える等の行為が必要になる。また、携帯電子機器を持ったまま操作するので、操作する際に使用する指は親指になることが多い。しかし、親指の可動範囲は限れており、携帯電子機器における片手でのスムーズな操作が実現できていない場合も考えられる。
 また、薄型の携帯電子機器においては、持ち替える際に誤って落下させてしまう危険も想定される。さらに、混雑した電車内等で携帯電子機器を操作したい場合には片手での操作に限られる場面も多い。
 ここで、特許文献1において、タッチパネルを備え、画面表示部をユーザが触れた場合に、その接触した位置の周辺に各種の操作ボタンを表示し、片手で持ち替えることなく所定の操作を可能にするデジタルカメラが開示されている。
特開2007-052795号公報
 なお、上記先行技術文献の開示を、本書に引用をもって繰り込むものとする。以下の分析は、本発明の観点からなされたものである。
 上述のように、特許文献1において、画面上にタッチした位置の周辺に各種の操作キーを表示する操作方法が開示されている。しかし、このような操作方法は、写真を撮影するという機能に特化したデジタルカメラであるため実現可能な方法である。従って、電話、メールやWEB(ウェブ)ブラウザを初めとして様々な機能を有する携帯電子機器に特許文献1で開示された操作方法を適用することができない。
 WEBブラウザ等のアプリケーション自身がタッチパネルによる操作によって動作しており、表示画面上のある位置がタッチされた際にWEBブラウザ等のアプリケーションに対する指示であるのか、又は、各種の操作ボタンを表示させるための指示なのか明確に区別する必要がある。例えば、WEBブラウザを起動している状態で、現在表示しているページ以前のページに戻るという動作を期待してユーザがタッチパネルに触れた際に、各種の操作ボタンを表示したのではユーザの意図に反する動作となってしまい、利便性・操作性の悪い携帯電子機器と認識されてしまう。このように、携帯電子機器を片手で操作するには、解決すべき問題点が存在する。
 本発明の一側面において、携帯電子機器を握った手を替えることなく、ユーザによる操作を容易にする携帯電子機器、その制御方法及びプログラムが、望まれる。
 本発明の第1の視点によれば、画面表示を行なう表示部と、ユーザによる操作を受け付ける操作部と、前記操作部が第1の操作を受け付けると第1の機能を実行し、前記操作部が第2の操作を受け付けると、第2の機能を実行するための仮想操作手段を前記表示部に表示する制御部と、を備える携帯電子機器が提供される。
 本発明の第2の視点によれば、画面表示を行なう表示部と、ユーザによる操作を受け付ける操作部と、を備える携帯電子機器の制御方法であって、前記操作部が第1の操作を受け付けると第1の機能を実行する工程と、前記操作部が第2の操作を受け付けると、第2の機能を実行するための仮想操作手段を前記表示部に表示する工程と、を含む携帯電子機器の制御方法が提供される。
 なお、本方法は、表示部と、操作部と、を備える携帯電子機器という、特定の機械に結びつけられている。
 本発明の第3の視点によれば、画面表示を行なう表示部と、ユーザによる操作を受け付ける操作部と、を備える携帯電子機器を制御するコンピュータに実行させるプログラムであって、前記操作部が第1の操作を受け付けると第1の機能を実行する処理と、前記操作部が第2の操作を受け付けると、第2の機能を実行するための仮想操作手段を前記表示部に表示する処理と、を実行するプログラムが提供される。
 なお、このプログラムは、コンピュータが読み取り可能な記憶媒体に記録することができる。記憶媒体は、半導体メモリ、ハードディスク、磁気記録媒体、光記録媒体等の非トランジェント(non-transient)なものとすることができる。本発明は、コンピュータプログラム製品として具現することも可能である。
 本発明の各視点によれば、携帯電子機器を握った手を替えることなく、ユーザによる操作を容易にする携帯電子機器、その制御方法及びプログラムが、提供される。
一実施形態の概要を説明するための図である。 第1の実施形態に係る携帯電子機器の全体構成の一例を示す平面図である。 第1の実施形態に係る携帯電子機器の構成の一例を示す図である。 図3に示す制御部のハードウェア構成の一例を示す図である。 第1の実施形態に係る携帯電子機器の状態遷移を表した図である。 携帯電子機器が端末ロック状態にあるときの画面表示の一例を示す図である。 携帯電子機器の端末ロック状態を解除し、左手モードに遷移させる際のユーザ操作の一例を示す図である。 携帯電子機器の通常の操作画面とキー選択画面の関係を示す図である。 左手モード時の操作画面からキー選択画面を呼び出す際の操作方法の一例を示す図である。 左手モード時のキー選択画面における操作方法を説明するための図である。 左手モード時のキー選択画面における操作方法を説明するための図である。 左手モード時のキー選択画面における操作方法を説明するための図である。 右手モード時のキー選択画面を説明するための図である。 タッチ操作検出エリアを複数配置する際の一例を示す図である。
 初めに、図1を用いて実施形態の概要について説明する。なお、この概要に付記した図面参照符号は、理解を助けるための一例として各要素に便宜上付記したものであり、本発明を図示の態様に限定することを意図するものではない。
 上述のように、小型化・軽量化が進んだ携帯電子機器においては片手で操作を行ないたいという要望が存在する。しかし、携帯電子機器を握ったまま操作することになるので、操作する指は親指となることが多く、その可動範囲は限られてしまう。その結果、MENUキーなどのハードキーを押すためには、携帯電子機器を握りなおす等の行為が必要になることもある。そのため、携帯電子機器を握った手を替えることなく、ユーザによる操作を容易にする携帯電子機器が望まれる。
 そこで、図1に示す携帯電子機器600を提供する。図1に示す携帯電子機器600は、画面表示を行なう表示部601と、ユーザによる操作を受け付ける操作部602と、操作部602が第1の操作を受け付けると第1の機能を実行し、操作部602が第2の操作を受け付けると、第2の機能を実行するための仮想操作手段を表示部601に表示する制御部603と、を備えている。ユーザが携帯電子機器600を使用している場合であって、起動しているアプリケーションに対してする指示のような操作を第1の操作とすれば、その第1の操作に応じた機能を実行する。
 一方、起動しているアプリケーションとは必ずしも連動しない機能を実行しようとした場合には、ユーザの行なう第2の操作を検出し、第2の操作を検出した場合には、仮想操作手段を表示することによって、第2の機能を実行する機会(選択肢)を提供する。例えば、第2の操作を片手で容易に操作可能に設定しておき、第2の操作がなされたことで、仮想操作手段に示された選択肢を選択し、第2の機能の実行をする。その結果、携帯電子機器を片手で操作する場合に、携帯電子機器600を持ち替える必要がなく所定の操作を行なうことができる。
[第1の実施形態]
 次に、第1の実施形態について、図面を用いてより詳細に説明する。図2は、本実施形態に係る携帯電子機器1の全体構成の一例を示す平面図である。図2に示す携帯電子機器1は、LCD10と、タッチパネル20と、ハードキー30乃至32から構成されている。
 LCD10では、ユーザが携帯電子機器1を操作する際に必要な情報を表示する。LCD10は、白黒又はカラーの液晶パネルである。本実施形態においては、携帯電子機器1の表示デバイスとして液晶パネルを用いて説明するが、これに限定する趣旨ではなく、有機EL(電子蛍光)等の表示装置であってもよい。
 タッチパネル20は、平板状のセンサによりユーザの操作を検出するデバイスである。タッチパネルの方式には、静電容量方式を初めとして各種存在するがその方式は問わない。また、LCD10に略重なるようにタッチパネル20が配置されている。従って、LCD10の表示領域がそのままタッチパネル20による操作領域に該当する。なお、LCD10の表示領域とタッチパネル20における操作検出領域は略重なるため、以降の図面においてはLCD10に限り図示する。
 ハードキー30はMENUキー、ハードキー31はHOMEキー、ハードキー32はBACKキーとしてそれぞれ機能する。MENUキーを押下することで各種のメニューを表示し、HOMEキーを押下することで待ち受け画面に遷移し、BACKキーを押下することで前画面に遷移する。
 次に、携帯電子機器1の内部構成について説明する。図3は、本実施形態に係る携帯電子機器1の構成の一例を示す図である。図3に示す携帯電子機器1は、LCD10と、タッチパネル20と、ハードキー30乃至32と、制御部40から構成されている。LCD10、タッチパネル20、ハードキー30乃至32は上述のとおりであるので、その説明を省略する。
 制御部40は、タッチパネル制御部100と、入力操作検出部200と、LCD制御部300と、画面表示制御部400から構成されている。制御部40は、入力操作検出部200が検出したユーザ操作に基づいて動作モードの切り替えや、各アプリケーションに対する動作指示、ユーザが携帯電子機器1を操作する際に必要な情報の生成及び表示など実現する。
 タッチパネル制御部100は、タッチパネル20と接続されており、ハードウェアとしてのタッチパネル20の設定・駆動を行なうドライバとしての役割を担う。タッチパネル制御部100では、ユーザがタッチパネル20に触れた位置(物理的な座標)を検出し、その座標情報を入力操作検出部200に送信する。
 入力操作検出部200は、タッチパネル制御部100から受け取った座標情報から、ユーザがタッチパネルに触れた位置をLCD10における座標(論理的な座標)として算出する。なお、入力操作検出部200では、ハードキー30乃至32による操作も検出可能である。
 LCD制御部300は、LCD10と接続されており、ハードウェアとしてのLCD10の設定・駆動を行なうドライバとしての役割を担う。LCD制御部300では、画面表示制御部400から送信されてくる画面表示情報からLCD10を駆動するための信号を生成し、LCD10に送信する。
 画面表示制御部400は、ユーザが操作する際に直接目にするキー選択画面等の表示イメージを生成する。画面表示制御部400で必要とする情報には、どのようなキーを表示するか、そのキーをどの位置に表示するかといった内容が含まれる。
 次に、制御部40のハードウェア構成について説明する。図4は、制御部40のハードウェア構成の一例を示す図である。制御部40は、CPU(Central Processing Unit)41と、記憶部42と、作業用メモリ43から構成されており、バス44を介して接続されている。
 CPU41は、プログラムに従って動作する中央演算処理装置である。CPU41がプログラムを実行することによって、携帯電子機器1の各種の機能・アプリケーションが実現される。
 記憶部42では、CPU41が携帯電子機器1の各機能を実現する際に必要となる各種の設定情報を記憶する。記憶部42で記憶する情報には、携帯電子機器1の現在の動作モードや、画面に表示するキー情報、キー選択画面の表示方向などが考えられる。さらに、記憶部42は不揮発性メモリ421及びROM(Read Only Memory)422を備える。不揮発性メモリ421は、携帯電子機器1に供給されている電源がOFFとなった後も記憶する必要がある情報を保持する。ROM422には、CPU41が実行する各種の制御用プログラムや内蔵コンテンツといった固定的なデータを格納する記憶装置である。
 作業用メモリ43は、RAM(Random Access Memory)によって構成され、CPU41がプログラムを実行する際に一時的に必要とするデータを格納する。
 次に、携帯電子機器1の動作について説明する。携帯電子機器1の動作モードには、複数の動作モードが存在する。第1の動作モードとして、通常モードが存在する。通常モードは、ユーザが操作を行なう際の形態(両手、右手、左手)を考慮して画面表示及び画面遷移を行なわないモードである。第2の動作モードとして、片手動作モードが存在する。片手動作モードでは、ユーザは主に右手で操作するか、左手で操作するかを考慮して画面表示及び画面遷移を行なうモードである。なお、右手で操作する場合を右手モード、左手で操作する場合を左手モードと呼び、以下の説明をする。
 携帯電子機器1には、一定時間操作が行なわれなかった場合に遷移する端末ロック状態が存在する。携帯電子機器1が一定時間操作されない場合に端末ロック状態に遷移し、タッチパネルによる操作を制限することで携帯電子機器1の誤動作を防止する機能である。図5は、上記の各モードと端末ロック状態の状態遷移を表した図である。
 次に、端末ロック状態から通常モード又は片手モードに遷移する際の動作について説明する。図6は、携帯電子機器1が端末ロック状態にあるときの画面表示の一例を示す図である。LCD10の表示領域(表示エリア)には、電波状態及び電池残量などを示すアイコンや時刻などを表示する上段ピクトエリア501と、端末ロック状態であることを示すロック状態表示エリア502と、端末ロック状態時のタッチパネル操作が可能なポインタエリア503の各表示エリアを有している。さらに、左上方向へのスライド操作を誘導する矢印504と、上方向へのスライド操作を誘導する矢印505と、右上方向へのスライド操作を誘導する矢印506がLCD10に表示されている。同時に、各矢印の方向にスライド操作の結果、携帯電子機器1が遷移するモードを明示するメッセージ(左手モード、通常モード、右手モード)を表示する。なお、上述のとおり、端末ロック状態は携帯電子機器1の誤動作を防止するために存在するものであるので、円形のポインタ503以外の領域に触れても、そのような操作は無効とする。
 ユーザが、端末ロック状態から復帰させて携帯電子機器1を使用する際には、円形のポインタエリア503を所定の軌跡どおりにスライドさせることで、端末ロック状態を解除する。本実施形態に係る携帯電子機器1においては、矢印504~506のいずれかの軌跡に沿ってユーザがスライドさせたかを判断し、動作モードを決定する。
 図7は、携帯電子機器1の端末ロック状態を解除し、左手モードに遷移させる際のユーザ操作の一例を示す図である。ユーザが左手モードに遷移させたいと考えた場合には、ポインタエリア503の中心に表示されているポイント503aに触れる。その後、ポイント503aに触れたまま矢印504が示す軌跡どおりにポイント503aをポイント503bまでスライドさせる。このようなスライド操作を、制御部40がタッチパネル制御部100及び入力操作検出部200を介して認識すれば、携帯電子機器1の端末ロック状態を解除し、左手モードに遷移する。
 同様に、右上方向への矢印506が示す軌跡に従ってポイント503aをスライドさせることで右手モードに遷移させ、上方向への矢印505が示す軌跡に従ってポイント503aをスライドさせることで通常モードに遷移させることができる。
 このように、各モードへ遷移させるための軌跡を、矢印により予め表示しておくことで、直感的に片手モードへの移行操作が可能であり、左手で操作しやすい左上方向へのスライド操作に左手モードを割り当て、右手で操作しやすい右上方向へのスライド操作に右手モードを割り当てることで携帯電子機器1を持ち替えることなく、動作モードを決定することができる。なお、動作モードを決定する際に表示する矢印は図6や図7に示す方向に限定されるものではなく、横方向等であってもよい。
 また、動作モードを決定する際に端末ロック状態から復帰する場合を説明したが、動作モードを決定できる場面は端末ロック状態からの復帰に限られるものではない。例えば、セキュリティモードの解除時や、スタンバイモード及び休止状態からの復帰時などの場面で動作モードを決定することが考えられる。
 次に、左手モード及び右手モードにおけるタッチパネル操作について説明する。左手モード及び右手モードには、携帯電子機器1のLCD10に表示されているアイコンやソフトキーとは異なる動作を行なうキーを表示するキー操作画面が存在する。例えば、キー操作画面にハードキー30乃至32に割り当てられている機能と同等の機能を実現するキーをLCD10上に表示する画面である。
 キー操作画面における操作方法は後述するが、左手モードであれば左手によって、右手モードであれば右手で容易にキー操作画面を呼び出し、キーの選択を実現する。このように、キー選択画面は、通常の操作画面上に仮想的に設けられる画面であって、通常の操作画面とキー選択画面は相互に切り替え可能となっている(図8参照)。なお、キー選択画面は上述の仮想操作手段に相当する。
 次に、キー選択画面の操作方法について説明する。図9は左手モード時の操作画面からキー選択画面を呼び出す際の操作方法の一例を示す図である。なお、図9においては、ポイント508aからポイント508bまで親指をスライドしたものとする。左手モード時には、携帯電子機器1ではLCD10の左端にキー選択画面に遷移させるためのタッチ操作検出エリア507を常に表示する。タッチ操作検出エリア507以外の領域には、起動中のアプリケーションの表示がなされているため、これらのアプリケーションの表示に影響を与えない範囲でキー選択画面を表示する。
 制御部40において、タッチ操作検出エリア507のうちいずれかの位置でユーザによるタッチパネル20における操作を検出し、その後スライド操作がなされたことを検出すると、画面表示制御部400において表示イメージを生成し、LCD制御部300を通じてLCD10にキー選択画面を表示する。
 図10は、ユーザがポイント508aからポイント508bまでスライドした後のキー選択画面を含む表示の一例である。図10の仮想キー509~511がキー選択画面である。制御部40では、ポイント508bの位置までスライド操作がなされたことを検出すると、ポイント508aを中心とした位置にキー選択画面を表示する。なお、仮想キー509はMENUキーに、仮想キー510はHOMEキーに、仮想キー511はBACKキーにそれぞれ対応している。
 このように、ユーザがタッチ操作検出エリア507内の任意の位置に触れ、触れたまま右方向へ一定量スライドさせると、その位置を中心としてキー選択画面を表示する。このとき、右方向へのスライド量(ポイント508aから508bまでの座標移動量)は、携帯電子機器1の形状によって最適値を求めることになるが、ユーザがスライド操作にあたってストレスを感じない程度である親指の幅の半分程度が好適である。
 次に、キー選択画面が表示されてからユーザが実行したい仮想キーを選択する際の操作について説明する。ユーザがキー選択画面に表示された仮想キーを押下すると、その押下された仮想キーに対応した動作を行なう。例えば、仮想キー509が押下されるとMENUキーと同等の操作を行なうことができる。ユーザが図10に示す状態から、さらに親指をスライドし、仮想キー511に相当する領域でタッチパネル20から指を離したことを検出した場合には、仮想キー511が選択されたものとして、BACKキーと同等の機能を実行する。
 一方、図11に示すように、仮想キー509~511で構成されるキー選択画面以外の位置であるポイント508dで指が離れたことを検出した場合には、ユーザがキー操作画面における操作を中止したものとしてキー選択画面を消去する。なお、ユーザの指が図11に示すポイント508dまで移動したとしても、指がタッチパネル20から離れなければユーザによる操作は継続しているものとして、キー選択画面の表示を維持する。つまり、図11のポイント508dの位置まで移動した状態から図12に示すように仮想キー511の位置(ポイント508e)まで指をスライドさせて離した場合には、仮想キー511が選択されたものと扱う。以上が左手モードにおけるキー選択画面の操作方法である。
 また、図13に示すように、左手モードの動作を左右対称に適用することで、右手モードにおいても同様のことが行なえる。さらに、通常モードにおいては、左手モードあるいは右手モード時のタッチ操作検出エリアは表示させず、ハードキーに割り当てた各機能はハードキー30~32を押下することで実行できる。なお、左手モードや右手モードに遷移するのは端末ロック状態等から復帰する場合だけではなく、持ち手を変更する役割を持つキーを設けることも可能である。例えば、キー選択画面に表示するキーの一部に持ち手の変更を可能とするキーを設けることもできる。
 以上のように、携帯電子機器1が端末ロック状態にある場合に、ロック状態を解除する動作と動作モードを選択する動作を同時に実施することができる。その結果、必要最小限の操作で端末ロック状態の解除と動作モードの選択が可能となり、操作性の高い携帯電子機器を提供することができる。
 また、左手モード時であればLCD10の左端に、右手モードであれば右端にタッチ操作検出エリアを設けることで、起動中のアプリケーションの表示を妨げず、かつ、操作している側の手によって容易にキー選択画面に遷移させることが可能になる。さらに、キー選択画面に遷移する際にタッチ操作検出エリアで検出した位置を中心にキー選択画面の表示を行なうことで、ユーザごとに異なる手の大きさや携帯電子機器1を持つ位置によらず簡易な操作でキー選択画面を呼び出すことが可能になる。
 また、タッチパネル20から指が離れたことを契機に選択動作を確定させることで、タッチ操作検出エリアをスライドしてからユーザが指を離すことなく、一度のスライド操作でキーの選択が可能となる。同時に、タッチパネル20から指が離れるまでキー選択画面の表示を継続することで、一度親指をキー選択画面から離れた場所にスライドさせ、キー選択画面に表示されている内容を確認した後に、希望するキーを選択する操作も可能になる。
 このように、本実施形態に係る携帯電子機器1は、ハードキーに割り当てられた機能を実現する際に、なんらの事前操作を必要とせずタッチパネルを使用して直感的で簡易な操作を実現している。また、当然のことであるが、左手モードや右手モードであれば必ず片手で操作をしなければならないということではなく、片手モード時に両手で操作すれば通常モード時よりも高速かつ効率的に携帯電子機器1の操作を行なうことができる。後述するように、キー選択画面に表示するキーはハードキーに限ったものではなく、ソフトキーの配置も可能であり、キー選択画面に表示するキーに使用頻度の高いキーを割り当て片手で素早く操作すると共に、携帯電子機器1を握っている手では届かない領域のキーを他の手で操作することも可能だからである。
[第2の実施形態]
 続いて、第2の実施形態について図面を参照して詳細に説明する。本実施形態に係る携帯電子機器2のハードウェア構成は第1の実施形態に係る携帯電子機器1のハードウェア構成と異なることはないので、図2乃至図4に相当する説明は省略する。本実施形態においては、上述のタッチ操作検出エリアについてより詳細に説明する。
 第1の実施形態に係るタッチ操作検出エリアは、左手モードであれば左端に設定し、右手モードであれば右端に配置するものとして説明した。本実施形態では、これらの配置に限られないことを説明する。
 第1の実施形態では、LCD10が表示可能な領域のうち左端の領域であって、上端から下端までの領域をタッチ操作検出エリア507として説明をした。しかし、図14に示すように、タッチ操作検出エリアは複数存在(507b~507d)してもよい。
 さらに、左手モードであれば左端、右手モードであれば右端にタッチ操作検出エリアを配置する必要は必ずしもなく、左手モード及び右手モードに共通するタッチ操作検出エリアを設けてもよい。具体的には、左手モード時、右手モード時共に左右の端にタッチ操作検出エリアを配置することが考えられる。
 若しくは、携帯電子機器2の姿勢によってタッチ操作検出エリアの配置を変更してもよい。携帯電子機器2が加速度センサやジャイロセンサを備えており、携帯電子機器2の姿勢が変わったことを検出できれば、変化後の姿勢に対応してタッチ操作検出エリアを配置することも可能である。例えば、ユーザが縦向き状態で使用している場合には、左端にタッチ操作検出エリアを配置しており、横向きに変わった場合には上側や下側にタッチ操作検出エリアを配置してもよい。
 このように、タッチ操作検出エリアを携帯電子機器2の形状や使用状況に合わせて適宜配置することによって、キー操作画面を容易に呼び出すことができ、さらに利便性を向上させることができる。
[第3の実施形態]
 続いて、第3の実施形態について説明する。本実施形態に係る携帯電子機器3のハードウェア構成は第1の実施形態に係る携帯電子機器1のハードウェア構成と異なることはないので、図2乃至図4に相当する説明は省略する。本実施形態においては、キー選択画面についてより詳細に説明する。
 第1の実施形態においては、キー選択画面に表示するキーにはハードキー30乃至32を割り当てて説明を行なった。本実施形態においては、キー選択画面に表示するキーはハードキーに限られないことを説明する。
 上述のように、第1の実施形態の説明においてはハードキーをキー選択画面で表示しているが、ハードキーではなくソフトキーであってもキー選択画面における対象とすることできる。また、アプリケーションごとに異なる動作を割り当てた仮想キーを表示することも可能である。具体的には、WEBブラウザを実行中の場合は「戻る」「進む」「ページ更新」といった使用頻度の高いキーをキー選択画面に表示させることも可能である。さらに、メールアプリケーションにてメール閲覧中の場合には、「返信」「転送」「削除」などのキーをキー選択画面に表示し、これらの動作をさせてもよい。
 また、タッチ操作検出エリアにおける検出位置によらず同じ内容のキー選択画面を表示する必要はなく、検出位置に応じてキー選択画面の内容を変更することも可能である。具体的には、タッチ操作検出エリアを上下2つの領域に分割し、上半分のタッチ操作検出エリアにおいてユーザのタッチパネル20の操作を検出した場合にはハードキーをキー選択画面に表示し、下半分のタッチ操作検出エリアにおいてタッチパネル20の操作を検出した場合には起動してアプリケーションに従って、キー選択画面に表示する仮想キーを変更してもよい。
 さらに、図14に示すように、複数のタッチ操作検出エリアを配置した場合には、エリアごとに表示するキー選択画面を決定するような選択画面(選択メニュー)を設けることも可能である。また、キー選択画面に表示する仮想キーの選択をタッチ操作検出エリアに触れた回数に基づいて決定する、左手モードや右手モードにより決定する、ハードキー30~32のようにタッチパネル20と同一の面に配設されているハードキーではなく側面や背面等に配設されているキーとする、ことも可能である。
 キー選択画面に表示する仮想キーを水平方向に揃える必要はなく、縦方向などいずれの方向に並べることが可能であり、選択メニューによってこれらの設定を行ない記憶部42により記憶することも可能である。
 最後に、好ましい形態を要約する。
 (形態1)上記第1の視点に係る携帯電子機器のとおりである。
 (形態2)前記制御部は、前記第2の操作を受け付けるための表示指示領域を前記表示部に表示する携帯電子機器。
 (形態3)前記制御部は、前記携帯電子機器の起動時、又は、前記操作部による操作が制限されているロック状態からの復帰時に、前記操作部から第3の操作を受け付け、前記第3の操作に基づいて、前記仮想操作手段を表示するか否かを決定する携帯電子機器。
 (形態4)前記制御部は、前記仮想操作手段を表示する場合は、前記第3の操作に基づいて、前記表示指示領域の表示位置を変更する携帯電子機器。
 (形態5)前記操作部はタッチパネルによりユーザによる操作を受け付け、前記制御部は、前記表示指示領域においてユーザによる第1の接触点を検出し、前記第1の接触点が第2の接触点まで移動した場合に前記仮想操作手段を表示する携帯電子機器。
 (形態6)さらに、前記制御部は、前記仮想操作手段が表示された後、接触が解除された位置に応じて、前記第2の機能を実行する携帯電子機器。
 (形態7)前記表示指示領域が、前記表示部に複数表示されている携帯電子機器。
 (形態8)前記第2の機能は、予めハードキーに対応して割り当てられている機能、又は、ユーザが指定した機能である携帯電子機器。
 (形態9)上記第2の視点に係る携帯電子機器の制御方法のとおりである。
 (形態10)さらに、前記第2の操作を受け付けるための表示指示領域を前記表示部に表示する工程を含む携帯電子機器の制御方法。
 (形態11)さらに、前記携帯電子機器の起動時、又は、前記操作部による操作が制限されているロック状態からの復帰時に、第3の操作を受け付ける工程と、前記第3の操作に基づいて、前記仮想操作手段を表示するか否かを決定する工程を含む携帯電子機器の制御方法。
 (形態12)前記操作部はタッチパネルによりユーザによる操作を受け付け、前記表示指示領域においてユーザによる第1の接触点を検出する工程と、前記第1の接触点が第2の接触点まで移動した場合に前記仮想操作手段を表示する工程を、さらに含む携帯電子機器の制御方法。
 (形態13)さらに、前記仮想操作手段が表示された後、接触が解除された位置に応じて、前記第2の機能を実行する工程を含む携帯電子機器の制御方法。
 (形態14)上記第3の視点に係るプログラムのとおりである。
 (形態15)さらに、前記第2の操作を受け付けるための表示指示領域を前記表示部に表示する処理を実行するプログラム。
 (形態16)さらに、前記携帯電子機器の起動時、又は、前記操作部による操作が制限されているロック状態からの復帰時に、第3の操作を受け付ける処理と、前記第3の操作に基づいて、前記仮想操作手段を表示するか否かを決定する処理を実行するプログラム。
 (形態17)前記操作部はタッチパネルによりユーザによる操作を受け付け、前記表示指示領域においてユーザによる第1の接触点を検出する処理と、前記第1の接触点が第2の接触点まで移動した場合に前記仮想操作手段を表示する処理を、実行するプログラム。
 (形態18)さらに、前記仮想操作手段が表示された後、接触が解除された位置に応じて、前記第2の機能を実行する処理を実行するプログラム。
 なお、上記の特許文献等の各開示を、本書に引用をもって繰り込むものとする。本発明の全開示(請求の範囲を含む)の枠内において、さらにその基本的技術思想に基づいて、実施形態の変更・調整が可能である。また、本発明の請求の範囲の枠内において種々の開示要素(各請求項の各要素、各実施例の各要素、各図面の各要素等を含む)の多様な組み合わせないし選択が可能である。すなわち、本発明は、請求の範囲を含む全開示、技術的思想にしたがって当業者であればなし得るであろう各種変形、修正を含むことは勿論である。例えば、タッチパネルを操作する際に、指ではなくペン等を用いることも可能である。特に、本書に記載した数値範囲については、当該範囲内に含まれる任意の数値ないし小範囲が、別段の記載のない場合でも具体的に記載されているものと解釈されるべきである。
1~3、600 携帯電子機器
10 LCD
20 タッチパネル
30~32 ハードキー
40、603 制御部
41 CPU
42 記憶部
43 作業用メモリ
44 バス
100 タッチパネル制御部
200 入力操作検出部
300 LCD制御部
400 画面表示制御部
421 不揮発性メモリ
422 ROM
501 上段ピクトエリア
502 ロック状態表示エリア
503 ポインタエリア
503a、503b、508a~e ポイント
504~506 矢印
507、507a~d タッチ操作検出エリア
509~511、509a、510a、511a 仮想キー
601 表示部
602 操作部

Claims (10)

  1.  画面表示を行なう表示部と、
     ユーザによる操作を受け付ける操作部と、
     前記操作部が第1の操作を受け付けると第1の機能を実行し、前記操作部が第2の操作を受け付けると、第2の機能を実行するための仮想操作手段を前記表示部に表示する制御部と、
     を備えることを特徴とする携帯電子機器。
  2.  前記制御部は、前記第2の操作を受け付けるための表示指示領域を前記表示部に表示する請求項1の携帯電子機器。
  3.  前記制御部は、前記携帯電子機器の起動時、又は、前記操作部による操作が制限されているロック状態からの復帰時に、前記操作部から第3の操作を受け付け、前記第3の操作に基づいて、前記仮想操作手段を表示するか否かを決定する請求項1又は2の携帯電子機器。
  4.  前記制御部は、前記仮想操作手段を表示する場合は、前記第3の操作に基づいて、前記表示指示領域の表示位置を変更する請求項3の携帯電子機器。
  5.  前記操作部はタッチパネルによりユーザによる操作を受け付け、
     前記制御部は、前記表示指示領域においてユーザによる第1の接触点を検出し、前記第1の接触点が第2の接触点まで移動した場合に前記仮想操作手段を表示する請求項2乃至4のいずれか一に記載の携帯電子機器。
  6.  さらに、前記制御部は、前記仮想操作手段が表示された後、接触が解除された位置に応じて、前記第2の機能を実行する請求項5の携帯電子機器。
  7.  前記表示指示領域が、前記表示部に複数表示されている請求項2乃至6のいずれか一に記載の携帯電子機器。
  8.  前記第2の機能は、予めハードキーに対応して割り当てられている機能、又は、ユーザが指定した機能である請求項1乃至7のいずれか一に記載の携帯電子機器。
  9.  画面表示を行なう表示部と、
     ユーザによる操作を受け付ける操作部と、
     を備える携帯電子機器の制御方法であって、
     前記操作部が第1の操作を受け付けると第1の機能を実行する工程と、
     前記操作部が第2の操作を受け付けると、第2の機能を実行するための仮想操作手段を前記表示部に表示する工程と、
     を含むことを特徴とする携帯電子機器の制御方法。
  10.  画面表示を行なう表示部と、
     ユーザによる操作を受け付ける操作部と、
     を備える携帯電子機器を制御するコンピュータに実行させるプログラムであって、
     前記操作部が第1の操作を受け付けると第1の機能を実行する処理と、
     前記操作部が第2の操作を受け付けると、第2の機能を実行するための仮想操作手段を前記表示部に表示する処理と、
     を実行するプログラム。
PCT/JP2012/070228 2012-08-08 2012-08-08 携帯電子機器、その制御方法及びプログラム WO2014024277A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201280075166.9A CN104520798B (zh) 2012-08-08 2012-08-08 便携电子设备及其控制方法和程序
US14/419,096 US20150242117A1 (en) 2012-08-08 2012-08-08 Portable electronic device, and control method and program therefor
EP12882809.2A EP2884376A4 (en) 2012-08-08 2012-08-08 PORTABLE ELECTRONIC DEVICE AND CONTROL METHOD AND PROGRAM THEREFOR
PCT/JP2012/070228 WO2014024277A1 (ja) 2012-08-08 2012-08-08 携帯電子機器、その制御方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/070228 WO2014024277A1 (ja) 2012-08-08 2012-08-08 携帯電子機器、その制御方法及びプログラム

Publications (1)

Publication Number Publication Date
WO2014024277A1 true WO2014024277A1 (ja) 2014-02-13

Family

ID=50067558

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/070228 WO2014024277A1 (ja) 2012-08-08 2012-08-08 携帯電子機器、その制御方法及びプログラム

Country Status (4)

Country Link
US (1) US20150242117A1 (ja)
EP (1) EP2884376A4 (ja)
CN (1) CN104520798B (ja)
WO (1) WO2014024277A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014041498A (ja) * 2012-08-23 2014-03-06 Sanyo Electric Co Ltd 通信端末装置
CN104731481A (zh) * 2015-03-31 2015-06-24 北京奇艺世纪科技有限公司 一种按键的显示方法及装置
CN104765560A (zh) * 2015-03-26 2015-07-08 深圳市艾优尼科技有限公司 一种显示控制方法
CN104765561A (zh) * 2015-03-26 2015-07-08 深圳市艾优尼科技有限公司 一种终端
JP2019114215A (ja) * 2017-12-22 2019-07-11 正浩 馬場 タッチパネルによる文字入力方式

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9891781B2 (en) * 2012-10-05 2018-02-13 Htc Corporation Mobile communications device, non-transitory computer-readable medium and method of navigating between a plurality of different views of home screen of mobile communications device
CN103870199B (zh) * 2014-03-31 2017-09-29 华为技术有限公司 手持设备上用户操作模式的识别方法及手持设备
JP6147830B2 (ja) * 2015-10-28 2017-06-14 京セラ株式会社 携帯電子機器および携帯電子機器の表示方法
JP2017097393A (ja) * 2015-11-18 2017-06-01 京セラドキュメントソリューションズ株式会社 操作入力装置及び操作入力方法
US10795570B2 (en) * 2016-05-23 2020-10-06 Prepare Protect Defend, LLC Device and system having a user interface for emergency communications
WO2018191966A1 (zh) * 2017-04-21 2018-10-25 深圳市大疆创新科技有限公司 拨轮系统、遥控器和拨轮系统的控制方法
CN108170341A (zh) * 2017-11-30 2018-06-15 努比亚技术有限公司 界面操作按键自适应方法、终端及计算机可读存储介质
US11763821B1 (en) 2018-06-27 2023-09-19 Cerner Innovation, Inc. Tool for assisting people with speech disorder
CN110874177A (zh) * 2018-08-29 2020-03-10 中兴通讯股份有限公司 显示屏的显示方法、电子设备及存储介质
US11487425B2 (en) * 2019-01-17 2022-11-01 International Business Machines Corporation Single-hand wide-screen smart device management
CN112698756A (zh) * 2019-10-23 2021-04-23 华为终端有限公司 用户界面的显示方法及电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107823A (ja) * 2009-11-13 2011-06-02 Canon Inc 表示制御装置及び表示制御方法
JP2012103602A (ja) * 2010-11-12 2012-05-31 Konica Minolta Business Technologies Inc 画像形成装置およびコンピュータプログラム

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7800592B2 (en) * 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US8869059B2 (en) * 2006-09-28 2014-10-21 Kyocera Corporation Layout method for operation key group in portable terminal apparatus and portable terminal apparatus for carrying out the layout method
US8732611B2 (en) * 2007-09-04 2014-05-20 Apple Inc. Graphical user interface for mobile electronic device
JP5045559B2 (ja) * 2008-06-02 2012-10-10 富士通モバイルコミュニケーションズ株式会社 携帯端末
CN102246130A (zh) * 2008-12-16 2011-11-16 日本电气株式会社 移动终端设备和按键布局控制方法
CN102369504B (zh) * 2009-03-31 2016-10-26 日本电气株式会社 便携终端装置、其控制程序以及多个显示画面的控制方法
CN101866257B (zh) * 2009-04-20 2012-11-21 鸿富锦精密工业(深圳)有限公司 触控式手持设备及其选项显示方法
WO2010143673A1 (ja) * 2009-06-10 2010-12-16 日本電気株式会社 電子機器、ジェスチャー処理方法、及びジェスチャー処理プログラム
JP2011028635A (ja) * 2009-07-28 2011-02-10 Sony Corp 表示制御装置、表示制御方法およびコンピュータプログラム
US9367205B2 (en) * 2010-02-19 2016-06-14 Microsoft Technolgoy Licensing, Llc Radial menus with bezel gestures
JP4950321B2 (ja) * 2010-04-26 2012-06-13 京セラ株式会社 文字入力装置、文字入力方法および文字入力プログラム
JP2012064075A (ja) * 2010-09-17 2012-03-29 Funai Electric Co Ltd 文字入力装置
JP5718603B2 (ja) * 2010-09-22 2015-05-13 任天堂株式会社 表示制御プログラム、表示制御装置、表示制御方法および表示制御システム
JP5655515B2 (ja) * 2010-11-11 2015-01-21 ソニー株式会社 情報処理装置、テーブル、表示制御方法、プログラム、携帯端末、及び情報処理システム
JP2012155408A (ja) * 2011-01-24 2012-08-16 Kyocera Corp 携帯型電子機器
TW201224849A (en) * 2011-03-09 2012-06-16 Acer Inc Mobile devices and methods for controlling mobile devices
US8316319B1 (en) * 2011-05-16 2012-11-20 Google Inc. Efficient selection of characters and commands based on movement-inputs at a user-inerface
TWI456434B (zh) * 2011-05-31 2014-10-11 Compal Electronics Inc 具有觸控輸入系統之電子裝置
JP5799628B2 (ja) * 2011-07-15 2015-10-28 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US8907906B2 (en) * 2011-09-27 2014-12-09 Z124 Secondary single screen mode deactivation
US9250768B2 (en) * 2012-02-13 2016-02-02 Samsung Electronics Co., Ltd. Tablet having user interface
US8902182B2 (en) * 2012-02-24 2014-12-02 Blackberry Limited Electronic device and method of controlling a display
JP2013218428A (ja) * 2012-04-05 2013-10-24 Sharp Corp 携帯型電子機器
US10691291B2 (en) * 2013-05-24 2020-06-23 Samsung Electronics Co., Ltd. Method and apparatus for displaying picture on portable device
US10037130B2 (en) * 2013-09-13 2018-07-31 Samsung Electronics Co., Ltd. Display apparatus and method for improving visibility of the same

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011107823A (ja) * 2009-11-13 2011-06-02 Canon Inc 表示制御装置及び表示制御方法
JP2012103602A (ja) * 2010-11-12 2012-05-31 Konica Minolta Business Technologies Inc 画像形成装置およびコンピュータプログラム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014041498A (ja) * 2012-08-23 2014-03-06 Sanyo Electric Co Ltd 通信端末装置
CN104765560A (zh) * 2015-03-26 2015-07-08 深圳市艾优尼科技有限公司 一种显示控制方法
CN104765561A (zh) * 2015-03-26 2015-07-08 深圳市艾优尼科技有限公司 一种终端
CN104731481A (zh) * 2015-03-31 2015-06-24 北京奇艺世纪科技有限公司 一种按键的显示方法及装置
JP2019114215A (ja) * 2017-12-22 2019-07-11 正浩 馬場 タッチパネルによる文字入力方式

Also Published As

Publication number Publication date
EP2884376A1 (en) 2015-06-17
EP2884376A4 (en) 2016-06-08
CN104520798A (zh) 2015-04-15
CN104520798B (zh) 2018-07-03
US20150242117A1 (en) 2015-08-27

Similar Documents

Publication Publication Date Title
WO2014024277A1 (ja) 携帯電子機器、その制御方法及びプログラム
JP5729756B2 (ja) 携帯電子機器、その制御方法及びプログラム
JP5817716B2 (ja) 情報処理端末およびその操作制御方法
US10073595B2 (en) Apparatus and method for turning E-book pages in portable terminal
CN106909305B (zh) 显示图形用户界面的方法和设备
JP6157885B2 (ja) 携帯端末装置の表示制御方法
WO2010016409A1 (ja) 入力装置、入力方法、及び入力プログラムを記録した記録媒体
KR20120121149A (ko) 터치스크린 단말기에서 아이콘 배치 방법 및 장치
JP2014203183A (ja) 情報処理装置及びプログラム
JP2013117885A (ja) 情報処理プログラム、情報処理装置、情報処理システム及び情報処理方法
CN103309604A (zh) 一种终端及终端屏幕显示信息控制方法
CN107024965A (zh) 信息处理系统和信息处理方法
WO2013003105A1 (en) Electronic device and method with dual mode rear touch pad
KR101081432B1 (ko) 커서를 터치로 제어하는 휴대용 전자 장치
JP6109788B2 (ja) 電子機器及び電子機器の作動方法
WO2012160829A1 (ja) タッチスクリーン装置、タッチ操作入力方法及びプログラム
JP6102474B2 (ja) 表示装置、入力制御方法、及び入力制御プログラム
JP2013026940A (ja) 携帯機器、ならびに携帯機器の制御プログラムおよび制御方法
WO2013175798A1 (ja) 情報処理装置、情報処理方法、および情報処理プログラム
KR101332708B1 (ko) 배면 터치 보조 입력 장치를 갖는 모바일 단말기 및 배면 터치 보조 입력 장치를 탑재한 모바일 단말기용 보호 케이스
JP2013137739A (ja) 電子機器、動作制御方法およびプログラム
JP6015183B2 (ja) 情報処理装置およびプログラム
KR20110066025A (ko) 터치패널 작동방법 및 터치패널 구동칩
WO2013077359A1 (ja) 電子機器、電子機器の操作方法及びプログラム
JP2018139158A (ja) 携帯端末及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12882809

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012882809

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 14419096

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP