WO2009131089A1 - 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体 - Google Patents

携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体 Download PDF

Info

Publication number
WO2009131089A1
WO2009131089A1 PCT/JP2009/057838 JP2009057838W WO2009131089A1 WO 2009131089 A1 WO2009131089 A1 WO 2009131089A1 JP 2009057838 W JP2009057838 W JP 2009057838W WO 2009131089 A1 WO2009131089 A1 WO 2009131089A1
Authority
WO
WIPO (PCT)
Prior art keywords
display
touch panel
operation screen
information terminal
portable information
Prior art date
Application number
PCT/JP2009/057838
Other languages
English (en)
French (fr)
Inventor
慶子 蛭川
俊夫 赤羽
智一 森尾
啓一郎 佐藤
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US12/989,318 priority Critical patent/US20110037720A1/en
Priority to CN2009801143851A priority patent/CN102016779A/zh
Publication of WO2009131089A1 publication Critical patent/WO2009131089A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/22Details of telephonic subscriber devices including a touch pad, a touch sensor or a touch detector

Definitions

  • the present invention relates to a portable information terminal, and more particularly to a portable information terminal that operates a touch panel displayed on a display unit, a computer-readable program, and a recording medium.
  • a touch panel is provided on a display unit, an image is displayed on the display unit, an image corresponding to the operation unit is displayed, and a user inputs an operation information by operating the touch panel.
  • Various technologies are accepted.
  • Patent Document 1 Japanese Patent Laid-Open No. 2007-52795
  • the touch position on the touch panel is used as a reference.
  • a technique for displaying an image including operation buttons such as a shutter button, a zoom-up button, and a zoom-down button is disclosed.
  • the area required for the operation screen is expected to increase.
  • the area of the operation screen becomes large, even if the operation screen is displayed at a position that is considered to be easy for the user to operate as described in Patent Document 1, the user cannot feel that way. Is assumed. Specifically, even if the operation screen is displayed at a position that is considered to be easy for the user to operate, the buttons displayed in the corners of the operation screen are operated by the user's finger holding the terminal. May be displayed at a position away from the finger. In such a case, when the user wants to operate the button, the user may change the terminal or hold the button with the other hand. Needed to operate.
  • the present invention has been conceived in view of the actual situation, and an object of the present invention is to surely improve user convenience in a portable information terminal that displays an operation screen on a touch panel provided in a display unit. .
  • a portable information terminal includes a display unit, a touch panel provided on the display unit, an application execution unit that executes an application, and a control unit that executes processing related to the application in response to an operation on the touch panel.
  • the control unit displays an operation screen on which information for use in processing related to the application is input on the display unit, and changes the display position of the operation screen on the display unit based on the first operation on the touch panel.
  • a portable information terminal includes a display unit, a touch panel provided on the display unit, an application execution unit that executes an application, and a control unit that executes processing related to the application in response to an operation on the touch panel.
  • the control unit displays an operation screen to which information for use in processing related to the application is input on the display unit, and the display position of the operation screen on the display unit is displayed based on the first operation on the touch panel.
  • the display position of the operation screen on the display unit After changing and changing the display position of the operation screen based on the first operation, it is possible to return to the position before the change, and when there is an operation on the touch panel, the content of the operation is the condition of the first operation Is determined, and if it is determined that the condition is satisfied, the display position of the operation screen on the display unit is changed.
  • a portable information terminal executes a process related to an application in response to an operation on the display unit, a touch panel provided on the display unit, an application execution unit that executes the application, and the touch panel.
  • a control unit the operation screen of the application is larger than the size of the display unit, the control unit displays a partial screen that is a part of the operation screen on the display unit, the partial screen is used for processing related to the application
  • the control unit changes a part of the operation screen displayed on the display unit as a partial screen, and displays the changed partial screen.
  • the end of the operation screen is the end of the display unit of the display unit.
  • a computer-readable program is a computer-readable program for controlling a portable information terminal including a display unit, a touch panel provided on the display unit, and an application execution unit that executes an application.
  • a portable information terminal including a display unit, a touch panel provided on the display unit, and an application execution unit that executes an application.
  • an operation screen for inputting information used for processing related to the application is displayed, a step for determining whether or not there is an operation on the touch panel, and an operation on the touch panel. And changing the display position of the operation screen on the display unit.
  • a recording medium records a computer-readable program for controlling a portable information terminal including a display unit, a touch panel provided on the display unit, and an application execution unit that executes an application.
  • a program which is a medium, displays on the portable information terminal an operation screen on which information for use in processing related to an application is input is displayed on the display unit, a step of determining whether or not there is an operation on the touch panel, and the touch panel And a step of changing the display position of the operation screen on the display unit based on the operation on the display unit.
  • the display position of the operation screen displayed on the display unit can be moved based on the operation on the touch panel.
  • the button to be operated on the operation screen displayed on the display unit is displayed at a position away from the finger to operate with the finger of the user's hand holding the portable information terminal Even so, the user can bring the display position of the button closer to the finger. Therefore, the user can operate a desired position on the operation screen such as a desired button without changing the portable information terminal.
  • FIG. 1A It is a figure which shows the example of the operation screen displayed on the screen of the mobile telephone of FIG. 1A. It is a figure which shows the example of the operation screen displayed on the screen of the mobile telephone of FIG. 1A. It is a figure which shows typically an example of the state which changes the display mode of the operation screen in the display part of the mobile telephone of FIG. 1A. It is a figure which shows typically an example of the state which changes the display mode of the operation screen in the display part of the mobile telephone of FIG. 1A. It is a figure which shows typically the other example of the state which changes the display mode of the operation screen in the display part of the mobile telephone of FIG. 1A.
  • FIG. 1A It is a figure which shows typically the other example of the state which changes the display mode of the operation screen in the display part of the mobile telephone of FIG. 1A. It is a figure for demonstrating the processing content for changing the display mode of the operation screen in the mobile telephone of FIG. 1A. It is a figure for demonstrating the processing content for changing the display mode of the operation screen in the mobile telephone of FIG. 1A. It is a figure for demonstrating the processing content for changing the display mode of the operation screen in the mobile telephone of FIG. 1A. It is a figure for demonstrating the processing content for changing the display mode of the operation screen in the mobile telephone of FIG. 1A. It is a figure for demonstrating the processing content for displaying the operation screen in the mobile telephone of FIG. 1A.
  • FIG. 28 is a diagram for explaining a change in the display mode of the operation screen shown in FIGS. 27A to 27C.
  • FIG. 28 is a diagram for explaining a change in the display mode of the operation screen shown in FIGS. 27A to 27C.
  • FIG. 28 is a diagram for explaining a change in the display mode of the operation screen shown in FIGS. 27A to 27C.
  • the portable information terminal of the present invention is not limited to a mobile phone. That is, if the portable information terminal of the present invention is a terminal having a touch panel, it is not required to have a specific function such as a call function mounted on a mobile phone.
  • FIGS. 1A to 1E are diagrams schematically showing a side surface of a mobile phone which is an embodiment of the portable information terminal of the present invention.
  • a display unit 30 made of a liquid crystal display or the like is provided on one side of the mobile phone 100.
  • the display unit 30 can display various information such as a document on a network such as a web page, an address book stored in the mobile phone 100, and a mail creation screen by a mailer.
  • a touch panel (a touch panel 40 described later) is provided on the front surface of the display unit 30.
  • the mobile phone 100 displays an operation screen 31 for inputting information used for processing related to an application executed on the mobile phone 100.
  • the operation screen 31 is displayed in the left region of the display unit 30 by touching the region corresponding to the left region of the display unit 30 on the touch panel.
  • the operation screen 31 is displayed in the center of the display unit 30 by touching the area corresponding to the center of the display unit 30 on the touch panel.
  • FIG. 1D an area corresponding to the area on the right side of the display unit 30 on the touch panel is touched or the like to be displayed on the area on the right side of the display unit 30.
  • a broken line H schematically shows a user's hand operating the touch panel of the mobile phone 100.
  • the operation screen 31 includes a plurality of operation buttons 310 each corresponding to an individual function.
  • the mobile phone 100 appropriately stores which button on the touch panel the button corresponding to which function is displayed for the plurality of buttons 310 on the operation screen 31. Then, in the mobile phone 100, the processing content to be executed is determined by detecting the information and which position on the touch panel is operated.
  • FIG. 2 is a diagram schematically illustrating a hardware configuration of the mobile phone 100.
  • mobile phone 100 includes control unit 50 that controls the overall operation of mobile phone 100, antenna 81 for transmitting and receiving data, and signal processing when data is transmitted and received by antenna 81.
  • a communication control unit 80 that performs the above, a posture detection unit 90 that detects the posture of the mobile phone, a storage unit 60 that includes a flash memory or the like, a touch panel 40, a display unit 30, a display control unit 51 that controls display contents on the display unit 30,
  • the receiver 56 and the microphone 58 mainly used for the call function, the speaker 57 that outputs an alarm sound, the sound output control units 53 and 54 that control the sound output from the receiver and the speaker 57, and the sound input to the microphone 58
  • a voice input control unit 55 to be processed and a camera 91 are included.
  • the control unit 50 includes a CPU.
  • the control unit 50 has a built-in timer 50A.
  • the posture detection unit 90 is for detecting the direction and moving direction of the mobile phone 100 and the acceleration given to the mobile phone 100, and includes, for example, a plurality of gyroscopes, acceleration sensors, and geomagnetic sensors.
  • the orientation of the mobile phone 100 is, for example, held by a user in a horizontally long state as shown in FIG. 1A (and FIGS. 1B to 1D) or held in a vertically long state as shown in FIG. 1E. Means or not.
  • a technique for detecting the orientation, the moving direction, and the moving speed of the main body of the mobile phone 100 using the attitude detection unit 90 a well-known technique can be adopted, and therefore description thereof will not be repeated here.
  • the storage unit 60 includes a program storage unit 61 that stores programs executed by the CPU of the control unit 50, a setting content storage unit 62 that stores setting contents for the mobile phone 100 such as an address book, and various tables and the like described later.
  • a data storage unit 63 that stores various data necessary for executing a program stored in the program storage unit 61 is included.
  • the program storage unit 61 may be fixed to the mobile phone 100 main body or may be detachable.
  • FIG. 15 is a flowchart of an interrupt process related to display of the operation screen 31 executed by the CPU.
  • the CPU executes the processing every certain time (for example, 200 ms).
  • step S ⁇ b> 1 the CPU checks an application activation state in mobile phone 100 and advances the process to step S ⁇ b> 2.
  • the cellular phone 100 indicates whether the application is not activated, which application is activated in the TV function, the Web browser function, the mail function, or the like, or whether a call is in progress. By checking this state, it becomes necessary to switch the contents of what is displayed as a menu, or to suppress the process of displaying the menu in some cases. For this reason, in step S1, the application activation state (such as what application is activated) is checked.
  • step S2 the CPU checks the state of the touch panel 40, and proceeds to step S3.
  • an input function from a touch panel is often provided as an OS function rather than being performed by each application.
  • the menu display and screen transition may be displayed for a while after the touch on the touch panel is finished, but the menu is displayed until the touch operation is performed except during that period.
  • power consumption is reduced by not performing processing.
  • the part for checking the touch state on the touch panel is performed outside the menu control process, and the touch state does not change during the execution of the algorithm of the menu control process. .
  • step S3 the CPU determines whether it is necessary to call a menu control process in step S5, which will be described later. If it is determined that it is necessary, the CPU advances the process to step S5. The process proceeds to S4.
  • step S4 the CPU returns to step S1 after waiting for the fixed time to elapse from the start of execution of the current main routine.
  • step S5 after executing the menu control process, the CPU returns to step S1 after waiting for the lapse of the predetermined time from the execution of the current main routine.
  • step S5 various processes including the following five processes are executed in parallel or sequentially.
  • the touch operation type identification process is based on the content of an operation on the touch panel 40 by the user. This is a process for identifying the type of operation pattern performed on the touch panel 40.
  • the first display mode change process is a process that is executed when the display of the operation screen 31 on the display unit 30 is started.
  • the operation screen 31 is also referred to as a “menu” as appropriate.
  • the menu drag process is a process for changing the display position of the operation screen 31 displayed on the display unit 30 by sliding the operation screen 31 according to the operation content of the user's touch panel 40.
  • the menu position return process is a process for returning the display position of the operation screen whose display position has been changed by the above-described menu drag process to the position before the change.
  • the second display mode change process is a process executed when the display of the operation screen 31 displayed on the display unit 30 is ended.
  • touch operation types include single tap, double tap, and drag.
  • the identification of a single tap and a double tap will be described with reference to the flowchart of the single tap / double tap identification process shown in FIG. Table 1 summarizes the internal state in the single tap / double tap identification process.
  • the identification mode of the type of touch operation shown below is merely an example, and in the portable information terminal, the type of touch operation is identified by other modes that are generally used instead of the method described in this specification. May be.
  • step SA102 the CPU determines whether or not the user is performing a touch operation on touch panel 40, and determines that the touch operation is being performed. The process proceeds to step SA104, and if it is determined that there is no touch operation, the process proceeds to step SA118.
  • step SA104 the CPU determines whether or not the value of the in-touch flag Q0 indicating whether or not the touch operation was performed when the touch operation type identification process was executed last time is 0, and is 0. If it is determined, the process proceeds to step SA106, and if it is not, that is, if it is determined that the value of the in-touch flag Q0 is 1, the process proceeds to step SA112.
  • the touching flag Q0 is a flag whose value is updated each time the touch operation type identification process is executed, as will be described later, and when the touch operation is performed on the touch panel 40 at that time.
  • the value is set to 1, and the value is set to 0 when no touch operation is performed.
  • step SA106 the CPU determines whether or not the difference between the current time and the touch start time T0 is below a predetermined threshold value Td. If so, the process proceeds to step SA108. If it is determined that this is not the case, that is, if it is determined that the time during which the touch operation on the touch panel 40 is continued is equal to or longer than the above-described time Td, the process proceeds to step SA110.
  • step SA108 the CPU advances the processing to step SA116, assuming that the operation on the touch panel 40 at that time is a double touch.
  • step SA108 the value of the double touch state flag DT, which is a flag indicating whether or not the mobile phone 100 is in a double touch operation state (double touch state), is set to 1.
  • step SA110 the CPU sets the operation content on the touch panel 40 at that time as a temporary touch, sets the value of the temporary touch state flag ET to 1, and counts the timer 50A as the value of the touch start time T0.
  • the current time is recorded, and the values of the double touch state flag DT, single touch state flag ST, double tap state flag DU, and single tap state flag SU described later are set to 0, and the process proceeds to step SA116. .
  • the data storage unit 63 includes, for example, a touch information storage table as shown in Table 2 as a table for storing values used when various types of processing such as touch operation type identification processing are executed.
  • a touch information storage table as shown in Table 2 as a table for storing values used when various types of processing such as touch operation type identification processing are executed.
  • the touch start position P0 is information indicating a position where the user starts the touch operation on the touch panel 40, and is represented by coordinates defined for the touch panel 40, for example. Specifically, the coordinates of the position where the user starts touching the touch panel 40.
  • the value of each item in the touch information storage table is updated when a temporary touch is detected.
  • the touch start time T0 is the time when the user starts touch operation on the touch panel 40 as described above.
  • the touch position P1 is information indicating the touch position of the user on the touch panel 40 at the time when the CPU is executing various processes such as a touch operation type identification process.
  • Touch time T1 is information indicating a time recorded when a user touch process is detected during the execution of various processes executed by the CPU.
  • step SA112 the CPU determines whether the difference between the current time and the touch start time T0 is shorter than the time Td as in step SA106. The process proceeds to SA116. On the other hand, if the difference between the current time and the touch start time T0 is equal to or greater than the time Td, the CPU advances the process to step SA114.
  • step SA114 the CPU sets the type of touch operation as single touch, sets the single touch state flag ST to 1, and advances the process to step SA116.
  • step SA116 the CPU sets the value of the in-touch flag Q0 to 1 and ends the touch operation type identification process.
  • step SA118 the CPU determines whether or not the value of the in-touch flag Q0 is 0. If the CPU determines that the value is 0, the process proceeds to step SA124. If it is determined that the value of the in-touch flag Q0 is 1, the process proceeds to step SA120.
  • step SA120 the CPU determines whether the value of the double touch state flag DT is 1 or the value of the single touch state flag ST is 1. If so, the process proceeds to step SA122. If it is determined that it is not, that is, if both the double touch state flag DT and the single touch state flag ST are determined to be 0, the process proceeds to step SA126.
  • step SA122 if the value of the double touch state flag DT is 1 at that time, the CPU sets the operation type to double tap, the value of the double touch state DT is 0, and the value of the single touch state ST is 1. If there is, the operation type is determined as a single tap. In the case of a double tap, the value of the double tap status flag DU is set to 1. In the case of a single tap, the value of the single tap status flag SU is set to 1. The values of the double touch state flag DT, the single touch state flag ST, the temporary touch state flag ET, and the temporary tap state flag EU are all updated to 0.
  • step SA124 it is determined whether or not the value of the temporary touch state flag ET is 1. If it is determined, the process proceeds to step SA128, and if not, the process proceeds to step SA132.
  • step SA126 the operation content at that time is temporarily raised, the value of the temporary up state flag EU is set to 1, and the process proceeds to step SA132.
  • step SA1208 the CPU determines whether or not the difference between the current time and the touch start time T0 is shorter than the time Td, as in step SA106. If it is determined that the time is shorter, the CPU proceeds to step SA132 and is equal to or greater than Td. If determined, the process proceeds to step SA130.
  • step SA130 the CPU sets the content of the touch operation at that time as a single tap and sets the value of the single tap state flag SU to 1. Further, the values of the single touch state flag ST, the double touch state flag DT, the temporary tap state flag EU, and the temporary touch state flag ET are all updated to 0, and the process proceeds to step SA132. .
  • step SA132 the value of the in-touch flag Q0 is updated to 0, and the touch operation type identification process is terminated.
  • the flag values used in each process such as the touch operation type identification process described above are stored in the data storage unit 63 as a table as shown in Table 3, for example.
  • FIG. 17 is a flowchart of the process.
  • step S102 the CPU determines whether or not a touch operation is being performed on touch panel 40 at that time, that is, whether or not there is a touch input. If it is determined that there is a touch input, the process proceeds to step S104. If it is determined that there is no touch input, the first display mode changing process is terminated as it is.
  • step S104 the CPU detects the operation position (touch position) with respect to the touch panel 40 at that time, and advances the process to step S106.
  • step S106 the CPU checks the type of touch operation by referring to the touch type identification result storage table (Table 3), and proceeds to step S108.
  • step S108 the CPU determines whether the menu display condition is satisfied based on the touch position detected in step S104 and the type of touch operation checked in step S106.
  • step S110 the CPU determines whether the menu display condition is satisfied as a result of the determination in step S108. If it is determined that the menu display condition is satisfied, the CPU proceeds to step S112. Terminate the change process.
  • the menu display conditions are determined in advance according to the type of touch operation, and are stored in the setting content storage unit 62, for example.
  • step S112 the state of the application running on the mobile phone 100 and the orientation of the mobile phone (for example, whether the mobile phone 100 is in the horizontal orientation as shown in FIG. 1A or the vertical orientation as shown in FIG. 1E). Based on the menu (operation screen) type to be displayed on the display unit 30, the process proceeds to step S114.
  • data for displaying various operation screens is stored in the data storage unit 63 in accordance with the state of the running application.
  • the data storage unit 63 has an operation screen having a design such as an arrangement of buttons suitable for being displayed on the display unit 30 when the mobile phone 100 is in the horizontal orientation, and a vertical orientation.
  • Data for displaying a screen having a design suitable for being displayed on the display unit 30 at a certain time is stored.
  • data for displaying an operation screen as shown in FIGS. 3A and 3B can be mentioned.
  • buttons 350A, 350B, 350C for allowing mobile phone 100 to input the same information. including.
  • the screen 351 has a horizontally long design
  • the screen 352 has a vertically long design including buttons that allow the mobile phone 100 to perform the same function as the buttons 350A to 350C included in the screen 351.
  • the screen 351 is a screen displayed on the display unit 30 when the mobile phone 100 is in the landscape orientation as shown in FIG. 1A, and the screen 352 is oriented vertically as shown in FIG. 1E. It is a screen displayed on the display part 30 when it exists in the attitude
  • step S ⁇ b> 114 the CPU determines whether or not the mobile phone 100 is in the vertical orientation based on the detection output of the orientation detection unit 90. If so, the process proceeds to step S ⁇ b> 120. If it is determined that this is not the case, that is, if it is determined that the posture is in the horizontal orientation, the process proceeds to step S116.
  • the horizontal posture shown in FIG. 1A and the vertical posture shown in FIG. 1E are in a state in which a rotation of 90 degrees is applied to each other.
  • the mobile phone 100 it is determined that the mobile phone is in the lateral orientation from the state shown in FIG. 1A to the state rotated 45 degrees clockwise and counterclockwise, and from the state shown in FIG. 1E, In the state of being rotated 45 degrees counterclockwise and counterclockwise, it is determined to be in the vertical orientation.
  • step S120 the CPU executes a process for obtaining coordinates for displaying the operation screen 31 on the display unit 30, and advances the process to step S122.
  • step S120 for example, the coordinates serving as the display center of the operation screen 31 are obtained.
  • step S122 the CPU displays the screen for portrait orientation at the coordinates obtained in step S120, and proceeds to step S124.
  • step S116 the CPU obtains coordinates for displaying the operation screen 31, and in step S118, obtains the operation screen for landscape orientation (for example, the screen 351 in FIG. 3A) in step S116 of the display unit 30.
  • the coordinates are displayed, and the process proceeds to step S124.
  • step S116 and step S120 how to obtain the coordinates in step S116 and step S120 will be described.
  • the touch panel is divided into two areas A1 and A2 as indicated by a one-dot chain line in FIG. 9, and if the touch position detected in step S104 is within the area A1, the area of the display unit 30 is displayed.
  • the operation screen 31 may be displayed in the area corresponding to A1, and if the touch position is in the area A2, the operation screen 31 may be displayed in the area A2 of the display unit 30.
  • the alternate long and short dash line is defined so that the display unit 30 and the touch panel 40 provided on the front surface of the display unit 30 are equally divided in the left-right direction.
  • the operation screen 31 may be displayed with the touch position B on the touch panel 40 detected in step S104 as the center in the horizontal direction and the vertical direction. Good.
  • the operation screen 31 When the operation screen 31 is displayed with the touch position as the center, depending on the touch position, when the operation screen 31 is displayed on the display unit 30 with the touch position as the center, a part of the operation screen 31 is displayed. There may be a situation where it is not displayed on the display unit 30. In such a case, it is preferable to configure the display position of the operation screen 31 within the display unit 30 as shown in FIG. 11A.
  • the operation screen 31 before correction is indicated by a broken line
  • the operation screen 31 after correction is indicated by a solid line.
  • the movement of the operation screen 31 due to the correction is indicated by an arrow.
  • the touch position is indicated by 1P.
  • step S124 the CPU stores the current time as the display start time t, and proceeds to step S126.
  • step S126 the CPU stores the center coordinates of the operation screen 31 as the display start position p (the corrected coordinates when correction is performed as described with reference to FIG. 11A, FIG. 11B, or FIG. 12). Then, the first display mode change process is terminated.
  • the display start time t and the display start position p described above are stored in a display information storage table stored in the data storage unit 63, for example.
  • An example of the storage contents of the display information storage table is shown in Table 4.
  • the menu here is an operation screen for inputting information to be used for processing related to the application, and includes a screen object being displayed on the display unit that is the target of the drag process.
  • step S202 the CPU determines whether or not touch input has been made on the touch panel 40 at that time. If it is determined that the touch input has been made, the CPU proceeds to step S204. If not, the process proceeds to step S228.
  • step S204 the CPU determines whether or not the cellular phone 100 is in the menu display mode. If it is determined that the mobile phone 100 is in the menu display mode, the process proceeds to step S206. If not, the process proceeds to step S212.
  • the mobile phone 100 can take one of four modes: a menu display mode, a menu selection mode, a drag mode, and a menu non-display mode.
  • the mode information storage table is stored in the data storage unit 63, for example. Further, in the mode information storage table, information is stored with a flag value (1 or 0), for example, to indicate that any one of the four modes shown in Table 5 is valid.
  • step S204 when it is determined in step S204 that the mobile phone 100 is in the menu display mode, the CPU determines in step S206 whether or not the touch position is within an area corresponding to the menu (operation screen 31). If it is determined that this is the case, the process proceeds to step S208. If it is determined that this is not the case, the menu drag process is terminated.
  • step S208 the CPU stores the touch position at that time as the touch start position P0, and stores the current time at that time as the touch start time T0, and proceeds to step S210.
  • the touch start position P0 and the touch start time T0 here correspond to the start position p and the start time t shown in Table 4.
  • the touch position is within the area corresponding to the operation screen 31 is within the area of the touch panel 40 where the touch screen 40 is in contact with the area where the operation screen 31 is displayed on the display unit 30. Say there is.
  • step S210 the CPU changes the mode of the mobile phone to the menu selection mode, and advances the process to step S216.
  • step S212 the CPU stores the touch position at that time as the touch position P1, stores the current time as the touch time T1, and advances the process to step S214.
  • step S214 the CPU determines whether the current mode of the mobile phone 100 is the menu selection mode or the drag mode. If the mode is the menu selection mode, the CPU advances the process to step S216, and in the drag mode. If there is, the process proceeds to step S224.
  • step S216 the CPU calculates a movement distance by calculating a difference between the touch position P1 and the touch start position P0, and determines whether the movement distance is larger than a predetermined threshold value. If it is determined, the process proceeds to step S222. If not, that is, if it is determined that the value is equal to or less than the threshold value, the process proceeds to step S218.
  • step S222 the CPU changes the mode of the mobile phone 100 to the drag mode and advances the process to step S224.
  • step S224 a new menu position is calculated based on the touch position P1, and the process proceeds to step S226.
  • the display position of the new operation screen 31 is calculated using the touch position P1 as the center coordinates of the display position of the new operation screen 31.
  • step S226 the CPU changes the display position of the operation screen 31 on the display unit 30 to the new position calculated in step S224, and ends the menu drag process.
  • the movement of the operation screen from the original position to the new position is continuously displayed on the display unit 30, and the display of the operation screen 31 disappears from the display unit 30 as viewed from the user's eyes. It is desirable to be performed so that it appears to move gradually.
  • the mobile phone 100 is in the menu display mode, and the distance (P1) that the user's finger moves on the touch panel 40 when the touch panel 40 is operated continuously (continuously).
  • ( ⁇ P0) is larger (longer) than the specific threshold
  • the display position of the operation screen 31 is changed based on the operation position (touch position P1) of the touch panel 40 as the movement destination.
  • continuously operating the touch panel 40 includes a state in which the user never detects a touch-up from the start of touching the touch panel 40.
  • the operation screen 31 when the operation screen 31 is displayed on the display unit 30, the user's finger indicated by a broken line is moved in the direction indicated by the arrow A 31 in the operation screen 31.
  • the operation screen 31 is slid on the touch panel 40 by a distance longer than the specific threshold (when a drag operation is performed)
  • the operation screen 31 is displayed in the dragged direction as shown in FIG. 4B.
  • the position is changed.
  • the operation screen 31 includes images of buttons 311A to 311C.
  • a broken line H1 indicates the user's finger after the drag operation.
  • the user performs a touch-up and then performs a touch operation, that is, for example, by performing a touch operation at the position of the dotted line H2 in FIG.
  • the upper button can be selected.
  • a dotted line H2 indicates a user's finger that selects a button on the operation screen 31 after the position is changed.
  • a broken line H1 indicates a finger that performs the first touch operation, and a dotted line H2 indicates a finger that performs the second touch operation.
  • the operation screen 31 whose display position has been changed by the first touch operation remains in that position even after the first touch operation has ended, and the mobile phone 100 remains in a state where the display position of the operation screen 31 has been changed.
  • a second touch operation is received.
  • FIG. 5A in the state where the operation screen 390 is displayed on the display unit 30, the user's hand (finger) indicated by a broken line is indicated by an arrow A33.
  • the display content on the display unit 30 changes as shown in FIG. 5B. That is, as shown in FIG. 5B, the display position of the operation screen 390 on the display unit 30 moves downward.
  • the operation screen 390 is a screen on which an address book application is activated.
  • the display unit 30 displays a cursor 381 indicating a state in which “NA” in a heading such as “A”, “TA”, “NA”, etc., displayed in the display field 380 is selected.
  • the heading of the address book that is included in the “NA” line at the beginning of the heading constituting the address book is displayed.
  • FIG. 5A shows a state in which the cursor 391 and the user's finger are selecting the sixth displayed name from the top of the operation screen 390, “Yuko Nagawa”.
  • the position of the operation screen 390 in the display unit 30 moves downward as shown in FIG. 5B.
  • FIG. 5B indicates the user's finger after the drag operation.
  • the user performs a touch-up operation on the operation screen 390 in the state illustrated in FIG. 5B and then performs a touch operation so that the finger can reach after changing the position (the operation screen 31).
  • FIG. 5B shows a state where the name displayed third from the top in the operation screen 390 of FIG. 5B is selected as “Nayama Hiromichi”. That is, the display position of the operation screen 390 on the display unit 30 is changed from the state illustrated in FIG. 5A to the state illustrated in FIG.
  • the name (selected part) displayed above the operation screen 390 is moved up to the user's hand (finger) at the top of the operation screen 390 as shown in FIG.
  • the name (selected part) displayed above can be displayed at a position that can be reached by hand (finger) directly.
  • Various patterns can be considered for the portion that can be seen as the background depending on the application activation state and the type of operation screen displayed on the display unit 30.
  • the heading portion of the address book that is, the operation screen at the highest level for application operation (the operation screen at the highest level for application operation) is an operation screen
  • the background of the address book is seen as the background.
  • a part of the heading of the “ta” line displayed so as to overlap the “na” line may be displayed, and the operation screen displayed on the display unit 30 is the operation screen of the address book application itself.
  • a wallpaper or an application other than the address book appears as a background, in which case the screen displayed as the wallpaper is displayed on the mobile phone 100 when no other application is activated in parallel.
  • the state shown in FIG. I if the state such as direction of the operation screen 390 has been displayed before, in the state shown in Figure 5B, the screen of the application that is started the parallel to become visible as an underlying.
  • screens for displaying information related to the application in the address book are shown.
  • the screens to be handed over in this way are It is not limited to such a screen.
  • Other screens include a screen for displaying various contents such as maps and web contents, a screen for playing and browsing downloaded videos and music, an email creation screen and a display screen, a plurality of screens, etc.
  • a screen for selecting an item from the list of selection items can be cited.
  • a click operation an operation for touching the touch panel 40
  • the mobile phone 100 performs any of the following operations according to the operation Includes screens that can be made.
  • a Web content browsing screen will be described as an example as another example of a hand-drawn screen.
  • the Web content browsing screen includes content playback and display of items linked to URL (Uniform Resource Locator) addresses of other home pages. Then, by performing an operation such as a single tap on the item (a character string corresponding to the item), processing such as access to a link destination corresponding to the item is executed. From this point of view, it can be said that the Web content browsing screen is also an operation screen for inputting information for causing the mobile phone 100 to execute processing.
  • URL Uniform Resource Locator
  • FIGS. 27A to 27C are diagrams for explaining a mode in which a web content browsing screen is displayed on the display unit 30 and the browsing screen is dragged.
  • the display unit 30 displays a screen including a web content browsing screen.
  • the web browser screen displays a display field 30A for displaying information for specifying an application for displaying the browsing screen (character information “web browser” in FIG. 27A) and the like, and a web content browsing screen 361.
  • a display field 30B for displaying a URL address where the Web content displayed in the display field 30C exists (a URL address accessed by the mobile phone 100 through a web browser).
  • a web browser is installed, and when the web browser is executed, a web content browsing screen as shown in FIG. 27A is displayed.
  • the screen displayed in the display field 30C corresponds to an operation screen for inputting information used for processing related to the web browser by a touch operation or the like.
  • a part of the Web content is displayed in the display column 30C.
  • FIG. 28A schematically shows the relationship between the virtual screen for the entire Web content and the portion displayed in the display column 30C.
  • the display unit 30C displays an image of an area indicated by a portion 1001 from the Web content 1000 indicated by a broken line.
  • the relative position and size (display magnification in the display field 30C) of the part displayed in the display field 30C in the Web content 1000 are based on, for example, the content of the operation on the touch panel 40. Changed.
  • the Web content displayed in the display field 30C displays a plurality of items having link information such as URL addresses.
  • each of the four items (“Breaking News”, “Venture Person”, “Anchor Desk”, “Company / Industry Trend”) displayed in the “News” group above the left column of the display column 30C, Assume that the URL address is linked.
  • the web browser accesses the URL address of the link destination of the item.
  • “80%” in the display column 30A in FIG. 27A is information indicating how much display information remains above the portion displayed in the display column 30C in the entire Web content.
  • R% (L2 / L1) ⁇ 100 (1)
  • L1 is the vertical dimension of the entire Web content (the vertical dimension of the entire Web content 1000)
  • L2 is the distance between the upper end of the portion displayed in the display field 30C and the upper end of the Web content. (Distance between the portion 1001 and the upper end of the Web content 1000).
  • R% is information displayed in the display column 30A. By displaying such information in the display field 30A, the user can easily recognize where the information displayed in the display field 30C is located in the entire Web content. it can.
  • the display for making a user recognize such a ratio is not limited to the% display shown by FIG. 27A etc. If the screen displayed in the display field 30C is information that allows the user to recognize the positional relationship with respect to the end of the content, as schematically shown in FIG. 28A, Information indicating the positional relationship itself between the entire content and the portion displayed in the display field 30 ⁇ / b> C may be displayed on the display unit 30 separately from the screen 361.
  • the display screen in the display column 30C is scrolled downward by an amount corresponding to the amount of the operation (the distance and the number of operations of sliding the finger), and then the scrolling is stopped and the stationary position is stopped.
  • the screen will be displayed.
  • this scroll display may be performed as if the screen has inertia. In this case, the scroll speed gradually increases from the start of scrolling, and then the scroll speed is decreased and the scroll is stopped.
  • FIG. 28A shows an arrow 301A.
  • the relationship between the direction of the arrow 301A and the web content 1001 corresponds to the relationship between the direction of the arrow 301 and the screen 361 in FIG. 27A.
  • the Web content 1000 is moved with respect to the portion 1001 in the direction in which the finger is slid (the direction of the arrow 301A in FIG. 28A). That is, as a result, as shown in FIG. 28B, the relative positional relationship between the Web content 1000 and the portion 1001 is as if the portion 1001 moved in the opposite direction (upward) to the arrow 301A in the Web content 1000. ,Change.
  • FIG. 27B shows a screen displayed on the display unit 30 as a result of the operation of sliding the finger in the direction of the arrow 301.
  • the screen displayed in the display column 30C is switched to the screen 362.
  • FIG. 27B As shown in FIG. 28B, the positional relationship between the upper end portions of the Web content 1000 and the portion 1001 in the portion displayed in the display column 30C in the entire Web content changes with respect to FIG. 28A. Therefore, the percentage display displayed in the display column 30A changes accordingly. Specifically, in FIG. 27B, the upper end portion of the Web content is displayed at the upper end portion of the display field 30C. As a result, L2 described above becomes 0, and “0%” is displayed in the display column 30A.
  • FIG. 27C When the user's finger is further slid in the downward direction indicated by the arrow 302 with respect to the touch panel 40 from the state shown in FIG. 27B, the display in the display column 30C is shown in FIG. 27C. As described above, the display content of the display field 30C is changed so that the Web content screen 362 itself displayed in the display field 30C moves downward (arrow 302). The display content after the change is shown in FIG. 27C.
  • the upper end portion of the web content screen 363 displayed in the display column 30C does not coincide with the upper end portion of the display column 30C, and is positioned below the upper end portion.
  • the portion displayed in the display column 30C in the Web content has a short vertical dimension.
  • the lower portion is deleted by the hatched area from the portion 1001 in FIG. 28B.
  • an operation in a pattern different from the operation of sliding the user's finger on the touch panel 40 is performed in an item on the screen 363 (for example, in the “Keyword of Interest” menu). If an operation is performed on the “1-5th”, “6-10th”, and “11th-15th” items indicated as tabs in FIG. 1, the web browser corresponds to the item for which the operation was performed. Assuming that the information to be entered has been entered, screen 3 Processing such as switching of display contents at 63 is executed.
  • the selection items near the top of the Web content for example, “1st to 5th place” in the above “Featured keyword” menu
  • the items “6th to 10th” and “11th to 15th” can be displayed slightly below the central portion in the vertical direction of the display column 30C.
  • the operation screen is continuously displayed at the display position after the movement.
  • the user can perform an operation of selecting a selection item by an operation such as touch-up.
  • step S216 if it is determined in step S216 that the movement distance does not exceed a specific threshold value, the user's operation is recognized as the selection of a menu item (selected part such as a button in the operation screen 31) ( If it is determined that the movement distance exceeds the specific threshold value (steps S218 to S220), it is recognized as an operation for changing the display position so that the operation screen 31 is dragged (steps S224 to 226).
  • the threshold relating to the moving distance can be automatically determined according to the size of the button on the operation screen and the distance of each button. A method for determining the threshold will be described later.
  • the moving distance here may be the moving distance of the actual operation target position on the touch panel 40 or may be the moving distance in a certain direction.
  • the direct distance from point A to point B can be used as the moving distance, or from point A to point B
  • the distance (distance RX) of the horizontal component for the movement up to B can be set as the movement distance.
  • the threshold of the movement distance is set to the above value.
  • the distance R can be used.
  • the threshold when the threshold is the distance R between the center positions of adjacent buttons, the threshold can be determined according to the size of the button on the operation screen and the distance of the button. By determining the threshold value for each operation screen, it is possible to determine more accurately the menu selection mode and the drag mode without being influenced by the size and distance of the button.
  • FIG. 7 shows a state in which the button 314 ⁇ / b> B on the operation screen 31 is highlighted as an example of the button highlighting display.
  • step S218 the CPU specifies an operation button located closest to the touch position on the operation screen 31, and advances the process to step S220.
  • step S220 the CPU performs a process of highlighting and displaying the button specified in step S218, and finishes the menu drag process.
  • the user can easily recognize the selected item, and the user can easily recognize that the mobile phone 100 is in the menu selection mode.
  • the user recognizes that the drag operation distance is too short to display the operation screen 31 by hand if the highlighting is performed when performing the touch operation in order to perform the hand drag. Then, by continuously performing a drag operation for a longer distance, the display position of the operation screen 31 can be changed so that the mobile phone 100 can draw it.
  • step S228 the CPU determines whether or not the mode of the mobile phone is the menu selection mode. If so, the CPU proceeds to step S230 and determines that it is not. The process proceeds to step S232.
  • step S230 the CPU executes a process corresponding to the menu item selected in mobile phone 100 at that time, and then proceeds to step S234.
  • step S232 the CPU determines whether or not the mode of the mobile phone 100 is the drag mode. If so, the CPU proceeds to step S234, and if not (menu (operation screen 31). ), The menu dragging process is terminated.
  • step S234 the CPU sets the mode of the mobile phone 100 to the menu display mode and ends the menu drag process.
  • step S202 immediately after the user's finger touches the operation screen 31, the process proceeds from step S202 to S208, and the touch start position P0 and the touch start time T0 are stored.
  • step S210 the mode of the cellular phone is changed to the menu selection mode, and the determination in step S216 is executed.
  • step S216 if the finger is not moved, or if the moving distance is short enough not to exceed the above-described specific threshold, NO is determined in step S216.
  • the processing proceeds to step S218 (FIG. 18), and the button closest to the touch position at that time (button 311B in FIG. 4A) is selected. Note that after the button is selected, the button may be highlighted in step S220, or the highlighting in step S220 may be omitted. Thereafter, the process returns to step S202.
  • step S222 When the user moves his / her finger from the state shown in FIG. 4A to the state shown by the broken line H1 in FIG. In the touch period), after the mode of the mobile phone 100 is shifted to the drag mode in step S222, a series of processes of steps S202, S204, S212, S214, S224, and S226 are performed until the user's finger stops. Is repeated, and the display position of the menu is changed according to the movement of the finger. Specifically, when the moving distance of the user's finger on the touch panel due to the moving operation exceeds the specific threshold, a determination of YES is made in step S216, and the process proceeds to step S222. Is changed to the drag mode, and then a series of processes of steps S202, S204, S212, S214, S224, and S226 are repeated to change the display position of the menu.
  • step S202 when the user releases his / her finger from touch panel 40 at the position shown in H1 (FIG. 4B) (that is, when touch-up is performed at that position), a NO determination is made at step S202, and the step of FIG. The process proceeds to S228.
  • the operation mode of the mobile phone 100 is the drag mode. Therefore, the process proceeds to step S234 via step S232, where the operation mode of the mobile phone 100 is set to the menu display mode, and the process returns to step S202.
  • the display position of the operation screen 31 remains the position changed by the execution of step S226 so far, that is, the state shown in FIG. 4B.
  • step S202 After the moving operation, once the user touches up, and then the user's finger touches the position indicated by H2 in FIG. 4B, the process starts from step S202, and the processes of steps S204, S206, S208, and S210 Are executed in order. Thereby, the operation mode of the mobile phone 100 is set to the menu selection mode. Thereafter, in S218, the button located near the touch position (button 311A in FIG. 4B) is selected, and the process returns to step S202.
  • step S202 Thereafter, when the user's finger is released from the touch panel 40 in the position indicated by H2 (that is, when the moving distance is smaller than the threshold value in S216 and the touch-up occurs in the menu selection mode state), step S202.
  • the process proceeds from step S228 to step S228.
  • step S230 since the process of changing the operation mode of the mobile phone 100 from the menu selection mode has not been performed after the touch operation is performed at the position H2, YES is determined in step S228, and the process proceeds to step S230.
  • step S230 the selection menu item is executed, that is, the processing content corresponding to the button 311A in FIG. 4B is executed.
  • step S234 the operation mode of the mobile phone 100 is set to the menu display mode, and the process returns to step S202.
  • the midpoint (point Pc) of the point P1 where the drag operation has ended (the finger is released from the touch panel 40) from the point P0 at which the drag operation is started is displayed as the operation screen after movement.
  • the center of the 31 display positions may be used.
  • the operation screen 31 is to be displayed on the display unit 30 with the point Pc as the center, if the entire operation screen 31 is not displayed on the display unit 30, the point Pc is appropriately set (for example, FIG. 11A and FIG. 11B). Correction is preferred (as described with reference).
  • step S216 when the moving distance is equal to or greater than a specific distance in step S216, the operation screen 31 is moved based on the user's operation on the touch panel 40, that is, the shift to the drag mode. To do.
  • the moving distance for the touch operation is used as the condition for shifting to the drag mode.
  • other operation modes that can be conditions for shifting to the drag mode are conceivable. It is important to accurately determine whether or not to shift to the drag mode based on a user operation. This is because if there is an executable selection item such as a button at the touched position, it is necessary to determine whether to execute it or move the operation screen without executing it.
  • the mobile phone is equipped with a determination means for determining whether to move to the drag mode or to select a menu corresponding to the touch position based on the user's operation. It is thought that advantageous effects can be achieved in terms of screen design and ease of use.
  • the user instead of the movement distance of the user's operation position, the user has operated the touch panel 40 without touching up the mobile phone 100 for a certain length of time, or the user moves on the operation screen 31 at a specific speed or more. It can also be configured to shift to the drag mode on condition that the finger is moved at the speed of and the drag operation is performed. An example of such processing is shown in FIG.
  • FIG. 20 corresponds to a flowchart of a modification of the flowchart of FIG. In FIG. 20, step S216 of FIG. 18 is changed to step S216A.
  • step S216A the difference between the touch start time T0 and the touch time T1 (T1-T0), that is, whether the duration of the touch operation has exceeded a predetermined threshold Tx, or the moving speed, that is, the moving distance (P1- It is determined whether or not the value obtained by dividing (P0) by the movement time (T1-T0) (movement speed (here, the initial speed of movement)) exceeds a predetermined threshold value Vx.
  • the mobile phone 100 is configured to shift to the drag mode when the duration of the touch operation exceeds a predetermined threshold Tx or the moving speed exceeds the threshold Vx.
  • the continuation of the touch operation means that the touch operation is performed without being touched up after being touched.
  • the mobile phone 100 can be configured to shift to the above-mentioned drag mode on condition that the user's operation is an operation corresponding to a reciprocating motion.
  • FIG. 21 A flowchart of such a modification is shown in FIG.
  • the touch position position (Pn) is continuously stored in the touch information storage table in step S212B until the menu display mode is entered, and in step S216B, the operation position is changed from the series of touch positions Pn.
  • the trajectory is analyzed, and it is determined whether or not the trajectory corresponds to a reciprocating motion.
  • the mobile phone 100 When the mobile phone 100 is reciprocating, the mobile phone 100 shifts to the drag mode in step S222.
  • the mobile phone 100 can be configured to shift to the above-described hand-drawing mode on condition that the user operates the touch panel 40.
  • step S205A when it is determined in step S204 that mobile phone 100 is in the menu display mode, in step S205A, the position touched by the user is near the end of operation screen 31 (near the boundary of the menu). It is determined whether or not there is.
  • the vicinity of the end portion is a region between a broken line 330 and an alternate long and short dash line 331, for example, as shown in FIG.
  • This area is provided with buttons 314A to 314D inside the operation screen 31, but can be an area outside them.
  • step S205A If it is determined in step S205A that the touch position is near the end, the mode of the mobile phone 100 is set to the drag mode in step S205B.
  • step S205A when the touch position is an area other than the area where the button (selection target item) on the operation screen is displayed, the process may be advanced to step S205B.
  • the mobile phone 100 can be configured to shift to the above-described hand-drawing mode on condition that an operation of a specific touch operation type has been performed.
  • step S209A A flowchart of such a modification is shown in FIG. Referring to FIG. 23, after the touch start position (P0) and the touch start time (T0) are stored in step S208, table 3 is referred to in step S209A, so that the current operation is performed on touch panel 40. It is determined whether or not the type of the touch operation is double touch. If it is determined that this is not the case, in step S209B, the mode of the mobile phone 100 is set to the drag mode.
  • the operation screen 31 displayed on the display unit 30 is returned to the display position before the operation on the button after the operation on the button on the operation screen 31 is performed. Is processed.
  • the display position of the operation screen is changed so that the operation screen is drawn closer to the user's hand once based on the user's operation on the touch panel 40.
  • touch-up occurs at the position indicated by the broken line H11, and then the user's finger performs a selection operation on the button 311 in the operation screen 31 at the position indicated by the dotted line H12, and the process is executed.
  • menu position return processing is executed as processing for returning the display position on display unit 30 of operation screen 31 to the original position.
  • the menu position return process may return the display position to the original position even when a new touch operation is not performed for a certain period of time after the hand drag operation is completed. That is, the display position may be returned to the original position even if the process by the second operation related to the operation screen such as the selection operation is not executed. Further, if a new touch operation is not performed for a while, the operation screen may not be displayed as shown as the mobile phone 100C in FIG.
  • the operation screen 31 displayed on the display unit 30 is returned to the display position before the operation on the button after the operation on the button on the operation screen 31 is performed. Is processed. Specifically, as shown as a mobile phone 100A in FIG. 26, after the user has drawn close to the user's hand (broken line H11) once based on the user's operation on the touch panel 40, the user can In response to the selection operation performed on the button 311, as shown in FIG. 26 as the mobile phone 100 B, the menu position return process is performed as a process for returning the display position on the display unit 30 of the operation screen 31. Is executed.
  • FIG. 24 is a flowchart of the menu position return process.
  • the CPU first determines whether or not the mode of mobile phone 100 is the menu selection mode in step S302, and if so, the process proceeds to step S306. If it is determined that this is not the case, the process proceeds to step S314.
  • step S306 the CPU executes the processing item selected by the user operating the button (eg, button 311) on the operation screen 31, and advances the process to step S308.
  • the button eg, button 3111
  • step S308 the CPU determines whether or not the menu start position p (see Table 4) is different from the current menu display position (center coordinate of the operation screen 31). If it is determined, the process proceeds to step S310. If it is determined that there is no difference, that is, the coordinates of the center of the current operation screen 31 match the coordinates stored as the display start position p, the process proceeds to step S312.
  • step S310 the CPU changes (returns) the display position of the operation screen 31 so that the display position of the operation screen 31 becomes the coordinates stored as the display start position p, and the process proceeds to step S312. To proceed.
  • step S312 the CPU changes the mode of the mobile phone 100 to the menu display mode, and ends the menu position return process.
  • step S314 the CPU determines whether or not the mode of the mobile phone 100 is the drag mode. If so, the CPU proceeds to step S316, and if not, proceeds to step S318.
  • step S316 the CPU changes the mode of the mobile phone 100 to the menu display mode, and proceeds to step S318.
  • step S318 the CPU determines whether or not a time without touch input continues for a predetermined time Tx or more. If so, the CPU proceeds to step S320 and determines that it is not. The menu position return process is terminated as it is.
  • step S320 the CPU changes the mode of the mobile phone 100 to the menu non-display mode and ends the menu position returning process.
  • FIG. 25 is a flowchart of the process.
  • step S402 the CPU determines whether or not an input operation is performed on touch panel 40.
  • the mode change process is terminated.
  • the CPU advances the process to step S404.
  • step S404 the CPU determines whether or not the mode of the mobile phone 100 is the menu selection mode. If so, the process proceeds to step S406, and if not, the process proceeds to step S408. .
  • step S406 the CPU causes the control item selected at that time to be executed, and then proceeds to step S414.
  • step S408 the CPU determines whether or not the mobile phone 100 is in the drag mode. If so, the CPU proceeds to step S410, and if not, the CPU proceeds to step S412.
  • step S410 the CPU changes the mode of the mobile phone 100 to the menu display mode, and proceeds to step S412.
  • step S412 as in step S318, the CPU determines whether or not the time when there is no touch input on the touch panel 40 is, for example, the time Tx stored in the setting content storage unit 62, and determines that this is the case. The process proceeds to step S414, and if it is not, the second display mode change process is terminated.
  • step S414 the CPU changes the mode of the mobile phone 100 to the menu non-display mode and ends the second display mode change process.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Telephone Set Structure (AREA)

Abstract

 携帯電話機(100)において、表示部(30)に、操作画面(31)が表示される。操作画面(31)には、携帯電話機(100)において実行されるアプリケーションに関する処理内容を制御するための情報を入力するボタン(311A~311C)が表示されている。表示部(30)上には、タッチパネルが設けられている。ユーザが、タッチパネル上で、矢印(A31)に示されるように指をドラッグさせると、操作画面(31)の表示位置が、ユーザの指に手繰り寄せられるように、変更される。

Description

携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
 本発明は、携帯情報端末に関し、特に、表示部に表示されたタッチパネルに対して操作を行なう携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体に関する。
 従来から、情報端末において、表示部にタッチパネルを設け、表示部に映像を表示するとともに、操作部に相当する画像を表示させ、ユーザに、タッチパネルに対して操作をさせることにより操作情報の入力を受け付ける技術が種々活用されている。
 このような技術の中には、たとえば、上記のような操作画面を、ユーザによるタッチ操作をトリガーとして表示させるものがあった。
 また、特許文献1(特開2007-52795号公報)には、デジタルカメラにおいて、ユーザが操作しやすいように、ユーザがタッチパネルにタッチしたことを検出したとき、当該タッチパネルにおけるタッチ位置を基準として、シャッタボタンやズームアップボタン、ズームダウンボタンといった操作ボタンを含む画像を表示させる技術が開示されている。
特開2007-52795号公報
 ユーザの中では、携帯情報端末の把持および操作を片手でまかなうため、当該端末を、片手で把持するとともに当該把持した手の指で操作をすることへの要望が高まっている。現に、多くの携帯情報端末が、片手で把持および操作されることを想定されて製造されている。
 なお、近年、携帯情報端末において、多くの機能を搭載されるようになってきており、これに応じて、表示部に表示される操作画面により多くのボタンやメニューなどの情報を表示したいという要望が出てきている。
 操作画面に表示する情報が増えた場合、操作画面に必要とされる面積は大きくなることが予想される。なお、操作画面の面積が大きくなった場合、たとえ上記特許文献1に記載されるようにユーザが操作しやすいと考えられる位置に操作画面が表示されたとしても、ユーザがそのように実感できない事態が想定される。具体的には、たとえユーザが操作しやすいと考えられる位置に操作画面が表示されたとしても、当該操作画面の隅に表示されたボタンは、ユーザが端末を把持した手の指で操作するには当該指から離れた位置に表示されることが考えられ、このような場合には、ユーザが当該ボタンを操作しようとする場合には、端末を持ち替えるか、または、他方の手で当該ボタンを操作することを必要とされる。
 本発明は係る実情に鑑み考え出されたものであり、その目的は、表示部に設けられたタッチパネルに操作画面を表示する携帯情報端末において、確実に、ユーザの利便性を向上させることである。
 本発明のある局面に従った携帯情報端末は、表示部と、表示部に設けられたタッチパネルと、アプリケーションを実行するアプリケーション実行部と、タッチパネルに対する操作に応じてアプリケーションに関する処理を実行する制御部とを備え、制御部は、表示部に、アプリケーションに関する処理に利用するための情報を入力される操作画面を表示し、タッチパネルに対する第1の操作に基づいて、表示部における操作画面の表示位置を変更する。
 本発明の他の局面に従った携帯情報端末は、表示部と、表示部に設けられたタッチパネルと、アプリケーションを実行するアプリケーション実行部と、タッチパネルに対する操作に応じてアプリケーションに関する処理を実行する制御部とを備え、制御部は、表示部に、アプリケーションに関する処理に利用するための情報を入力される操作画面を表示し、タッチパネルに対する第1の操作に基づいて、表示部における操作画面の表示位置を変更し、操作画面の表示位置を第1の操作に基づいて変更した後、変更前の位置に戻すことができ、タッチパネルに対する操作があった場合に、当該操作の内容が第1の操作の条件を満たしているか否かを判断し、満たしていると判断した場合には、表示部における操作画面の表示位置を変更する。
 本発明のさらに他の局面に従った携帯情報端末は、表示部と、前記表示部に設けられたタッチパネルと、アプリケーションを実行するアプリケーション実行部と、タッチパネルに対する操作に応じてアプリケーションに関する処理を実行する制御部とを備え、アプリケーションの操作画面は、表示部のサイズよりも大きく、制御部は、操作画面の一部である部分画面を表示部に表示し、部分画面は、アプリケーションに関する処理に利用するための情報の入力のための項目を含み、制御部は、タッチパネルに対する第1の操作に応じて、部分画面として表示部に表示される操作画面中の部分を変更し、変更後の部分画面に対して第2の操作がなされることにより項目を選択する情報が入力されたと判断して、当該選択された項目に対応したアプリケーションに関する処理を実行し、部分画面が操作画面の端部に位置する状態で、第1の操作が行なわれた場合には、操作画面の端部が、表示部の、当該表示部の端部から第1の操作における操作方向と同じ方向に移動した位置に表示されるようにし、移動した位置にある操作画面に対して第2の操作が行なわれた場合には、項目を選択する情報が入力されたと判断し、当該選択された項目に対応したアプリケーションに関する処理を実行する。
 本発明に従ったコンピュータ読取可能なプログラムは、表示部と、表示部に設けられたタッチパネルと、アプリケーションを実行するアプリケーション実行部とを備える携帯情報端末を制御するための、コンピュータ読取可能なプログラムであって、携帯情報端末に、表示部に、アプリケーションに関する処理に利用するための情報を入力される操作画面を表示するステップと、タッチパネルに対する操作の有無を判断するステップと、タッチパネルに対する操作に基づいて、表示部における操作画面の表示位置を変更するステップとを実行させる。
 本発明に従った記録媒体は、表示部と、表示部に設けられたタッチパネルと、アプリケーションを実行するアプリケーション実行部とを備える携帯情報端末を制御するための、コンピュータ読取可能なプログラムを記録した記録媒体であって、プログラムは、携帯情報端末に、表示部に、アプリケーションに関する処理に利用するための情報を入力される操作画面を表示するステップと、タッチパネルに対する操作の有無を判断するステップと、タッチパネルに対する操作に基づいて、表示部における操作画面の表示位置を変更するステップとを実行させる。
 本発明によれば、タッチパネルへの操作に基づいて、表示部に表示された操作画面の表示位置を移動させることができる。
 これにより、表示部に表示された操作画面の中で操作をしようとしたボタンが、携帯情報端末を把持したユーザの手の指で操作するには当該指から離れた位置に表示されている場合であっても、ユーザは、当該ボタンの表示位置を当該指に近づけることができる。したがって、ユーザは、携帯情報端末を持ち替える等することなく、所望のボタン等の、操作画面の所望の位置を操作することができる。
本発明の携帯情報端末の一実施の形態である携帯電話機の一側面を模式的に示す図である。 本発明の携帯情報端末の一実施の形態である携帯電話機の一側面を模式的に示す図である。 本発明の携帯情報端末の一実施の形態である携帯電話機の一側面を模式的に示す図である。 本発明の携帯情報端末の一実施の形態である携帯電話機の一側面を模式的に示す図である。 本発明の携帯情報端末の一実施の形態である携帯電話機の一側面を模式的に示す図である。 図1Aの携帯電話機のハードウェア構成を模式的に示す図である。 図1Aの携帯電話機の画面に表示される操作画面の例を示す図である。 図1Aの携帯電話機の画面に表示される操作画面の例を示す図である。 図1Aの携帯電話機の表示部における操作画面の表示態様を変化させる状態の一例を模式的に示す図である。 図1Aの携帯電話機の表示部における操作画面の表示態様を変化させる状態の一例を模式的に示す図である。 図1Aの携帯電話機の表示部における操作画面の表示態様を変化させる状態の他の例を模式的に示す図である。 図1Aの携帯電話機の表示部における操作画面の表示態様を変化させる状態の他の例を模式的に示す図である。 図1Aの携帯電話機における、操作画面の表示態様を変更するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面の表示態様を変更するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面の表示態様を変更するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面の表示態様を変更するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面を表示するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面を表示するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面を表示するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面を表示するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面を表示するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面を表示するための処理内容を説明するための図である。 図1Aの携帯電話機における、操作画面を表示するための処理内容を説明するための図である。 図1Aの携帯電話機のCPUが実行する割込処理のフローチャートである。 図1Aの携帯電話機のCPUが実行するシングルタップ・ダブルタップ識別処理のフローチャートである。 図1Aの携帯電話機のCPUが実行する第1表示モード変更処理のフローチャートである。 図1Aの携帯電話機のCPUが実行するメニューの手繰り寄せ処理のフローチャートである。 図1Aの携帯電話機のCPUが実行するメニューの手繰り寄せ処理のフローチャートである。 図18のフローチャートの変形例を示す図である。 図18のフローチャートの変形例を示す図である。 図18のフローチャートの変形例を示す図である。 図18のフローチャートの変形例を示す図である。 図1Aの携帯電話機のCPUが実行するメニュー位置戻し処理のフローチャートである。 図1Aの携帯電話機のCPUが実行する第2表示モード変更処理のフローチャートである。 図1Aの携帯電話機の表示部における操作画面の表示態様を変化させる状態のさらに他の例を模式的に示す図である。 図1Aの携帯電話機の表示部における操作画面の表示態様を変化させる状態の別の例を模式的に示す図である。 図1Aの携帯電話機の表示部における操作画面の表示態様を変化させる状態の別の例を模式的に示す図である。 図1Aの携帯電話機の表示部における操作画面の表示態様を変化させる状態の別の例を模式的に示す図である。 図27A~図27Cに示した操作画面の表示態様の変化を説明するための図である。 図27A~図27Cに示した操作画面の表示態様の変化を説明するための図である。 図27A~図27Cに示した操作画面の表示態様の変化を説明するための図である。
 以下、本発明の携帯情報端末の一実施の形態である携帯電話機について、図面を参照しつつ説明する。なお、本発明の携帯情報端末は、携帯電話機に限定されない。つまり、本発明の携帯情報端末は、タッチパネルを備える端末であれば、たとえば携帯電話機に搭載される通話機能等の特有の機能を備えることを必要とされるものではない。
 図1A~図1Eは、本発明の携帯情報端末の一実施の形態である携帯電話機の側面を模式的に示す図である。
 まず、図1Aを参照して、携帯電話機100の一側面には、液晶ディスプレイ等からなる表示部30が設けられている。表示部30には、ウェブページ等のネットワーク上の文書や、携帯電話機100内に格納されるアドレス帳やメーラによるメール作成画面等の種々の情報を表示することができる。
 携帯電話機100では、表示部30の前面に、タッチパネル(後述するタッチパネル40)が設けられている。また、携帯電話機100では、当該携帯電話機100において実行されるアプリケーションに関する処理に利用される情報を入力するための操作画面31が表示される。操作画面31は、たとえば、図1Bに示すように、タッチパネルの、表示部30の左側の領域に対応する領域をタッチ等操作されることにより、表示部30の左側の領域に表示される。また、操作画面31は、図1Cに示されるように、タッチパネルの、表示部30の中央の領域に対応する領域をタッチ等操作されることにより、表示部30の中央部に表示され、また、図1Dに示されるように、タッチパネルの、表示部30の右側の領域に対応する領域をタッチ等操作されることにより、表示部30の右側の領域に表示される。
 図1B~図1Dでは、破線Hは、携帯電話機100のタッチパネルに対して操作を行なうユーザの手を模式的に示している。
 操作画面31には、それぞれが個々の機能に対応する操作ボタン310が複数含まれる。携帯電話機100には、操作画面31上の複数のボタン310について、タッチパネル上のどの位置にどの機能に対応するボタンを表示しているかが適宜記憶される。そして、携帯電話機100では、当該情報と、タッチパネルのどの位置が操作されたかを検出することにより、これから実行する処理内容が決定される。
 図2は、携帯電話機100のハードウェア構成を模式的に示す図である。
 図2を参照して、携帯電話機100は、当該携帯電話機100の動作を全体的に制御する制御部50、データの送受信を行なうためのアンテナ81、アンテナ81によるデータの送受信の際の信号の処理等を行なう通信制御部80、携帯電話機の姿勢を検出する姿勢検出部90、フラッシュメモリ等からなる記憶部60、タッチパネル40、表示部30、表示部30における表示内容を制御する表示制御部51、主に通話機能に利用されるレシーバ56およびマイク58、アラーム音等を出力するスピーカ57、レシーバ,スピーカ57から出力させる音声を制御する音声出力制御部53,54、マイク58に入力された音声を処理する音声入力制御部55、ならびに、カメラ91を含む。制御部50は、CPUを含む。また、制御部50には、タイマ50Aが内蔵されている。
 姿勢検出部90は、携帯電話機100の向きや移動方向や当該携帯電話機100に対して与えられた加速度を検出するためのものであり、たとえば、複数のジャイロスコープや加速度センサや地磁気センサを含む。携帯電話機100の向きとは、たとえば、図1A(および図1B~図1D)に示されるような横長状態でユーザに把持されているか、図1Eに示されるように縦長状態でユーザに把持されているか等を意味する。姿勢検出部90を用いて携帯電話機100の本体の向きや移動方向や移動速度を検出する技術については、周知の技術を採用することができるため、ここでは説明を繰返さない。
 記憶部60には、制御部50のCPUが実行するプログラムを記憶するプログラム記憶部61と、アドレス帳等の携帯電話機100に対する設定内容を記憶する設定内容記憶部62と、後述する種々のテーブルやプログラム記憶部61に記憶されるプログラムが実行されるために必要な種々のデータを記憶するデータ記憶部63が含まれる。プログラム記憶部61は、携帯電話機100本体に対して、固定されていても良いし、着脱可能であっても良い。
 次に、携帯電話機100において実行される処理の内容について説明する。
 図15は、CPUが実行する、操作画面31の表示に関する割り込み処理のフローチャートである。CPUは、一定時間(たとえば、200ms)毎に、当該処理を実行する。
 図15を参照して、CPUは、まずステップS1で、携帯電話機100におけるアプリケーションの起動状態をチェックして、ステップS2へ処理を進める。
 携帯電話機100では、起動中のアプリケーションによって、次に受け付けることができる操作や組合わせて起動できるアプリケーションの種類が異なる場合が多い。そこで、アプリケーションが起動していない状態であるか、テレビ機能やWebブラウザ機能やメール機能等の中のどのアプリケーションが起動している状態であるか、または、通話中であるか、といった携帯電話機100の状態をチェックすることにより、メニューとして表示するものの内容を切り替えたり、場合によってはメニューを表示する処理を抑制したりする必要が生じる。このようなことから、ステップS1では、アプリケーションの起動状態(どのようなアプリケーションが起動されているか等)をチェックする。
 次に、ステップS2で、CPUは、タッチパネル40の状態をチェックして、ステップS3へ処理を進める。
 一般に、情報端末のオペレーティングシステム(OS)では、タッチパネルからの入力機能は、各アプリケーションで行なうのではなく、OSの機能として提供される場合が多い。また、タッチパネルへのタッチが終了してからしばらくの時間、メニューの表示や画面遷移などがアニメーション表示される場合があるが、その期間を除いて、タッチ操作がなされるまでは、メニューを表示する処理を行なわないことで消費電力を抑える場合が多い。以降の説明では、一部の場合を除き、タッチパネルへのタッチの状態をチェックする部分は、メニュー制御処理の外部で行なわれ、メニュー制御処理のアルゴリズム実行中はタッチ状態が変化しないものとして説明する。
 ステップS3では、CPUは、後述するステップS5のメニュー制御処理の呼び出しが必要であるか否かを判断し、必要であると判断するとステップS5へ処理を進め、呼び出しが不要であると判断するとステップS4へ処理を進める。
 ステップS4では、CPUは、今回のメインルーチンの実行の開始から上記一定時間が経過するのを待って、ステップS1へ処理を戻す。
 ステップS5では、CPUは、メニュー制御処理を実行した後、今回のメインルーチンの実行から上記の一定時間の経過を待って、ステップS1へ処理を戻す。
 ステップS5のメニュー制御処理では、以下の5つの処理を含む種々の処理が並列で、または順次、実行される。
 ・タッチ操作種類識別処理
 ・第1表示モード変更処理
 ・メニューの手繰り寄せ処理
 ・メニュー位置戻し処理
 ・第2表示モード変更処理
 タッチ操作種類識別処理とは、ユーザのタッチパネル40に対する操作の内容に基づいて、タッチパネル40に対して行なわれた操作パターンの種類を識別する処理である。
 第1表示モード変更処理とは、表示部30における操作画面31の表示を開始させる際に実行される処理である。なお、本明細書では、以下、操作画面31を適宜「メニュー」とも呼ぶ。
 メニューの手繰り寄せ処理とは、表示部30に表示された操作画面31を、ユーザのタッチパネル40への操作内容に応じてスライド等させることによりその表示位置を変更させるための処理である。
 メニュー位置戻し処理とは、上記のメニューの手繰り寄せ処理によって表示位置を変更された操作画面の表示位置を、変更前の位置に戻すための処理である。
 第2表示モード変更処理とは、表示部30に表示させた操作画面31の表示を終了させる際に実行される処理である。
 携帯電話機100では、タッチ操作の種類は、シングルタップ、ダブルタップ、ドラッグなどがある。本明細書では、シングルタップとダブルタップの識別について、図16に示したシングルタップ・ダブルタップ識別処理のフローチャートを参照して説明する。なお、シングルタップ・ダブルタップ識別処理における内部状態を表1にまとめる。
 なお、以下に示すタッチ操作の種類の識別態様は単なる例示であって、携帯情報端末では、本明細書に記載される方法でなく、一般的に用いられる他の態様によってタッチ操作の種類が識別されても良い。
Figure JPOXMLDOC01-appb-T000001
 図16を参照して、タッチ操作種類識別処理では、CPUは、まずステップSA102で、タッチパネル40に対してユーザがタッチ操作をしているか否かを判断し、タッチ操作をしていると判断するとステップSA104へ処理を進め、タッチ操作がないと判断するとステップSA118へ処理を進める。
 ステップSA104では、CPUが、前回タッチ操作種類識別処理が実行された際にタッチ操作がなされていたか否かを示すタッチ中フラグQ0の値が0であるか否かを判断し、0であると判断するとステップSA106へ処理を進め、そうではないと判断すると、つまりタッチ中フラグQ0の値が1であると判断すると、ステップSA112へ処理を進める。
 なお、タッチ中フラグQ0は、後述するように、タッチ操作種類識別処理が実行される度に値を更新されるフラグであって、その時点でタッチパネル40に対してタッチ操作がなされている場合には値を1にセットされ、タッチ操作がなされていない場合には値を0にセットされる。
 ステップSA106では、CPUは、現在の時刻とタッチ開始時刻T0との差が予め定められた閾値であるTdを下回っているか否かを判断し、そうであると判断するとステップSA108へ処理を進め、そうではないと判断すると、つまりタッチパネル40に対するタッチ操作を継続されている時間が上記した時間Td以上であると判断すると、ステップSA110へ処理を進める。
 ステップSA108では、CPUは、その時点でのタッチパネル40への操作がダブルタッチであるとして、ステップSA116へ処理を進める。なお、ステップSA108では、携帯電話機100がダブルタッチ操作をなされている状態(ダブルタッチ状態)であるか否かを示すフラグであるダブルタッチ状態フラグDTの値が1にセットされる。
 ステップSA110では、CPUは、その時点でのタッチパネル40への操作内容を仮タッチとし、仮タッチ状態フラグETの値を1にセットし、また、タッチ開始時刻T0の値として、タイマ50Aが計時する現在時刻を記録し、また、上記のダブルタッチ状態フラグDTと後述するシングルタッチ状態フラグSTとダブルタップ状態フラグDUとシングルタップ状態フラグSUの値を0にセットして、ステップSA116へ処理を進める。
 なお、データ記憶部63には、タッチ操作種類識別処理等の各種の処理が実行される際に利用される値を格納するためのテーブルとして、たとえば表2に示されるようなタッチ情報記憶テーブルを記憶する。
Figure JPOXMLDOC01-appb-T000002
 タッチ情報記憶テーブルにおいて、タッチ開始位置P0は、ユーザがタッチパネル40に対するタッチ操作を開始した位置を示す情報であり、たとえばタッチパネル40に対して定義された座標などによって表わされる。具体的には、ユーザがタッチパネル40をタッチし始めた位置の座標である。
 なお、タッチ情報記憶テーブルの各項目の値の更新は、仮タッチ検出時に行なわれる。
 タッチ開始時刻T0は、上記したように、ユーザがタッチパネル40をタッチ操作を開始した時刻である。
 タッチ位置P1は、CPUがタッチ操作種類識別処理等の種々の処理を実行している際の、その時点での、ユーザのタッチパネル40に対するタッチ位置を示す情報である。
 タッチ時刻T1は、CPUが実行する各種処理の実行中にユーザのタッチ処理を検出した際に記録される時刻を示す情報である。
 図16に戻って、ステップSA112では、CPUは、ステップSA106と同様に現在時刻とタッチ開始時刻T0との差が時間Tdよりも短いものであるかを判断し、そうである場合には、ステップSA116へ処理を進める。一方、CPUは、現在時刻とタッチ開始時刻T0との差が時間Td以上である場合には、ステップSA114へ処理を進める。
 ステップSA114では、CPUが、タッチ操作の種類をシングルタッチとして、シングルタッチ状態フラグSTを1にセットし、ステップSA116へ処理を進める。
 ステップSA116では、CPUは、上記したタッチ中フラグQ0の値を1にセットして、タッチ操作種類識別処理を終了させる。
 ステップSA118では、CPUは、タッチ中フラグQ0の値が0であるか否かを判断し、0であると判断するとステップSA124へ処理を進める。なお、タッチ中フラグQ0の値が1であると判断するとステップSA120へ処理を進める。
 ステップSA120では、CPUは、ダブルタッチ状態フラグDTの値が1であるかまたはシングルタッチ状態フラグSTの値が1であるかを判断し、そうであると判断するとステップSA122へ処理を進め、そうではないと判断すると、つまり、ダブルタッチ状態フラグDTとシングルタッチ状態フラグSTの値のいずれもが0であると判断すると、ステップSA126へ処理を進める。
 ステップSA122では、CPUは、その時点でダブルタッチ状態フラグDTの値が1である場合は、操作種類をダブルタップとし、ダブルタッチ状態DTの値が0で且つシングルタッチ状態STの値が1である場合は、操作種類をシングルタップと決定する。ダブルタップとした場合は、ダブルタップ状態フラグDUの値を1とし、シングルタップとした場合は、シングルタップ状態フラグSUの値を1とする。ダブルタッチ状態フラグDTの値と、シングルタッチ状態フラグSTの値と、仮タッチ状態フラグETの値と、仮タップ状態フラグEUの値をすべて0に更新する。
 ステップSA124では、仮タッチ状態フラグETの値が1であるか否かを判断し、そうであると判断するとステップSA128へ処理を進め、そうではないと判断するとステップSA132へ処理を進める。
 ステップSA126では、その時点での操作内容を仮アップとして、仮アップ状態フラグEUの値を1にセットして、ステップSA132へ処理を進める。
 ステップSA128では、CPUが、ステップSA106と同様に現在時刻とタッチ開始時刻T0との差が時間Tdより短いか否かを判断し、短いと判断するとステップSA132へ処理を進め、Td以上であると判断するとステップSA130へ処理を進める。
 ステップSA130では、CPUは、その時点でのタッチ操作の内容はシングルタップとして、シングルタップ状態フラグSUの値を1とする。また、シングルタッチ状態フラグSTの値と、ダブルタッチ状態フラグDTの値と、仮タップ状態フラグEUの値と、仮タッチ状態フラグETの値をすべて0に更新して、ステップSA132へ処理を進める。
 ステップSA132では、タッチ中フラグQ0の値を0に更新させてタッチ操作種類識別処理を終了させる。
 以上説明したタッチ操作種類識別処理等の各処理において利用されるフラグの値は、たとえば表3に示されるように、テーブルとして、データ記憶部63に記憶される。
Figure JPOXMLDOC01-appb-T000003
 次に、第1表示モード変更処理について、当該処理のフローチャートである図17を参照して説明する。
 図17を参照して、第1表示モード変更処理では、CPUは、まずステップS102で、その時点でタッチパネル40に対してタッチ操作がなされているか否か、つまりタッチ入力の有無を判断する。そして、タッチ入力があると判断するとステップS104へ処理を進め、ないと判断すると、そのまま第1表示モード変更処理を終了させる。
 ステップS104では、CPUは、その時点でのタッチパネル40に対する操作位置(タッチ位置)を検出して、ステップS106へ処理を進める。
 ステップS106では、CPUは、タッチ種類識別結果記憶テーブル(表3)を参照する等してタッチ操作の種類をチェックして、ステップS108へ処理を進める。
 ステップS108では、CPUは、ステップS104で検出したタッチ位置とステップS106でチェックしたタッチ操作の種類に基づいて、メニュー表示条件を満たすかどうかを判断する。
 そして、CPUは、ステップS110で、ステップS108における判断の結果メニュー表示条件が満たされるか否かを判断し、満たされると判断するとステップS112へ処理を進め、満たされないと判断するとそのまま第1表示モード変更処理を終了させる。なお、メニュー表示条件については、タッチ操作の種類に応じて予め定められ、たとえば設定内容記憶部62等に記憶されているものとする。
 ステップS112では、携帯電話機100において起動中のアプリケーションの状態と携帯電話機の向き(たとえば、図1Aに示されるような横向きであるか、図1Eに示されるような縦向きであるか、等)に基づいて、表示部30に表示させるべきメニュー(操作画面)の種類を判断して、ステップS114へ処理を進める。
 携帯電話機100では、起動中のアプリケーションの状態に応じて、種々の操作画面を表示させるためのデータが、データ記憶部63に記憶されている。
 また、各操作画面について、データ記憶部63では、携帯電話機100が横向きの姿勢にあるときに表示部30に表示させるのに適したボタンの配置等のデザインの操作画面と、縦向きの姿勢にあるときに表示部30に表示されるのに適したデザインの画面を表示させるためのデータが記憶されている。具体的には、たとえば図3Aと図3Bに示されるような操作画面を表示させるためのデータが挙げられる。
 図3Aおよび図3Bを参照して、図3Aに示された画面351と、図3Bに示された画面352とは、携帯電話機100に対して同じ情報を入力させるためのボタン350A,350B,350Cを含む。
 画面351は、横長のデザインとなっており、画面352は、画面351が含むボタン350A~350Cと同じ機能を携帯電話機100に発揮させるボタンを含みながら、縦長のデザインとなっている。
 画面351は、携帯電話機100が図1Aに示されるような横向きの姿勢にある場合に表示部30に表示される画面であり、画面352は、携帯電話機100が図1Eに示されるように縦向きの姿勢にあるときに表示部30に表示される画面である。
 図17に戻って、ステップS114では、CPUが、姿勢検出部90の検出出力に基づいて、携帯電話機100が縦向き姿勢にあるか否かを判断し、そうであると判断するとステップS120へ処理を進め、そうではないと判断すると、つまり横向き姿勢にあると判断すると、ステップS116へ処理を進める。
 なお、図1Aに示した横向き姿勢と図1Eに示した縦向き姿勢とは、互いに90度の回転を加えられた状態にある。携帯電話機100では、携帯電話機が図1Aに示されたような状態から時計方向および反時計方向に45度回転された状態までは横向き姿勢と判断され、また、図1Eに示された状態から時計方向および反時計方向に45度回転された状態では縦向き姿勢と判断される。
 ステップS120では、CPUが、表示部30上の、操作画面31を表示させる座標を求める処理を実行して、ステップS122へ処理を進める。なお、ステップS120では、たとえば操作画面31の表示の中心となる座標が求められる。
 ステップS122では、CPUは、縦向き用の画面をステップS120で求めた座標に表示させて、ステップS124へ処理を進める。
 一方、ステップS116では、CPUは、操作画面31を表示させる座標を求め、そして、ステップS118で、横向き用の操作画面(たとえば、図3Aの画面351)を、表示部30のステップS116で求めた座標に表示させて、ステップS124へ処理を進める。
 ここで、ステップS116およびステップS120における座標の求め方について説明する。
 第1の方法としては、タッチパネルを、図9に一点鎖線で示したような2つの領域A1,A2に分け、ステップS104で検出されたタッチ位置が領域A1内であれば、表示部30の領域A1に対応する領域に操作画面31を表示させ、タッチ位置が領域A2内であれば、表示部30の領域A2内に操作画面31を表示させるようにしてもよい。また、一点鎖線は、表示部30および当該表示部30の前面に設けられているタッチパネル40を、左右方向に等分するように定義される。
 また、第2の方法としては、図10に示すように、ステップS104で検出されたタッチパネル40上のタッチ位置Bを左右方向および上下方向の中心として、操作画面31が表示されるようにしてもよい。
 なお、タッチ位置を中心として操作画面31を表示させた場合、タッチ位置によっては、当該タッチ位置を中心として操作画面31を表示部30に表示させようとしたとき、当該操作画面31の一部が表示部30上に表示されなくなる事態も考えられる。このような場合には、図11Aに示すように操作画面31の表示位置が表示部30内に収まるように構成されることが好ましい。図11Aでは、補正前の操作画面31が破線で示され、補正後の操作画面31が実線で示されている。また、補正による操作画面31の移動が矢印で示されている。また、タッチ位置が1Pで示されている。
 なお、操作画面31の表示位置の補正の態様としては、たとえば図11Bに示すように、図11Bの横方向にx方向を定義し、縦方向にy方向を定義した場合、表示部30からはみ出したx軸方向の距離はLxであり、表示部30からはみ出した操作画面31のy軸方向の距離をLyとした場合、タッチ位置の座標に対してそのx座標にLxを足し合わせ、タッチ位置のy座標にLyを足し合わせることによって得られる座標を、補正後の操作画面31の表示位置の中心座標とすることができる。
 図17に戻って、ステップS124では、CPUは、表示開始時刻tとして現在時刻を記憶し、ステップS126へ処理を進める。
 ステップS126では、CPUが、表示開始位置pとして操作画面31の中心座標(図11A、図11Bまたは図12を参照して説明したように補正を行なった場合には、補正後の座標)を記憶して、第1表示モード変更処理を終了させる。
 なお、上記した表示開始時刻tと表示開始位置pは、たとえばデータ記憶部63に記憶される表示情報記憶テーブルに記憶される。表示情報記憶テーブルの記憶内容の一例を表4に示す。
Figure JPOXMLDOC01-appb-T000004
 図18および図19は、メニューの手繰り寄せ処理のフローチャートである。
 なお、ここでいうメニューとは、アプリケーションに関する処理に利用するための情報を入力するための操作画面であり、手繰り寄せ処理の対象となる表示部で表示中の画面オブジェクトのことを含む。
 メニューの手繰り寄せ処理では、CPUは、まずステップS202で、その時点でタッチパネル40に対してタッチ入力がなされているか否かを判断し、なされていると判断するとステップS204へ処理を進め、なされていないと判断するとステップS228へ処理を進める。
 ステップS204では、CPUは、携帯電話機100がメニュー表示モードにあるか否かを判断し、そうであると判断するとステップS206へ処理を進め、そうではないと判断するとステップS212へ処理を進める。
 ここで、携帯電話機100のモードについて説明する。
 携帯電話機100は、表5に示すように、メニュー表示モード、メニュー選択モード、手繰り寄せモード、メニュー非表示モードの4つのモードのいずれかを取ることができる。
Figure JPOXMLDOC01-appb-T000005
 モード情報記憶テーブルは、たとえばデータ記憶部63に記憶される。また、モード情報記憶テーブルでは、表5に示されたような4つのモードのいずれかのモードが有効であることを示すように、たとえばフラグの値(1または0)で情報が記憶される。
 図18に戻って、ステップS204で携帯電話機100がメニュー表示モードであると判断すると、CPUは、ステップS206で、タッチ位置がメニュー(操作画面31)に対応する領域内であるか否かを判断し、そうであると判断するとステップS208へ処理を進め、そうではないと判断するとそのままメニューの手繰り寄せ処理を終了させる。
 ステップS208では、CPUは、タッチ開始位置P0としてその時点でのタッチ位置を記憶し、また、タッチ開始時刻T0としてその時点での現在時刻を記憶させて、ステップS210へ処理を進める。ここでいうタッチ開始位置P0およびタッチ開始時刻T0は、表4に示される開始位置pと開始時刻tに相当する。
 なお、タッチ位置が操作画面31に対応する領域内であるとは、タッチ位置が、タッチパネル40内の、表示部30において操作画面31が表示されている領域と当接している領域の範囲内であることを言う。
 ステップS210では、CPUは、携帯電話機のモードをメニュー選択モードに変更して、ステップS216へ処理を進める。
 一方、ステップS212では、CPUは、タッチ位置P1としてその時点でのタッチ位置を記憶し、また、タッチ時刻T1として現在時刻を記憶して、ステップS214へ処理を進める。
 ステップS214では、CPUは、現在の携帯電話機100のモードがメニュー選択モードであるか手繰り寄せモードであるかを判断し、メニュー選択モードである場合にはステップS216へ処理を進め、手繰り寄せモードである場合にはステップS224へ処理を進める。
 ステップS216では、CPUは、タッチ位置P1とタッチ開始位置P0との差を算出することによって移動距離を算出し、当該移動距離が予め定められた特定の閾値より大きいか否かを判断し、大きいと判断するとステップS222へ処理を進め、そうではないと判断すると、つまり当該閾値以下であると判断するとステップS218へ処理を進める。
 ステップS222では、CPUは、携帯電話機100のモードを手繰り寄せモードに変更させて、ステップS224へ処理を進める。
 ステップS224では、タッチ位置P1に基づいて新しいメニュー位置を計算して、ステップS226へ処理を進める。
 具体的には、たとえば、タッチ位置P1を、新しい操作画面31の表示位置の中心座標として、新しい操作画面31の表示位置が計算される。
 ステップS226では、CPUは、ステップS224において計算された新しい位置に、表示部30における操作画面31の表示位置を変更させて、メニューの手繰り寄せ処理を終了させる。表示位置を変更させる場合には、元の位置から新しい位置までの操作画面の移動を連続的に表示部30に表示し、ユーザの目からみて操作画面31の表示が、表示部30から消えること無く、徐々に移動しているように見えるよう行なわれることが望ましい。
 以上説明したメニューの手繰り寄せ処理によれば、携帯電話機100がメニュー表示モードにあり、継続して(連続して)タッチパネル40が操作された際のタッチパネル40上のユーザの指の移動距離(P1-P0)が特定の閾値よりも大きい(長い)場合には、移動先のタッチパネル40の操作位置(タッチ位置P1)に基づいて、操作画面31の表示位置が変更される。ここで、継続してタッチパネル40が操作されるとは、ユーザがタッチパネル40へのタッチを開始から一度もタッチアップを検出することがない状態を含む。
 具体的には、図4Aに示されるように、表示部30に操作画面31が表示されている場合に、破線で示されたユーザの指が、操作画面31中で、矢印A31に示す方向に、上記特定の閾値よりも長い距離だけタッチパネル40上ですべるように操作された場合(ドラッグ操作された場合)、図4Bに示されるように、操作画面31は、ドラッグされた方向に、その表示位置が変更される。なお、操作画面31には、ボタン311A~311Cの画像が含まれる。
 図4Bでは、破線H1がドラッグ操作後のユーザの指を示している。この状態では、ユーザは、タッチアップを行ない、その次にタッチ操作を行なうことによって、つまり、たとえば図4B中の点線H2の位置でタッチ操作を行なうことによって、位置を変更した後の操作画面31上のボタンを選択することができる。点線H2は、位置を変更した後の操作画面31のボタンを選択するユーザの指を示している。破線H1は、第1のタッチ操作を行なう指、点線H2は、第2のタッチ操作を行なう指を示している。第1のタッチ操作によってその表示位置を変更された操作画面31は、第1のタッチ操作終了後もその位置に留まり、操作画面31の表示位置を変更された状態のまま、携帯電話機100は、第2のタッチ操作を受付ける。
 また、他の例として、図5Aに示されるように、表示部30に操作画面390が表示されている状態で、破線で示されたユーザの手(指)が矢印A33で示されるように、操作画面390内で、下方向に、ドラッグ操作された場合には、図5Bに示されるように、表示部30における表示内容が変化する。つまり、図5Bに示されるように、表示部30における操作画面390の表示位置が、下方に移動する。
 操作画面390は、アドレス帳のアプリケーションが起動されている画面である。表示部30には、表示欄380に表示された、あ、か、た、な…等の見出しの中の「な」が選択されている状態を示すカーソル381が表示されている。操作画面390には、アドレス帳を構成する見出しの初めが「な」行に含まれるアドレス帳の見出しが表示されている。そして、図5Aでは、カーソル391およびユーザの指が「にがわゆうこ」という、操作画面390の上から6番目に表示された名前を選択している状態が示されている。この状態からドラッグ操作が行なわれることにより、図5Bに示されるように、表示部30内の操作画面390の位置が下方に移動する。図5B中の破線H3は、ドラッグ操作後のユーザの指を示している。図5Bに示された状態の操作画面390に対して、ユーザは、タッチアップ操作を行ない、次に、タッチ操作を行なうことにより、位置を変更した後に指が届くようになった(操作画面31に表示されたアドレス帳の中の)名前を選択することができる。点線H4は、表示される位置が変更された後の操作画面390の中の名前を選択する操作を行なっているユーザの指を示している。図5Bは、「なやまひろみち」という、図5Bの操作画面390内の上から3番目に表示された名前が選択されている状態を示している。つまり、図5Aに示された状態から図5Bに示された状態に、表示部30における操作画面390の表示位置が変更されることにより、ユーザは、図5Aの状態では指が直接届かなかった操作画面390の上方に表示された名前(選択部位)を、図5Bに示されるように操作画面390の上部を当該ユーザの手(指)に手繰り寄せることにより、上記したような操作画面390の上方に表示されていた名前(選択部位)を直接手(指)で届く位置に表示させることができるようになった。
 なお、図5Bに示されるように、操作画面390の表示位置が変更されることにより、表示部30の上部には、図5Aにおいて操作画面390に対して下地となっていた部分がユーザに見えるようになった。下地として見える部分は、アプリケーションの起動状態と、表示部30に表示される操作画面の種類によって、様々なパターンが考えられる。アドレス帳の見出し部分(つまり、アプリケーションの操作についての最上位の階層の操作画面(アプリケーションの操作についての最上位の階層の操作画面)が操作画面である場合、アドレス帳の背景が下地として見える。また、「な」行に重なっているように表示されている「た」行の見出しの一部が表示されてもよい。表示部30に表示される操作画面がアドレス帳のアプリケーション自体の操作画面である場合には、アドレス帳以外の壁紙やアプリケーションが下地として見える。この場合、携帯電話機100において、他に並列してアプリケーションが起動していない場合等には、壁紙として表示される画面が下地として見えるようになる。また、図5Aに示された状態が、他に並列してアプリケーションが起動されている状態であって、操作画面390の方が前に表示されていたような状態であれば、図5Bに示された状態では、当該並列して起動されているアプリケーションの画面が下地として見えるようになる。
 また、図5Aおよび図5Bでは、手繰り寄せられる画面の例として、アドレス帳のアプリケーションに関する情報を表示する画面が示されたが、携帯電話機100では、このように表示が手繰り寄せられる画面は、このような画面に限定されない。このような画面としては、他に、地図やWebコンテンツ等の各種のコンテンツを表示する画面や、ダウンロードされた動画・音楽等を再生及び閲覧する画面、電子メールの作成画面や表示画面、複数の選択項目の一覧から項目を選択する画面が挙げられ、特に、当該画面に対してクリック操作(タッチパネル40をタッチする操作)がなされることにより当該操作に応じて携帯電話機100において次の何らかの操作がなされるような画面が含まれる。
 ここで、手繰り寄せられる画面の他の例として、Webコンテンツの閲覧画面を例に挙げて説明する。なお、Webコンテンツの閲覧画面は、コンテンツの再生や他のホームページのURL(Uniform Resource Locator)アドレスとリンクされている項目の表示を含む。そして、当該項目(に対応する文字列)に対してシングルタップ等の選択する操作がなされることにより、当該項目に対応したリンク先へのアクセス等の処理が実行される。このような観点から、Webコンテンツの閲覧画面についても携帯電話機100に処理を実行させるための情報を入力される操作画面であるといえる。
 図27A~図27Cは、表示部30にWebコンテンツの閲覧画面が表示され、当該閲覧画面が手繰り寄せられる態様を説明するための図である。
 まず、図27Aを参照して、表示部30には、Webコンテンツの閲覧画面を含む画面が表示されている。ウェブブラウザの画面は、当該閲覧画面を表示するためのアプリケーションを特定する情報(図27Aでは、「ウェブブラウザ」という文字情報)等を表示する表示欄30A、Webコンテンツの閲覧用の画面361を表示する表示欄30C、および表示欄30Cに表示されたWebコンテンツが存在するURLアドレス(ウェブブラウザによって携帯電話機100がアクセスしているURLアドレス)を表示する表示欄30Bとを含む。
 携帯電話機100では、ウェブブラウザがインストールされており、当該ウェブブラウザが実行されることにより、図27Aに示されるようなWebコンテンツの閲覧画面が表示される。そして、表示欄30Cに表示された画面は、ウェブブラウザに関する処理に利用するための情報をタッチ操作等によって入力するための操作画面に相当する。なお、表示欄30Cには、Webコンテンツの一部が表示されている。
 図28Aに、Webコンテンツ全体についての仮想画面と、その中の表示欄30Cに表示されている部分との関係を模式的に示す。
 図28Aを参照して、表示部30Cには、破線で示されたWebコンテンツ1000から部分1001で示される領域の画像が表示される。Webコンテンツ1000の中の、表示欄30Cに表示される部分の、Webコンテンツ1000内の、相対的な位置や大きさ(表示欄30Cにおける表示倍率)は、たとえば、タッチパネル40に対する操作の内容に基づいて変更される。
 図27Aに戻って、表示欄30Cに表示されるWebコンテンツには、URLアドレス等のリンク情報を有する項目が複数表示されている。たとえば、表示欄30Cの左欄上方の「ニュース」のグループに表示された4つの項目(「速報」「ベンチャー人」「Anchor Desk」「企業・業界動向」)のそれぞれには、Webコンテンツにおいて、URLアドレスがリンクされているものとする。この場合、各項目の文字上をユーザがタッチアップ等することにより、ウェブブラウザは、当該項目のリンク先のURLアドレスにアクセスする。
 表示欄30Aには、実行中のアプリケーション(ウェブブラウザ)を特定する情報の他に、Webコンテンツ全体に対する、表示欄30Cに表示されている部分の相対的な位置を示す情報が表示されている。
 図27Aの表示欄30Aにおける「80%」とは、Webコンテンツ全体において、表示欄30Cに表示された部分より上方にどの程度の表示情報が残っているかを示す情報である。
 具体的には、たとえば図28A中のL1とL2とを用いて、次の式(1)に従って算出される。
 R%=(L2/L1)×100 …(1)
 ここで、L1は、Webコンテンツ全体の縦方向の寸法(Webコンテンツ1000全体の縦方向の寸法)であり、L2は、表示欄30Cに表示されている部分の上端とWebコンテンツの上端との距離(部分1001とWebコンテンツ1000の上端との距離)である。そして、R%が、表示欄30Aに表示される情報である。表示欄30Aにこのような情報が表示されることにより、ユーザは、表示欄30Cに表示されている情報が、Webコンテンツ全体の中のどの位置にある部分であるのかを容易に認識することができる。
 なお、このような割合をユーザに認識させるための表示は、図27A等に示された%表示に限定されるものではない。表示欄30Cに表示されている画面が、コンテンツの端部に対してどのような位置関係にあるのかをユーザに認識させることができる情報であれば、図28Aに模式的に示したように、コンテンツ全体とその中の表示欄30Cに表示されている部分の位置関係自体を示すような情報が、画面361とは別に表示部30に表示されても良い。
 図27Aに示された状態から、ユーザが、タッチパネル40上を、矢印301に示すように、下方向へ滑るように操作(たとえば、ドラッグ操作)した場合、表示欄30Cでは、メニューの手繰り寄せ処理によって、表示欄30Cにおける表示画面は、当該操作の量(指を滑らせる操作の距離や回数)に応じた量だけ下方向へスクロール表示された後、スクロールが停止し、その停止した位置の静止画面が表示されるようになる。
 なお、このスクロール表示は、画面が慣性を持っているかのような態様でなされても良い。この場合、スクロール開始時から徐々にスクロール速度が上昇し、その後、スクロール速度を低下させて、スクロールが停止される。
 図28Aには矢印301Aが示されている。矢印301AとWebコンテンツ1001の方向の関係は、図27A中の矢印301と画面361の方向の関係に対応している。
 タッチパネル40に対して、上記したように下方向へ指を滑らせるような操作がなされた場合、Webコンテンツ1000の中の、表示欄30Cに表示される部分1001は、図28Aに示したものから、図28Bに示したものへと変更される。
 タッチパネル40に対して指を滑らせるような操作がなされた場合、Webコンテンツ1000が部分1001に対して、当該指が滑らされた方向(図28Aの矢印301A方向)に移動される。つまり、結果として、図28Bに示されるように、Webコンテンツ1000と部分1001との相対的な位置関係は、Webコンテンツ1000内で部分1001が矢印301Aと反対方向(上方向)に移動したように、変化する。
 矢印301方向に指を滑らせる操作の結果として表示部30に表示される画面を図27Bに示す。図27Bでは、表示欄30Cに表示される画面は、画面362に切換えられている。
 なお、図27Bでは、図28Bに示したように、Webコンテンツ全体の中の表示欄30Cに表示される部分がWebコンテンツ1000と部分1001との上端部の位置関係が図28Aに対して変化しているため、表示欄30Aに表示されるパーセント表示がこれに伴って変化している。具体的には、図27Bでは、表示欄30Cの上端部には、Webコンテンツの上端部が表示されている。これにより、上記したL2が0となるため、表示欄30Aには「0%」と表示されている。
 図27Bに示された状態から、さらに、タッチパネル40に対して矢印302で示される下方向に、ユーザの指が滑らせるような操作がなされた場合、表示欄30Cの表示は、図27Cに示されるように、表示欄30Cに表示されるWebコンテンツの画面362自体が下方向(矢印302)に移動するように、表示欄30Cの表示内容が変更される。変更後の表示内容を、図27Cに示す。
 図27Cでは、表示欄30Cに表示されるWebコンテンツの画面363の上端部が、表示欄30Cの上端部とは一致せず、それよりも下方に位置している。これにより、Webコンテンツの中の、表示欄30Cに表示される部分は、その縦方向の寸法が短いものとされている。具体的には、図28Cに部分1001として示されるように、図28Bの部分1001よりも、ハッチングを施された面積分、下部の部分が削除されたものとなっている。
 そして、タッチパネル40に対するユーザの指を滑らせる操作とは異なるパターンの操作で(たとえば、タッチパネル40に対するタッチアップ等の操作)が、画面363内の項目(たとえば、「注目のキーワード」のメニューの中でタブとして示された「1~5位」「6~10位」「11~15位」のそれぞれの項目)に対して操作がなされれば、ウェブブラウザは、当該操作がなされた項目に対応する情報が入力されたものとして、画面3
63における表示内容の切換等の処理を実行する。
 以上、図27A~図27Cを参照して説明した画面の手繰り寄せの例によれば、Webコンテンツの先頭付近にある選択項目(たとえば、上記した「注目のキーワード」メニューにおける「1~5位」「6~10位」「11~15位」の各項目)を、図27Cに示すように、表示欄30Cの上下方向の中央部分よりやや下方に表示させることができる。これにより、Webコンテンツのページの先頭(上端)付近にある選択項目を、携帯電話機100を片手で把持したまま、かつ、当該把持した手の指で選択することが可能となる。
 このように、表示部30において、操作画面の表示位置を操作画面の端部よりもさらに移動方向に従って移動させた後、継続して当該移動後の表示位置に操作画面が表示されることにより、移動後の表示位置での操作画面に対して、ユーザはタッチアップ等の操作により、選択項目を選択する操作を行なうことができる。
 なお、以上説明した表示欄30C内の表示では、Webコンテンツの上端部が表示されている状態で説明したが、Webコンテンツの下端部、左右端部が表示されている状態でも同様に手繰り寄せ処理を行なうことが可能である。
 図5Aおよび図5Bに戻って、ステップS216において移動距離が特定の閾値を越えていないと判断すると、ユーザの操作をメニュー項目(操作画面31中のボタン等の選択部位)の選択と認識し(ステップS218~S220)、そして、移動距離が上記特定の閾値を越えていると判断すると、操作画面31を手繰り寄せるようにその表示位置を変更させるための操作と認識している(ステップS224~226)。ここで、移動距離に関する閾値は、操作画面のボタンの大きさ、各ボタンの距離に応じて自動的に決定することもできる。閾値の決定方法については後述する。
 ここでの移動距離について、実際のタッチパネル40上の操作対象位置の移動距離とすることもできるし、ある一定の方向についての移動距離とすることもできる。
 つまり、図6Aに示されたように、点Aから点Bに操作対象位置が移動した場合、点Aから点Bまでの直接距離を移動距離とすることもできるし、または、点Aから点Bまでの移動についての水平成分の距離(距離RX)を移動距離とすることができる。
 そして、図6Bに示されるように、操作画面31内にボタン314A~314Dが表示され、隣接する各ボタンの中心位置間の水平方向の距離をRとした場合、移動距離の閾値を、上記の距離Rとすることができる。
 このように、閾値を隣接する各ボタンの中心位置間の距離Rとすると、操作画面中のボタンの大きさや、ボタンの距離に応じて閾値を決定することができる。閾値を、操作画面ごとに決定することで、ボタンの大きさや距離に影響されることなく、より正確にメニュー選択モードと手繰り寄せモードとを区別する判断を行なうことが可能となる。
 これにより、少なくとも水平方向に距離R以上の距離だけ操作画面31(メニュー)上でドラッグ操作をされた場合には、ステップS216,S222~226の処理により操作画面31(操作画面390)の表示部31における表示位置が変更される。また、図7に示されるように、表示部30の操作画面31上(タッチパネル40の操作画面31に対応する領域)でドラッグ操作がなされなかったり、ドラッグ操作をなされた場合であってもその距離が距離Rに満たない場合には、メニュー選択モードであることから、ステップS216~220の処理により、その時点での操作位置に最も近いボタンが強調表示され
る。図8には、ボタンの強調表示の一例として、操作画面31上のボタン314Bが強調表示された状態が示されている。
 一方、ステップS218では、CPUは、操作画面31における、タッチ位置に最も近い位置にある操作ボタンを特定して、ステップS220へ処理を進める。
 ステップS220では、CPUは、ステップS218で特定したボタンを強調して表示させる処理を行なって、メニューの手繰り寄せ処理を終了させる。このようにボタンが強調表示されることにより、選択した項目をユーザが認識しやすくなるとともに、携帯電話機100がメニュー選択モードにあることをユーザが認識しやすくなる。ユーザは、手繰り寄せを行ないたいと思ってタッチ操作をしているときに、強調表示がなされれば、ドラッグ操作の距離が操作画面31を手繰り寄せて表示させるのには短かったことを認識し、引き続きより長い距離のドラッグ操作を行なうことにより、携帯電話機100に、操作画面31の表示位置を、手繰り寄せるように変更させることができる。
 図19を参照して、ステップS228では、CPUは、携帯電話機のモードがメニュー選択モードであるか否かを判断し、そうであると判断するとステップS230へ処理を進め、そうではないと判断するとステップS232へ処理を進める。
 ステップS230では、CPUは、その時点で携帯電話機100において選択されているメニュー項目に対応した処理を実行した後、ステップS234へ処理を進める。
 ステップS232では、CPUは、携帯電話機100のモードが手繰り寄せモードであるか否かを判断し、そうであると判断するとステップS234へ処理を進め、そうではないと判断すると(メニュー(操作画面31)を表示させたままの状態で)、メニューの手繰り寄せ処理を終了させる。
 ステップS234では、CPUは、携帯電話機100のモードをメニュー表示モードにして、メニューの手繰り寄せ処理を終了させる。
 ここで、図4Aや図4Bにおける表示部30中の表示内容と、図18および図19のフローチャートに従った処理内容と関連付けて説明する。
 図4Aに示したように、ユーザの指が操作画面31にタッチした直後に、ステップS202~S208まで処理が進み、タッチ開始位置P0とタッチ開始時刻T0が記憶される。そして、ステップS210で携帯電話機のモードがメニュー選択モードにされ、そして、ステップS216の判断が実行される。
 ここで、指が移動されなければ、または、移動距離が上記した特定の閾値を越えない程度に短いものであれば、ステップS216においてNOの判断がなされる。ここで、ステップS218(図18)へと処理が進められ、その時点でのタッチ位置に最も近いボタン(図4Aのボタン311B)が選択された状態となる。なお、当該ボタンが選択された状態とされた後、ステップS220において当該ボタンが強調表示されても良いし、ステップS220における強調表示は省略されても良い。その後、処理は、ステップS202に戻される。
 ユーザが、その指を、図4Aに示された状態から、タッチの状態を継続させたままでA31に示す方向に移動する、図4Bの破線H1で示された状態までの移動操作においてタッチパネル40をタッチしている期間)では、ステップS222で携帯電話機100のモードが手繰り寄せモードに移行された後、ユーザの指が停止するまで、ステップS202,S204,S212,S214,S224,S226の一連の処理が繰り返され、メニューの表示位置が指の移動に従って変更される。具体的には、移動操作によるタッチパネル上のユーザの指の移動距離が上記特定の閾値を越えたとき、ステップS216においてYESの判断がされてステップS222に処理が進められ、携帯電話機100の動作モードが手繰り寄せモードへと変更され、その後、ステップS202,S204,S212,S214,S224,S226の一連の処理が繰り返されて、メニューの表示位置が変更される。
 そして、ユーザが、その指を、H1(図4B)に示す位置でタッチパネル40から離すと(つまり、当該位置でタッチアップが行なわれると)、ステップS202でNOの判断がなされ、図19のステップS228へと処理が進められる。この時点では、携帯電話機100の動作モードは手繰り寄せモードである。よって、処理は、ステップS232を経てステップS234へと進められ、ここで、携帯電話機100の動作モードがメニュー表示モードとされて、ステップS202へ処理が戻される。このとき、操作画面31の表示位置は、それまでにステップS226が実行されてきたことによって変更された位置のまま、すなわち図4Bに示す状態のままである。
 移動操作の後、一旦ユーザがタッチアップして、その後に、ユーザの指が図4BのH2の示す位置にタッチすると、ステップS202から処理が始まり、そして、ステップS204,S206,S208,S210の処理が順に実行される。これにより、携帯電話機100の動作モードがメニュー選択モードとされる。その後、S218で、タッチ位置の近傍に位置するボタン(図4Bのボタン311A)が選択されている状態となり、処理がステップS202に戻される。
 その後、ユーザの指がH2に示す位置のまま、そこからタッチパネル40から離されると(つまり、S216で移動距離が閾値より小さく、メニュー選択モード状態のままで、タッチアップが起こると)、ステップS202からステップS228へと処理が進められる。そして、H2の位置でタッチ操作が行なわれてから携帯電話機100の動作モードをメニュー選択モードから変更する処理がなされていないので、ステップS228ではYESの判断がなされ、ステップS230へ処理が進められる。ステップS230では、選択メニュー項目の実行、つまり、図4Bのボタン311Aに対応する処理内容が実行される。当該処理が実行された後、ステップS234で、携帯電話機100の動作モードをメニュー表示モードとされて、ステップS202へ処理が戻される。
 以上説明したメニューの手繰り寄せ処理では、移動後の操作画面31の表示位置を、ユーザのタッチパネル40におけるドラッグ操作の終点を中心としたものとして説明してきた。
 たとえば、図12に示されるように、タッチパネル40上で、点P0から点P1までドラッグ操作がなされた場合、移動後の操作画面31の表示位置は点P1を中心としたものとされていた。
 なお、図13に示されるように、ドラッグ操作が開始される点P0からドラッグ操作が終了した(タッチパネル40から指を離された)点P1の中点(点Pc)を、移動後の操作画面31の表示位置の中心としても良い。
 また、点Pcを中心として操作画面31を表示部30に表示させようとした場合、表示部30に操作画面31の全体が表示されない場合には、点Pcを適宜(たとえば図11Aおよび図11Bを参照して説明したように)補正することが好ましい。
 以上説明したメニューの手繰り寄せ処理では、ステップS216において移動距離が特定の距離以上となった場合に、操作画面31をタッチパネル40に対するユーザの操作に基づいて移動させるモード、つまり、手繰り寄せモードに移行する。
 以上の記載では、手繰り寄せモードに移行する条件として、タッチ操作についての移動距離を用いる旨が説明されたが、その他にも手繰り寄せモードに移行する条件となりうる操作態様が考えられる。なお、手繰り寄せモードに移行するかどうかを、ユーザ操作に基づいて正確に判別することは重要である。タッチした位置にボタン等の実行可能な選択項目があると、それを実行させるか、実行させずに操作画面を移動するかを判断する必要があるからである。
 携帯電話機では、ユーザの操作に基づいて手繰り寄せモードに移行するかタッチ位置に対応したメニューを選択するかを判断する判断手段が備えられていることは、表示画面が小さいタッチパネル搭載機器にとって、操作画面のデザイン設計や、使いやすさの面において、有利な効果を奏することができると考えられる。
 なお、携帯電話機100を、ユーザの操作位置の移動距離の代わりに、ユーザがある程度長い時間タッチアップすることなくタッチパネル40を操作していたか、または、ユーザが操作画面31上を特定の速さ以上の速さで指を移動させてドラッグ操作を行なったことを条件として、手繰り寄せモードに移行するように構成することもできる。このような処理の例を、図20に示す。
 図20は、図18のフローチャートの変形例のフローチャートに相当する。
 図20では、図18のステップS216が、ステップS216Aに変更されている。
 ステップS216Aでは、タッチ開始時刻T0とタッチ時刻T1の差(T1-T0)、つまり、タッチ操作の継続時間が所定の閾値Txを越えたか否か、または、移動速度、つまり、移動距離(P1-P0)を移動時間(T1-T0)で割った値(移動速度(ここでは、移動の初速))が所定の閾値Vxを越えたか否かが判断される。そして、携帯電話機100は、タッチ操作の継続時間が所定の閾値Txを越えたかまたは移動速度が閾値Vxを越えた場合に、手繰り寄せモードに移行するように構成されている。タッチ操作の継続とは、タッチされてからタッチアップされることなくタッチされた状態にあることをいう。
 また、携帯電話機100を、ユーザの操作が往復運動に対応した操作であることを条件として、上記手繰り寄せモードに移行するように構成することもできる。
 このような変形例のフローチャートを、図21に示す。
 図21では、メニュー表示モードに移行するまで、ステップS212Bにおいて、タッチ位置の位置(Pn)を継続的にタッチ情報記憶テーブルに記憶し、そして、ステップS216Bで、一連のタッチ位置Pnから操作位置の軌跡を解析し、当該軌跡が往復運動に相当するか否かが判断されている。そして、往復運動である場合、携帯電話機100は、ステップS222において手繰り寄せモードに移行する。
 また、携帯電話機100を、ユーザがタッチパネル40上で操作した位置を条件として、上記した手繰り寄せモードに移行するように構成することもできる。
 このような変形例のフローチャートを、図22に示す。
 図22を参照して、ステップS204において携帯電話機100がメニュー表示モードであると判断されると、ステップS205Aにおいて、ユーザがタッチ操作した位置が操作画面31の端部近傍(メニューの境界付近)であるか否かが判断される。
 なお、端部近傍とは、たとえば図14に示されるように、破線330と一点鎖線331との間の領域でる。この領域は、操作画面31の内部にはボタン314A~314Dが設けられているが、これらよりも外側の領域とすることができる。
 そして、ステップS205Aにおいて、タッチ位置が端部近傍であると判断されると、ステップS205Bで、携帯電話機100のモードが手繰り寄せモードにされる。なお、ステップS205Aでは、タッチ位置が操作画面中のボタン(選択対象項目)が表示されている領域以外の領域である場合に、ステップS205Bへ処理が進められても良い。
 また、携帯電話機100を、特定のタッチ操作種類の操作がなされたことを条件として、上記した手繰り寄せモードに移行するように構成することもできる。
 このような変形例のフローチャートを図23に示す。
 図23を参照して、ステップS208においてタッチ開始位置(P0)とタッチ開始時刻(T0)が記憶された後、ステップS209Aにおいて、表3が参照されることにより、現在タッチパネル40上で行なわれているタッチ操作の種類がダブルタッチであったか否かが判断される。そして、そうではないと判断されると、ステップS209Bで、携帯電話機100のモードが手繰り寄せモードとされる。
 次に、手繰り寄せたメニューの位置を戻す、メニュー位置戻し処理について説明する。
 携帯電話機100では、図26に示すように、表示部30に表示された操作画面31について、当該操作画面31上のボタンに対する操作の後、当該ボタンに対する操作が行なわれる前の表示位置に戻すような処理がなされる。
 具体的には、図26に携帯電話機100Bとして示したように、一度ユーザのタッチパネル40に対する操作に基づいて、ユーザの手に近いほうに操作画面を引寄せるように、操作画面の表示位置が変更された後、破線H11で示す位置でタッチアップが起こり、その後ユーザの指が点線H12で示す位置で操作画面31内のボタン311に対して選択操作を行ない、処理が実行されたことに応じて、図26に携帯電話機100Aとして示したように、操作画面31の表示部30における表示位置を元に戻すような処理として、メニュー位置戻し処理が実行される。
 メニュー位置戻し処理は、手繰り寄せ操作終了後、新たなタッチ操作が一定時間行なわれない場合にも、表示位置を元に戻すというものでもよい。つまり、選択操作等の操作画面に関する第2の操作による処理が実行されなくても表示位置を元に戻してもよい。また、新たなタッチ操作がしばらく行なわれなければ、図26に携帯電話機100Cとして示したように、操作画面の表示を行なわないようにしても良い。
 携帯電話機100では、図26に示すように、表示部30に表示された操作画面31について、当該操作画面31上のボタンに対する操作の後、当該ボタンに対する操作が行なわれる前の表示位置に戻すような処理がなされる。具体的には、図26に携帯電話機100Aとして示したように、一度ユーザのタッチパネル40に対する操作に基づいてユーザの手(破線H11)に近いほうに引寄せた後、ユーザが操作画面31内のボタン311に対して選択操作を行なったことに応じて、図26に携帯電話機100Bとして示したように、操作画面31の表示部30における表示位置を元に戻すような処理として、メニュー位置戻し処理が実行される。
 図24は、メニュー位置戻し処理のフローチャートである。
 図24を参照して、メニュー位置戻し処理では、CPUは、まずステップS302で、携帯電話機100のモードがメニュー選択モードであるか否かを判断し、そうであると判断するとステップS306へ処理を進め、そうではないと判断するとステップS314へ処理を進める。
 ステップS306では、CPUは、ユーザから、操作画面31上のボタン(たとえば、ボタン311)に対して操作されることによって選択された処理項目を実行して、ステップS308へ処理を進める。
 ステップS308では、CPUは、メニュー開始位置p(表4参照)と現在のメニュー表示位置(操作画面31の中心座標)とが異なるかどうかを判断し、異なると判断するとステップS310へ処理を進め、異ならない、つまり現在の操作画面31の中心の座標と表示開始位置pとして記憶された座標とが一致していると判断すると、ステップS312へ処理を進める。
 ステップS310では、CPUは、操作画面31の表示位置を、その中心座標が表示開始位置pとして記憶している座標となるように操作画面31の表示位置を変更し(戻し)、ステップS312へ処理を進める。
 ステップS312では、CPUは、携帯電話機100のモードをメニュー表示モードに変更させて、メニュー位置戻し処理を終了させる。
 ステップS314では、CPUは、携帯電話機100のモードが手繰り寄せモードか否かを判断し、そうであると判断するとステップS316へ処理を進め、そうではないと判断するとステップS318へ処理を進める。
 ステップS316では、CPUは、携帯電話機100のモードをメニュー表示モードに変更させて、ステップS318へ処理を進める。
 ステップS318では、CPUは、タッチ入力のない時間が予め定められた特定の時間Tx以上続いているか否かを判断し、そうであると判断するとステップS320へ処理を進め、そうではないと判断するとそのままメニュー位置戻し処理を終了させる。
 ステップS320では、CPUは、携帯電話機100のモードをメニュー非表示モードに変更させて、メニュー位置戻し処理を終了させる。
 次に、第2表示モード変更処理について、当該処理のフローチャートである図25を参照して説明する。
 図25を参照して、第2表示モード変更処理では、CPUは、まずステップS402で、タッチパネル40に対して入力操作がなされているか否かを判断し、なされていると判断するとそのまま第2表示モード変更処理を終了させる。一方、その時点ではタッチ操作がなされていないと判断すると、CPUは、ステップS404へ処理を進める。
 ステップS404では、CPUは、携帯電話機100のモードがメニュー選択モードであるか否かを判断し、そうであると判断するとステップS406へ処理を進め、そうではないと判断するとステップS408へ処理を進める。
 ステップS406では、CPUは、その時点で選択されている制御項目を実行させた後、ステップS414へ処理を進める。
 ステップS408では、CPUは、携帯電話機100が手繰り寄せモードであるか否かを判断し、そうであると判断するとステップS410へ処理を進め、そうではないと判断するとステップS412へ処理を進める。
 ステップS410では、CPUは、携帯電話機100のモードをメニュー表示モードに変更させて、ステップS412へ処理を進める。
 ステップS412では、CPUは、ステップS318と同様に、タッチパネル40に対するタッチ入力のない時間がたとえば設定内容記憶部62に記憶された時間Tx以上であるか否かを判断し、そうであると判断するとステップS414へ処理を進め、そうではないと判断すると第2表示モード変更処理を終了させる。
 ステップS414では、CPUは、携帯電話機100のモードをメニュー非表示モードに変更させて、第2表示モード変更処理を終了させる。
 今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて請求の範囲によって示され、請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。
 30 表示部、31,390 操作画面、40 タッチパネル、50 制御部、50A タイマ、51 表示制御部、53~55 音声出力制御部、56 レシーバ、57 スピーカ、58 マイク、60 記憶部、61 プログラム記憶部、62 設定内容記憶部、63 データ記憶部、80 通信制御部、81 アンテナ、90 姿勢検出部、100 携帯電話機、310,311 ボタン。

Claims (25)

  1.  表示部(30)と、
     前記表示部(30)に設けられたタッチパネル(40)と、
     アプリケーションを実行するアプリケーション実行部(50)と、
     前記タッチパネル(40)に対する操作に応じて前記アプリケーションに関する処理を実行する制御部(50)とを備え、
     前記制御部(50)は、
      前記表示部(30)に、前記アプリケーションに関する処理に利用するための情報を入力される操作画面(31)を表示し、
      前記タッチパネル(40)に対する第1の操作に基づいて、前記表示部(30)における前記操作画面(31)の表示位置を変更する、携帯情報端末(100)。
  2.  前記制御部(50)は、前記タッチパネル(40)に対する操作があった場合に、当該操作の内容が前記第1の操作の条件を満たしているか否かを判断し、満たしていると判断した場合には、前記表示部(30)における前記操作画面(31)の表示位置を変更する、請求の範囲第1項に記載の携帯情報端末(100)。
  3.  前記制御部(50)は、
      前記操作画面(31)に、前記アプリケーションに関する処理に利用するための情報の入力のための項目(314A~314D)を表示し、
      前記制御部(50)は、前記タッチパネル(40)に対する操作があった場合に、前記条件を満たしていないと判断した場合には、前記操作画面(31)の中の、前記タッチパネル(40)に対する操作位置に最も近い項目を、強調表示させる、請求の範囲第2項に記載の携帯情報端末(100)。
  4.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作位置の移動距離に基づいて判断する、請求の範囲第2項に記載の携帯情報端末(100)。
  5.  前記制御部(50)は、前記操作画面(31)に、前記アプリケーションに関する処理に利用するための情報の入力のための項目(314A~314D)を表示し、
     前記条件を満たしているか否かについての前記移動距離の閾値は、前記操作画面(31)における前記項目の表示の大きさと前記項目の表示間隔とに基づいて決定される、請求の範囲第4項に記載の携帯情報端末(100)。
  6.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作のパターンに基づいて判断する、請求の範囲第2項に記載の携帯情報端末(100)。
  7.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作開始時の操作位置の移動距離の速度に基づいて判断する、請求の範囲第2項に記載の携帯情報端末(100)。
  8.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作が継続された時間に基づいて判断する、請求の範囲第2項に記載の携帯情報端末(100)。
  9.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作位置に基づいて判断する、請求の範囲第2項に記載の携帯情報端末(100)。
  10.  前記携帯情報端末(100)は、片手で把持でき、
     前記操作画面(31)は、前記携帯情報端末(100)を把持した手の指で操作可能な位置に表示される、請求の範囲第2項に記載の携帯情報端末(100)。
  11.  前記制御部(50)は、前記第1の操作がなされることによって表示位置を変更した前記表示部(30)における前記操作画面(31)を、前記第1の操作の終了後にも、当該変更後の位置に継続して表示させる、請求の範囲第1項に記載の携帯情報端末(100)。
  12.  前記制御部(50)は、前記第1の操作がなされることによって前記表示部(30)における前記操作画面(31)の表示位置を変更した後、前記タッチパネル(40)に対して、前記第1の操作とは異なる操作であって前記操作画面(31)の中の項目(314A~314D)を選択する操作である第2の操作がなされた場合に、当該第2の操作によって選択された項目に対応した、前記アプリケーションに関する処理を実行する、請求の範囲第1項に記載の携帯情報端末(100)。
  13.  前記制御部(50)は、前記第2の操作がなされたことによって選択された項目に対応した前記処理を実行した後、前記第1の操作がなされることによって変更した前記表示部(30)における前記操作画面(31)の表示位置を、当該変更前の位置に戻す、請求の範囲第12項に記載の携帯情報端末(100)。
  14.  前記制御部(50)は、前記第1の操作がなされることによって変更した前記表示部(30)における前記操作画面(31)の表示位置を、前記第1の操作の終了後に、当該変更前の位置に戻す、請求の範囲第1項に記載の携帯情報端末(100)。
  15.  表示部(30)と、
     前記表示部(30)に設けられたタッチパネル(40)と、
     アプリケーションを実行するアプリケーション実行部(50)と、
     前記タッチパネル(40)に対する操作に応じて前記アプリケーションに関する処理を実行する制御部(50)とを備え、
     前記制御部(50)は、
      前記表示部(30)に、前記アプリケーションに関する処理に利用するための情報を入力され
    る操作画面(31)を表示し、
      前記タッチパネル(40)に対する第1の操作に基づいて、前記表示部(30)における前記操作画面(31)の表示位置を変更し、
      前記操作画面(31)の表示位置を前記第1の操作に基づいて変更した後、変更前の位置に戻すことができ、
      前記タッチパネル(40)に対する操作があった場合に、当該操作の内容が前記第1の操作の条件を満たしているか否かを判断し、満たしていると判断した場合には、前記表示部(30)における前記操作画面(31)の表示位置を変更する、携帯情報端末(100)。
  16.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作位置の移動距離に基づいて判断する、請求の範囲第15項に記載の携帯情報端末(100)。
  17.  前記制御部(50)は、前記操作画面(31)に、前記アプリケーションに関する処理に利用するための情報の入力のための項目(314A~314D)を表示し、
     前記条件を満たしているか否かについての前記移動距離の閾値は、前記操作画面(31)における前記項目の表示の大きさと前記項目の表示間隔とに基づいて決定される、請求の範囲第16に記載の携帯情報端末(100)。
  18.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作のパターンに基づいて判断する、請求の範囲第15項に記載の携帯情報端末(100)。
  19.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作開始時の操作位置の移動距離の速度に基づいて判断する、請求の範囲第15項に記載の携帯情報端末(100)。
  20.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作が継続された時間に基づいて判断する、請求の範囲第15項に記載の携帯情報端末(100)。
  21.  前記制御部(50)は、前記条件を満たしているか否かを、前記タッチパネル(40)に対する操作位置に基づいて判断する、請求の範囲第15項に記載の携帯情報端末(100)。
  22.  前記携帯情報端末(100)は、片手で把持でき、
     前記操作画面(31)は、前記携帯情報端末(100)を把持した手の指で操作可能な位置に表示される、請求の範囲第15項に記載の携帯情報端末(100)。
  23.  表示部(30C)と、
     前記表示部(30C)に設けられたタッチパネル(40)と、
     アプリケーションを実行するアプリケーション実行部(50)と、
     前記タッチパネル(40)に対する操作に応じて前記アプリケーションに関する処理を実行する制御部(50)とを備え、
     前記アプリケーションの操作画面(1000)は、前記表示部(30C)のサイズよりも大きく、
     前記制御部(50)は、前記操作画面(1000)の一部である部分画面(1001,361~363)を前記表示部(30C)に表示し、
     前記部分画面(1001,361~363)は、前記アプリケーションに関する処理に利用するための情報の入力のための項目を含み、
     前記制御部(50)は、
      前記タッチパネル(40)に対する第1の操作に応じて、前記部分画面(1001,361~363)として前記表示部(30C)に表示される前記操作画面(1000)中の部分を変更し、変更後の前記部分画面(1001,361~363)に対して第2の操作がなされることにより前記項目を選択する情報が入力されたと判断して、当該選択された前記項目に対応した前記アプリケーションに関する処理を実行し、
      前記部分画面(1001,361~363)が前記操作画面(1000)の端部に位置する状態で、前記第1の操作が行なわれた場合には、前記操作画面(1000)の端部が、前記表示部(30C)の、当該表示部(30C)の端部から前記第1の操作における操作方向と同じ方向に移動した位置に表示されるようにし、
      前記移動した位置にある操作画面(1000)に対して前記第2の操作が行なわれた場合には、前記項目を選択する情報が入力されたと判断し、当該選択された前記項目に対応した前記アプリケーションに関する処理を実行する、携帯情報端末(100)。
  24.  表示部(30)と、前記表示部(30)に設けられたタッチパネル(40)と、アプリケーションを実行するアプリケーション実行部(50)とを備える携帯情報端末(100)を制御するための、コンピュータ読取可能なプログラムであって、
     前記携帯情報端末(100)に、
     前記表示部(30)に、前記アプリケーションに関する処理に利用するための情報を入力される操作画面(31)を表示するステップと、
     前記タッチパネル(40)に対する操作の有無を判断するステップと、
     前記タッチパネル(40)に対する操作に基づいて、前記表示部(30)における前記操作画面(31)の表示位置を変更するステップとを実行させる、プログラム。
  25.  表示部(30)と、前記表示部(30)に設けられたタッチパネル(40)と、アプリケーションを実行するアプリケーション実行部(50)とを備える携帯情報端末(100)を制御するための、コンピュータ読取可能なプログラムを記録した記録媒体であって、
     前記プログラムは、前記携帯情報端末(100)に、
      前記表示部(30)に、前記アプリケーションに関する処理に利用するための情報を入力される操作画面(31)を表示するステップと、
      前記タッチパネル(40)に対する操作の有無を判断するステップと、
      前記タッチパネル(40)に対する操作に基づいて、前記表示部(30)における前記操作画面(31)の表示位置を変更するステップとを実行させる、記録媒体(61)。
PCT/JP2009/057838 2008-04-23 2009-04-20 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体 WO2009131089A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US12/989,318 US20110037720A1 (en) 2008-04-23 2009-04-20 Mobile information terminal, computer-readable program, and recording medium
CN2009801143851A CN102016779A (zh) 2008-04-23 2009-04-20 便携式信息终端、计算机可读程序和记录介质

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008-112849 2008-04-23
JP2008112849 2008-04-23
JP2009064587A JP2009284468A (ja) 2008-04-23 2009-03-17 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
JP2009-064587 2009-03-17

Publications (1)

Publication Number Publication Date
WO2009131089A1 true WO2009131089A1 (ja) 2009-10-29

Family

ID=41216822

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/057838 WO2009131089A1 (ja) 2008-04-23 2009-04-20 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体

Country Status (4)

Country Link
US (1) US20110037720A1 (ja)
JP (1) JP2009284468A (ja)
CN (1) CN102016779A (ja)
WO (1) WO2009131089A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011161892A1 (ja) * 2010-06-23 2011-12-29 パナソニック株式会社 操作制御装置、操作制御方法および入力装置
WO2012169188A1 (ja) * 2011-06-06 2012-12-13 パナソニック株式会社 情報機器及び表示制御方法

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4364273B2 (ja) * 2007-12-28 2009-11-11 パナソニック株式会社 携帯端末装置及び表示制御方法並びに表示制御プログラム
CN102763400B (zh) 2010-02-12 2015-07-15 京瓷株式会社 便携式电子设备
JP5304848B2 (ja) * 2010-10-14 2013-10-02 株式会社ニコン プロジェクタ
JP5751934B2 (ja) * 2010-10-15 2015-07-22 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
US8773473B2 (en) * 2010-11-29 2014-07-08 Microsoft Corporation Instantaneous panning using a groove metaphor
US10552032B2 (en) * 2010-11-30 2020-02-04 Ncr Corporation System, method and apparatus for implementing an improved user interface on a terminal
TWI448934B (zh) * 2011-03-21 2014-08-11 Au Optronics Corp 觸碰點的判斷方法
CN102760025A (zh) * 2011-04-26 2012-10-31 富泰华工业(深圳)有限公司 图片浏览系统及图片缩放方法和图片切换方法
JP5858641B2 (ja) * 2011-05-10 2016-02-10 キヤノン株式会社 情報処理装置、情報処理装置と外部装置とを含むシステム、システムの制御方法、及びプログラム
WO2013012267A1 (en) * 2011-07-19 2013-01-24 Samsung Electronics Co., Ltd. Electronic device and method for sensing input gesture and inputting selected symbol
JP5806573B2 (ja) * 2011-09-28 2015-11-10 キヤノン株式会社 座標入力装置およびその制御方法、座標入力システム
CN102346651A (zh) * 2011-11-14 2012-02-08 华为终端有限公司 音乐文件的处理方法和装置
US8436827B1 (en) * 2011-11-29 2013-05-07 Google Inc. Disambiguating touch-input based on variation in characteristic such as speed or pressure along a touch-trail
US9524050B2 (en) 2011-11-29 2016-12-20 Google Inc. Disambiguating touch-input based on variation in pressure along a touch-trail
US9645733B2 (en) 2011-12-06 2017-05-09 Google Inc. Mechanism for switching between document viewing windows
JP5640035B2 (ja) * 2012-03-28 2014-12-10 エヌ・ティ・ティ・コムウェア株式会社 操作ログ収集方法、操作ログ収集装置、操作ログ収集プログラム
JP2013214164A (ja) * 2012-03-30 2013-10-17 Fujitsu Ltd 携帯電子機器、スクロール処理方法及びスクロール処理プログラム
JP5998700B2 (ja) * 2012-07-20 2016-09-28 日本電気株式会社 情報機器
KR102016975B1 (ko) * 2012-07-27 2019-09-02 삼성전자주식회사 디스플레이 장치 및 그 제어 방법
JP2014032506A (ja) * 2012-08-02 2014-02-20 Sharp Corp 情報処理装置、選択操作検出方法およびプログラム
US9696879B2 (en) * 2012-09-07 2017-07-04 Google Inc. Tab scrubbing using navigation gestures
JP2014071732A (ja) * 2012-09-28 2014-04-21 Toshiba Corp 電子機器、表示制御方法及びプログラム
EP2904480A4 (en) * 2012-10-04 2016-06-22 Intel Corp METHOD, DEVICE AND SYSTEM FOR MANAGING A USER-INTERFACE INTERFACE
CN102929535B (zh) * 2012-10-09 2018-05-01 中兴通讯股份有限公司 一种悬浮窗位置控制的方法及终端
KR102008512B1 (ko) * 2012-12-10 2019-08-07 엘지디스플레이 주식회사 터치 센싱 시스템의 에지부 좌표 보상 방법
JP5862587B2 (ja) * 2013-03-25 2016-02-16 コニカミノルタ株式会社 ジェスチャ判別装置、ジェスチャ判別方法、およびコンピュータプログラム
JP2014211720A (ja) * 2013-04-17 2014-11-13 富士通株式会社 表示装置および表示制御プログラム
US9575649B2 (en) * 2013-04-25 2017-02-21 Vmware, Inc. Virtual touchpad with two-mode buttons for remote desktop client
JP6155869B2 (ja) 2013-06-11 2017-07-05 ソニー株式会社 表示制御装置、表示制御方法およびプログラム
KR101345847B1 (ko) 2013-06-13 2013-12-30 김기두 모바일 그래픽 유저 인터페이스 제공방법
CN103294346B (zh) * 2013-06-20 2018-03-06 锤子科技(北京)有限公司 一种移动设备的窗口移动方法及其装置
US9612736B2 (en) * 2013-07-17 2017-04-04 Korea Advanced Institute Of Science And Technology User interface method and apparatus using successive touches
US20160246434A1 (en) * 2013-09-02 2016-08-25 Sony Corporation Information processing apparatus, information processing method, and program
WO2015068271A1 (ja) * 2013-11-08 2015-05-14 三菱電機株式会社 アニメーション装置及びアニメーション方法
CN104794376B (zh) * 2014-01-17 2018-12-14 联想(北京)有限公司 终端设备以及信息处理方法
CN106068209B (zh) * 2014-04-03 2019-03-15 歌乐株式会社 车载信息装置
JP5711409B1 (ja) * 2014-06-26 2015-04-30 ガンホー・オンライン・エンターテイメント株式会社 端末装置
US9678656B2 (en) * 2014-12-19 2017-06-13 International Business Machines Corporation Preventing accidental selection events on a touch screen
JP6131982B2 (ja) * 2015-04-06 2017-05-24 コニカミノルタ株式会社 ジェスチャ判別装置
JP6014711B2 (ja) * 2015-04-20 2016-10-25 アルプス電気株式会社 携帯機器と自律航法演算法
JP6812639B2 (ja) * 2016-02-03 2021-01-13 セイコーエプソン株式会社 電子機器、電子機器の制御プログラム
US10747337B2 (en) * 2016-04-26 2020-08-18 Bragi GmbH Mechanical detection of a touch movement using a sensor and a special surface pattern system and method
CN108304760B (zh) * 2017-01-11 2021-10-29 神盾股份有限公司 检测手指上手和离手之方法和电子装置
US10755066B2 (en) * 2017-01-11 2020-08-25 Egis Technology Inc. Method and electronic device for detecting finger-on or finger-off
KR20190050485A (ko) * 2017-11-03 2019-05-13 현대자동차주식회사 Ui 관리 서버 및 ui 관리 서버의 제어 방법
JP6981326B2 (ja) * 2018-03-22 2021-12-15 富士通株式会社 情報処理装置、表示システム及びウィンドウ配置プログラム
CN110647286A (zh) * 2019-10-09 2020-01-03 北京字节跳动网络技术有限公司 屏幕元素控制方法、装置、设备、存储介质
CN111294637A (zh) * 2020-02-11 2020-06-16 北京字节跳动网络技术有限公司 视频播放方法、装置、电子设备和计算机可读介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254619A (ja) * 1997-03-07 1998-09-25 Nec Corp 候補選択用ユーザインタフェース装置
JP2006302263A (ja) * 2005-03-18 2006-11-02 Microsoft Corp 電子インクまたは手書きインターフェースを呼び出すためのシステム、方法およびコンピュータ読取り可能媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0693852A3 (en) * 1994-07-22 1997-05-28 Eastman Kodak Co Method and apparatus for applying a function to a localized domain of a digital image using a window
US6714214B1 (en) * 1999-12-07 2004-03-30 Microsoft Corporation System method and user interface for active reading of electronic content
TWI238348B (en) * 2002-05-13 2005-08-21 Kyocera Corp Portable information terminal, display control device, display control method, and recording media
US8042044B2 (en) * 2002-11-29 2011-10-18 Koninklijke Philips Electronics N.V. User interface with displaced representation of touch area
TWI240208B (en) * 2004-02-17 2005-09-21 Elan Microelectronics Corp Capacitance touch panel with simplified scanning lines and the detection method thereof
US20060007178A1 (en) * 2004-07-07 2006-01-12 Scott Davis Electronic device having an imporoved user interface
KR100686165B1 (ko) * 2006-04-18 2007-02-26 엘지전자 주식회사 오에스디 기능 아이콘을 갖는 휴대용 단말기 및 이를이용한 오에스디 기능 아이콘의 디스플레이 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254619A (ja) * 1997-03-07 1998-09-25 Nec Corp 候補選択用ユーザインタフェース装置
JP2006302263A (ja) * 2005-03-18 2006-11-02 Microsoft Corp 電子インクまたは手書きインターフェースを呼び出すためのシステム、方法およびコンピュータ読取り可能媒体

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2011161892A1 (ja) * 2010-06-23 2011-12-29 パナソニック株式会社 操作制御装置、操作制御方法および入力装置
WO2012169188A1 (ja) * 2011-06-06 2012-12-13 パナソニック株式会社 情報機器及び表示制御方法

Also Published As

Publication number Publication date
JP2009284468A (ja) 2009-12-03
CN102016779A (zh) 2011-04-13
US20110037720A1 (en) 2011-02-17

Similar Documents

Publication Publication Date Title
WO2009131089A1 (ja) 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
JP5371002B2 (ja) 携帯情報端末、コンピュータ読取可能なプログラムおよび記録媒体
CN106227344B (zh) 电子设备及其控制方法
KR102016975B1 (ko) 디스플레이 장치 및 그 제어 방법
US20080297485A1 (en) Device and method for executing a menu in a mobile terminal
US9110582B2 (en) Mobile terminal and screen change control method based on input signals for the same
US7834861B2 (en) Mobile communication terminal and method of selecting menu and item
JP4955505B2 (ja) 携帯端末機及びその画面表示方法
US20200371685A1 (en) Graphical User Interface Display Method And Electronic Device
US9600153B2 (en) Mobile terminal for displaying a webpage and method of controlling the same
US20160320891A1 (en) Electronic Display with a Virtual Bezel
US9891805B2 (en) Mobile terminal, and user interface control program and method
US20120162112A1 (en) Method and apparatus for displaying menu of portable terminal
US20110087983A1 (en) Mobile communication terminal having touch interface and touch interface method
EP3575939A1 (en) Information processing device, information processing method, and program
USRE44294E1 (en) Apparatus and method for display control in a mobile communication terminal
KR20100037973A (ko) 휴대 단말기 및 그 휴대 단말기에서 기능 수행 방법
KR102107469B1 (ko) 사용자 단말 장치 및 이의 디스플레이 방법
KR20150094484A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
KR20150094477A (ko) 사용자 단말 장치 및 이의 디스플레이 방법
EP3531258A1 (en) Method for searching for icon, and terminal
JP5814821B2 (ja) 携帯端末装置、プログラムおよび画面制御方法
KR20150007048A (ko) 전자 장치의 디스플레이 방법
WO2015016214A1 (ja) 携帯端末ならびに表示方向制御方法
JP2011252970A (ja) 画像表示装置、画像表示方法、及び画像表示プログラム

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980114385.1

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09735772

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 12989318

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 09735772

Country of ref document: EP

Kind code of ref document: A1