WO2012128296A1 - 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体 - Google Patents

情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体 Download PDF

Info

Publication number
WO2012128296A1
WO2012128296A1 PCT/JP2012/057232 JP2012057232W WO2012128296A1 WO 2012128296 A1 WO2012128296 A1 WO 2012128296A1 JP 2012057232 W JP2012057232 W JP 2012057232W WO 2012128296 A1 WO2012128296 A1 WO 2012128296A1
Authority
WO
WIPO (PCT)
Prior art keywords
cursor
display
touch
unit
information processing
Prior art date
Application number
PCT/JP2012/057232
Other languages
English (en)
French (fr)
Inventor
光範 大矢
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2012128296A1 publication Critical patent/WO2012128296A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72469User interfaces specially adapted for cordless or mobile telephones for operating the device by selecting functions from two or more displayed items, e.g. menus or icons

Definitions

  • the present invention records an information processing apparatus, in particular, an information processing apparatus that executes processing indicated by the icon by selecting a displayed icon with a cursor, a control method for the information processing apparatus, an information processing apparatus control program, and the program.
  • the present invention relates to a computer readable recording medium.
  • model equipped with the full touch panel can receive various displays and operations on the touch panel, and is modern in design and supported by many people.
  • the user performs various operations by touching an icon or the like displayed on the touch panel with a finger, a pen or the like. That is, the portable information terminal is held by one hand (for example, the left hand) and the icon or the like is touched by the other hand (the right hand).
  • the user touches the range that the finger can reach on the touch panel while holding the portable information terminal.
  • the user performs the operation by, for example, changing the portable information terminal so that the finger reaches the range.
  • a mouse cursor (cursor) is displayed on the screen, and the position of the cursor is manipulated with the mouse to position the cursor on the position where an icon etc. is displayed and perform processing operation (double click etc.) Thus, various operations are performed.
  • patent document 1 arrange
  • Patent Document 2 also describes a method of moving a cursor by changing the position of a finger or the like in contact.
  • Japanese Patent Publication No. 2001-34414 publication date: Feb. 9, 2001
  • the cursor when moving a cursor and performing processing indicated by an icon or the like at a movement destination, the cursor needs to be displayed in advance on the screen.
  • the present invention has been made in view of the above problems, and an object thereof is to realize an information processing apparatus or the like capable of displaying a cursor in a user-friendly manner.
  • an information processing apparatus detects a touch on an icon displayed on a display unit, and performs at least a touch on the display unit in an information processing apparatus that executes processing indicated by the icon.
  • Operation detection means for detecting the operation on the display unit of the contact while detecting the operation on the own device, and the operation detected by the operation detection means and the contact position obtained by the operation detection;
  • a cursor display operation which is an operation of displaying a cursor on the unit, and when the cursor display operation matches a predetermined operation, the cursor display unit displays the cursor at the contact position acquired by the operation detection unit;
  • cursor moving means for moving a cursor displayed by the means.
  • a control method of an information processing device is a control method of an information processing device which detects a touch on an icon displayed on a display unit and executes processing indicated by the icon.
  • Operation detection means detects an operation on the own apparatus including at least a touch on the display unit, and an operation detection step of acquiring a touch position of the touch on the display unit;
  • a cursor display means detects the operation
  • the operation detected in the step and the acquired touch position are cursor display operations that are operations for displaying a cursor on the display unit when the operation is received, and the operation detection is performed when the operation matches a predetermined cursor display operation.
  • a cursor movement step of moving the cursor displayed in step, to include are characterized.
  • the cursor is displayed within the reach of the user's finger, the user can easily operate the cursor.
  • the cursor is displayed in distinction from the touch on the icon, it is possible to appropriately display the cursor while preventing the processing indicated by the icon from being executed by mistake.
  • the cursor can be displayed conveniently for the user.
  • the information processing apparatus detects an operation on the own apparatus including at least a touch on the display unit, and an operation detection unit that acquires a contact position of the touch on the display unit;
  • the operation detected by the detection means and the acquired contact position are cursor display operations that are operations for displaying a cursor on the display unit when the operation is detected, the operation is identical to the predetermined cursor display operation.
  • a cursor display means for displaying a cursor at a contact position acquired by the detection means, and a cursor moving means for moving a cursor displayed by the cursor display means are provided.
  • the operation detection means looks at an operation on the own apparatus including at least a touch on the display unit, and the contact on the display unit
  • An operation detecting step of acquiring a position, and a cursor displaying operation which is an operation of displaying a cursor on the display unit when the operation detected by the operation detecting step and the acquired contact position receive the operation.
  • the cursor can be displayed within the range where the user's finger can reach, the user can easily operate the cursor.
  • the cursor is displayed in distinction from the touch on the icon, it is possible to appropriately display the cursor while preventing the processing indicated by the icon from being executed erroneously.
  • FIG. 2A is a view showing an appearance of the mobile information terminal
  • FIG. 2B is a view showing a state in which the mobile information terminal is gripped.
  • It is an appearance table which shows the content of operation which makes the cursor appear in the said portable information terminal.
  • It is a flowchart which shows the flow of operation
  • It is a flowchart which shows the flow of operation
  • FIG. 12A is an illustration showing a mail screen on the display unit
  • FIG. 12B is a diagram showing a browser on the display unit. Is displayed.
  • FIG. 13A is an explanatory view showing a relationship between a user's operation and a cursor display, and FIG. 13A is a view showing a state before a cursor is flipped; FIG. 13B and FIG.
  • FIG. 17 (a) is a diagram showing how the cursor moves to the position of the icon
  • FIG. 17 (b) is a diagram showing a predetermined operation from the cursor. It is a figure which shows the state from which all the icons which exist in the range of distance are selected.
  • FIG. 18A is an explanatory view showing a relationship between a user's operation and cursor display
  • FIG. 18A is a view showing a cursor being displayed
  • a portable information terminal (information processing apparatus) 1 is an information terminal that can be held by one hand, and includes a full touch panel (an operation receiving unit 2 and a display unit 4).
  • FIG. 2 is a view showing the appearance of the portable information terminal 1.
  • FIG. 2 (a) shows the appearance of the portable information terminal 1
  • FIG. 2 (b) shows a state in which the portable information terminal 1 is gripped. Show.
  • the portable information terminal 1 is provided with an audio output unit 5, an operation switch 16, and an audio input unit 17. Note that these are not essential components.
  • the thumb can operate the operation reception unit 2 which is a touch panel. Then, for example, when there is an icon to be operated at a position where the thumb does not reach, the cursor is displayed in the vicinity of the thumb. Then, when the cursor is flipped by the thumb, the cursor is moved, and when the cursor is moved to the desired icon position, when the operation reception unit 2 is tapped again by the thumb, the processing of the icon is performed. It is possible to
  • FIG. 1 is a block diagram showing the main configuration of the portable information terminal 1.
  • the portable information terminal 1 includes an operation receiving unit 2, an acceleration sensor 3, a display unit 4, an audio output unit 5, a control unit 6, a storage unit 7, an operation switch 16, and The voice input unit 17 is included.
  • the control unit 6 includes a contact detection unit (operation detection unit) 11 and a cursor processing unit (cursor moving unit) 12.
  • the contact detection unit 11 includes a contact position acquisition unit 21 and a contact time measurement unit 22. is there.
  • the cursor processing unit 12 includes a cursor display processing unit 31 and a cursor determination processing unit (processing execution means) 32.
  • the cursor display processing unit 31 includes a cursor appearance processing unit (cursor display means) 41 and a cursor movement processing unit ( The cursor movement means 42 is included.
  • the storage unit 7 includes a cursor display table storage unit 51.
  • the cursor display table storage unit 51 of the storage unit 7 stores an operation for causing a cursor indicating an input position to appear.
  • the execution operation for example, a tap
  • the processing indicated by the icon is executed. is there. That is, it has the same function as a mouse cursor in a personal computer.
  • the storage unit 7 also stores programs necessary for various processes in the portable information terminal 1, various operation setting values, various data, and the like.
  • the storage unit 7 is configured of a non-volatile storage device such as a flash memory and a read only memory (ROM) and a volatile storage device such as a random access memory (RAM).
  • the operation accepting unit 2 accepts an operation on the portable information terminal 1.
  • the display unit 4 is configured by a device such as a touch panel that can realize both display and contact detection.
  • the acceleration sensor 3 detects the acceleration of the portable information terminal 1 itself and notifies the cursor processing unit 12 of the acceleration.
  • the acceleration sensor 3 can be realized by a known technique, but can be realized by, for example, a sensor that detects accelerations in three axial directions orthogonal to each other.
  • the display unit 4 displays various information.
  • it is configured by a device such as a touch panel that can realize both display and contact detection, and doubles as the operation reception unit 2.
  • the voice output unit 5 is for outputting voice and is realized by a speaker or the like.
  • the voice input unit 17 receives an input of voice and is realized by a microphone or the like.
  • the operation switch 16 is a switch that turns on / off the power of the portable information terminal 1.
  • the control unit 6 executes a cursor operation in the portable information terminal 1 and executes various processes of the portable information terminal 1 and includes a touch detection unit 11 and a cursor processing unit 12.
  • the contact detection unit 11 detects a touch (tap) on the operation reception unit 2 and includes a contact position acquisition unit 21 and a contact time measurement unit 22.
  • the touch position acquisition unit 21 acquires the touch position in the operation reception unit 2 (that is, the touch position in the display unit 4) when there is a touch on the operation reception unit 2 and notifies the cursor processing unit 12 is there.
  • the contact time measurement unit 22 measures the time from the start of the contact when the operation reception unit 2 is touched, and notifies the cursor processing unit 12 of the time.
  • the cursor processing unit 12 performs cursor appearance, operation, and determination processing, and includes a cursor display processing unit 31 and a cursor determination processing unit 32.
  • the cursor display processing unit 31 processes display of the cursor, and includes a cursor appearance processing unit 41 and a cursor movement processing unit 42.
  • the cursor appearance processing unit 41 is a cursor whose cursor display table storage unit 51 stores the touch operation on the operation reception unit 2 acquired from the contact detection unit 11 and the acceleration of the portable information terminal 1 acquired from the acceleration sensor 3. When corresponding to the appearing operation, the cursor is made to appear at a position corresponding to the touch position on the display unit 4.
  • the cursor movement processing unit 42 moves the cursor according to the contact position acquired from the contact detection unit 11. More specifically, the cursor is moved in the direction of the change in the contact position acquired from the contact position acquisition unit 21 by a distance corresponding to the speed of the change in the contact position.
  • the cursor movement processing unit 42 also performs correction of the cursor movement direction in accordance with the touch position and cursor movement corresponding to dragging.
  • the cursor determination processing unit 32 causes an application or the like that performs the process to execute a process indicated by an object such as an icon displayed at the cursor position according to the contact position and the contact time acquired from the contact detection unit 11. It is.
  • FIG. 3 is an appearance table 301 showing contents of an operation for causing a cursor to appear (cursor display operation).
  • the operation content used by the cursor appearance processing unit 41 for the appearance of the cursor is not limited to eight cases described in the appearance table 301.
  • the following eight methods may be mentioned as the operation for causing the cursor to appear.
  • the first is that when the position where the icon is not displayed is tapped (touched) in a state where the cursor is not displayed on the display unit 4, the cursor is displayed at the tapped position.
  • the cursor can be displayed as soon as it is tapped, and the cursor can be presented to the user promptly.
  • the user can quickly move the cursor to execute a desired process.
  • the cursor when the tap is continued continuously for a predetermined time or more, the cursor is displayed. Therefore, it is possible to prevent the cursor from being displayed by mistake when the user accidentally taps the position where the icon is not displayed although the user has no intention to cause the cursor to appear. Therefore, the cursor can be displayed correctly.
  • the cursor instead of displaying the cursor as soon as the duration of the tap exceeds a predetermined time, the cursor may be gradually floated up. Then, for example, the color of the cursor displayed gradually may be blue ⁇ yellow ⁇ red or gray ⁇ white.
  • the cursor is displayed at the touch position.
  • the cursor appearance processing unit 41 may gradually increase the brightness of the cursor to be displayed when displaying the cursor.
  • the cursor may be movable by the cursor movement processing unit 42, that is, may be operable by the user when the brightness of the cursor itself becomes highest.
  • the icon displayed on the display unit 4 may be grayed out so that it can not be selected. As a result, it is possible to make the user recognize that it is possible to play the cursor.
  • the icon may be returned to the original display when the cursor is flipped.
  • the cursor since it is displayed when it is shaken while being tapped, the cursor can be appropriately displayed even if the tap time is shorter than when the cursor is displayed when it is long tapped.
  • the vibration of the portable information terminal 1 can be detected by the acceleration sensor 3.
  • the cursor when the cursor is displayed, if the finger touching the operation receiving unit 2 is not moved but is released from the operation receiving unit 2 as it is, the displayed cursor disappears. This allows the cursor to be erased when unnecessary.
  • FIGS. 4 to 7 are flowcharts showing the flow of the operation in the portable information terminal 1.
  • the cursor display processing unit 31 causes the display unit 4 to display the cursor (S102, cursor Display step).
  • the cursor movement processing unit 42 sets the distance of the displayed cursor in the direction detected by the contact position acquisition unit 21 according to the speed of change of the contact position detected by the contact position acquisition unit 21. , Move (S104, cursor movement step). This corresponds to the user hitting the cursor.
  • the cursor determination processing unit 32 performs tap processing at the position of the cursor at that time (S115, processing execution step).
  • tap processing refers to execution of processing indicated by an icon present at the position of the cursor.
  • cursor processing unit 12 erases the cursor displayed on display unit 4 (S117).
  • the cursor movement processing unit 42 performs cursor movement correction processing (S110, cursor movement step).
  • the cursor movement correction process will be described later.
  • the cursor movement processing unit 42 moves the cursor based on the drag (S112). Specifically, the cursor is moved in the same manner as the drag movement. Thereafter, when the cursor moves to the edge of the screen of the display unit 4 (YES in S113), the cursor processing unit 12 scrolls the screen displayed on the display unit 4 (S114). Then, the process returns to step S111.
  • the process returns to step S105. Thereafter, when the drag is released (YES in S106), the cursor determination processing unit 32 performs tap processing at the position of the cursor at that time (S115).
  • the cursor movement processing unit 42 determines that the contact position acquired from the contact detection unit 11 indicates a cursor movement direction (a line including a cursor (hereinafter referred to as a movement direction line It is determined whether or not it is above (S201). Then, when the touch position is on the traveling direction line (YES in S201), the cursor movement correction process is ended, and the process proceeds to step S111.
  • a cursor movement direction a line including a cursor
  • the cursor movement processing unit 42 determines whether the touch position is on the right of the traveling direction line (S202). When the touch position is on the right of the traveling direction line (YES in S202), the cursor movement processing unit 42 moves the cursor while correcting the movement direction of the cursor in the right direction (S203). On the other hand, when the touch position is not on the right of the traveling direction line (NO in S202), the cursor movement processing unit 42 moves the cursor while correcting the movement direction of the cursor in the left direction (S204). The above is the flow of the cursor movement correction process.
  • the determination of the contact position may be performed based on whether or not it is on the screen of the display unit 4 more than the position at which the contact is made first, rather than whether or not it is on the right of the traveling direction line.
  • step S201 the processes shown in steps S211 and S212 of FIG. 6 may be performed. That is, the cursor movement processing unit 42 first determines whether the touch position acquired from the touch detection unit 11 is the same as the touch position in the cursor appearance operation (S211). Then, if the touch position obtained from the touch detection unit 11 is the same as the touch position in the cursor appearance operation (YES in S211), the cursor movement processing unit 42 is the position closest to the position of the cursor at the time of touch detection. The cursor is moved to the position of an object (including an icon, a file, a WEB link, etc.) in (S212). Then, the cursor movement correction process ends.
  • the cursor movement correction process ends.
  • step S202 if the touch position acquired from the touch detection unit 11 is not the same as the touch position in the cursor appearance operation (NO in S211), the process proceeds to step S202.
  • step S212 the process shown in step S221 of FIG. 7 may be performed. That is, when the touch position acquired from the touch detection unit 11 is the same as the touch position in the cursor appearance operation (YES in S211), the cursor movement processing unit 42 stops the cursor at the current cursor position and It is assumed that all objects (including icons, files, WEB links, etc.) present in the range of distance are selected (S221). Then, the cursor movement correction process ends. Thereafter, when a drag operation is accepted in step S111 (YES in S111), the cursor movement processing unit 42 makes all objects in the selected state not selected.
  • cursor movement correction process may be as shown in FIG.
  • the cursor movement processing unit 42 determines whether the touch position acquired from the touch detection unit 11 is the same as the touch position in the cursor appearance operation (S301). Then, if the touch position acquired from the touch detection unit 11 is the same as the touch position in the cursor appearance operation (YES in S201), the cursor movement correction process is ended.
  • the cursor movement processing unit 42 determines whether the touch position is on the right of the traveling direction line It determines (S302). Then, if the touch position is on the right of the traveling direction line (YES in S302), the cursor movement processing unit 42 moves the cursor while correcting the movement direction of the cursor in the right direction (S303). On the other hand, if the touch position is not to the right of the traveling direction line (NO in S302), the cursor movement processing unit 42 moves the cursor while correcting the movement direction of the cursor in the left direction (S304).
  • the cursor movement processing unit 42 determines whether the touch position acquired from the touch detection unit 11 is closer to the moving direction of the cursor than the touch position in the cursor appearance operation (S305). Then, if the cursor moving direction is closer (YES in S305), the cursor movement processing unit 42 accelerates the moving speed of the cursor to be faster (S306). On the other hand, when it is not close to the moving direction of the cursor (NO in S305), the cursor movement processing unit 42 decelerates and slows the movement speed of the cursor (S307).
  • step S311 in FIG. 9 may be performed. That is, if the touch position acquired from touch detection unit 11 is the same as the touch position in the cursor appearance operation (YES in S301), cursor movement processing unit 42 is the position closest to the position of the cursor at the time of touch detection. The cursor is moved to the position of the object in (S311). Then, the cursor movement correction process ends.
  • the process shown at step S321 in FIG. 10 may be performed. That is, if the touch position acquired from the touch detection unit 11 is the same as the touch position in the cursor appearance operation (YES in S301), the cursor movement processing unit 42 stops the cursor at the current cursor position and All objects present in a predetermined distance range are selected (S 321). Then, the cursor movement correction process ends.
  • the cursor movement processing unit 42 first examines the relationship between the touch position acquired from the touch detection unit 11 and the touch position in the cursor appearance operation (S401). Then, with regard to the relationship between the contact position acquired from the contact detection unit 11 and the contact position in the cursor appearance operation, if the amount of change in the upper direction on the screen of the display unit 4 is maximum (YES in S402), the cursor processing unit 12 Scrolls the screen displayed on the display unit 4 upward (S403).
  • the change amount in the upper direction on the screen of the display unit 4 is not maximum (NO in S402), and the change in the lower direction If the amount is the largest (YES in S404), the cursor processing unit 12 scrolls the screen displayed on the display unit 4 downward (S405).
  • the amount of change in the downward direction on the screen of the display unit 4 is not maximum (NO in S404), and the change in the rightward direction If the amount is the largest (YES in S406), the cursor processing unit 12 scrolls the screen displayed on the display unit 4 to the right (S407).
  • the change amount in the right direction on the screen of the display unit 4 is not maximum (NO in S406), and the change amount in the left direction Is the largest (YES in S408), the cursor processing unit 12 scrolls the screen displayed on the display unit 4 to the left (S409).
  • the user can scroll the screen when touching (taping) the operation reception unit 2 for a predetermined time or more, and can execute a desired icon by subsequent drag operation. .
  • FIGS. 12 to 18 are explanatory diagrams showing the relationship between the user's operation and the cursor display.
  • FIG. 12 is a view showing an operation for displaying a cursor
  • FIG. 12 (a) is a view in which a mail screen is displayed on the display unit 4
  • FIG. 12 (b) is a view on the display unit 4. It is a figure in which a browser is displayed.
  • the cursor movement processing unit 42 displays the cursor 802 at a position where the thumb 801 is in contact with the display unit 4.
  • the cursor movement processing unit 42 moves the cursor 802 in the direction of the transmission button 803.
  • the cursor determination processing unit 32 performs processing when the send button 803 is tapped.
  • the operation of tapping the link button 804 on the browser screen is the same.
  • the cursor movement processing unit 42 displays the cursor 802.
  • the cursor movement processing unit 42 moves the cursor 802 in the direction of the link button 804.
  • the cursor determination processing unit 32 executes processing when the link button 804 is tapped.
  • FIG. 13 is an explanatory view showing how the cursor is displayed and moved.
  • A) of FIG. 13 is a figure which shows a mode before playing a cursor.
  • B) and (c) of FIG. 13 are diagrams showing the traveling direction of the flipped cursor.
  • FIG. 13D is a diagram showing a state in which no operation has been performed after the cursor is flipped.
  • the cursor appearance processing unit 41 displays the cursor 902 at the position where the thumb 901 is in contact.
  • the user flips the cursor 902 with the thumb 901 toward the area 900 in order to tap the area (icon) 900.
  • the cursor movement processing unit 42 receives from the contact detection unit 11 a notification that the cursor 902 has been flipped, that is, that there has been a contact of a predetermined distance or more near the cursor 902.
  • the cursor 902 is moved in the direction of the arrow 905, which is the direction in which the contact position changes.
  • the cursor movement processing unit 42 moves the cursor 902. Then, when there is a touch on the operation reception unit 2 again while the cursor 902 is moving, the cursor determination processing unit 32 performs the tap processing at the position of the cursor 902 at the time of the touch.
  • the screen example 1002 shows an operation when there is a touch on the operation receiving unit 2 when the cursor 902 is present between the position where the movement of the cursor 902 is started and the area 900.
  • the screen example 1003 shows an operation when there is a touch on the operation receiving unit 2 when the cursor 902 reaches the area 900.
  • the cursor movement processing unit 42 moves the cursor 902 in the flipped direction.
  • the cursor movement processing unit 42 moves the cursor 902 in the long tapped direction. Correct (arrow 1108).
  • the cursor movement processing unit 42 moves the cursor 902. Then, when there is a long tap on the operation receiving unit 2, as shown in the screen example 1202, the cursor movement processing unit 42 corrects the moving direction of the cursor 902 in the direction of the long tap (arrow 1205).
  • the cursor movement processing unit 42 corrects the movement direction of the cursor 902 in the same direction as the received drag direction. Then, as shown in the screen example 1204, when the cursor 902 moves to the end of the display unit 4 by dragging, the cursor processing unit 12 moves the display screen in the direction in which the cursor 902 is located (upward in the example of FIG. 16). Scroll to
  • FIG. 17 is a diagram showing the operation when tapping on the traveling direction line.
  • A) of FIG. 17 is a diagram showing an operation in a setting in which the cursor moves to the icon located at the position closest to the cursor when it is tapped.
  • B) of FIG. 17 is a diagram showing an operation in setting in which the cursor is stopped when tapped and all the icons present in the range of a predetermined distance from the cursor are selected.
  • the cursor movement processing unit 42 is tapped when the thumb 901 taps on the advancing direction line while moving the cursor 902.
  • the cursor 902 is moved to the position 902 b of the icon 921 located closest to the position 902 a of the cursor 902 at that time.
  • the cursor The movement processing unit 42 stops the cursor 902, and causes the area (icon) 900 and the icon 921 in the range 930 having a predetermined distance from the position of the cursor 902 to be selected.
  • the cursor movement processing unit 42 is present closest to the position of the cursor 902 at that time.
  • the cursor 902 may be moved to the position of the icon to be selected, or the icon existing in the range of a predetermined distance from the position of the cursor 902 may be selected.
  • FIG. (A) of FIG. 18 is a diagram showing an operation of displaying the cursor 902
  • (b) of FIG. 18 is a diagram showing an operation of erasing the cursor 902.
  • the cursor appearance processing unit 41 selects the cursor 902 for tapping the object 1310. Is displayed. Thereafter, when the user leaves the operation receiving unit 2 as it is without changing the contact position of the thumb 901, the cursor appearance processing unit 41 displays the cursor displayed on the display unit 4 as shown in (b) of FIG. Erase 902 (cursor trace 1303).
  • the cursor appearance processing unit 41 may cause the cursor to appear by the following operation regardless of the application.
  • the cursor appearance processing unit 41 may cause the cursor to appear. In this case, the execution of the tap processing by the cursor determination processing unit 32 with respect to the icon that was present at the first touched position is cancelled.
  • the cursor appearance processing unit 41 may cause the cursor to appear. Also in this case, the execution of the tap processing by the cursor determination processing unit 32 on the icon that was present at the position touched first is canceled.
  • the portable information terminal 1 may be equipped with a cursor appearance button. Then, in this configuration, when the operation receiving unit 2 is touched while pressing the cursor appearance button, the cursor may be made to appear. In this case, the execution of the tap processing by the cursor determination processing unit 32 with respect to the icon present at the position where the touch was made is cancelled.
  • the cursor appearance processing unit 41 may cause the cursor to appear. In this case, the execution of the tap processing by the cursor determination processing unit 32 with respect to the icon present at the position where the touch was made is cancelled.
  • the cursor appearance processing unit 41 may cause the cursor to appear. In this case, the tap process by the cursor determination processing unit 32 is not performed on the icon existing at the position where the touch was made, or the execution is canceled.
  • the cursor appearance processing unit 41 does not perform the cursor appearance process, and the touch and hold processing ( Perform processing when the long tap is performed.
  • the cursor appearance processing unit 41 When the cursor appearance button is pressed, the cursor appearance processing unit 41 is in the cursor appearance mode, and when the operation reception unit 2 is touched in this state, the cursor appearance processing unit 41 causes the cursor to appear It is also good. Further, in the state of the cursor appearance mode, the cursor appearance processing unit 41 may display on the display unit 4 such as “When the screen is tapped, the cursor is displayed”. Further, in the state of the cursor appearance mode, when the cursor appearance button is pressed again, the cursor appearance processing unit 41 may return to the normal mode.
  • a cursor appearance button may be provided on the menu display. In this configuration, when the cursor appearance button is tapped, the cursor appearance processing unit 41 may cause the cursor to appear.
  • the cursor appearance processing unit 41 may cause the cursor to appear by the following operation according to the feature of each application.
  • the cursor appearance processing unit 41 may cause the cursor to appear when a position other than the character input button is tapped during character input. That is, when there is no character input icon at the tapped position, the cursor appearance processing unit 41 causes the cursor to appear.
  • the user can select the send button by flipping the appeared cursor, moving to the send button and tapping.
  • the cursor appearance processing unit 41 may cause the cursor to appear at the position where the button is pressed.
  • the user can select the confirmation button or the attachment button by flipping the appeared cursor, moving to the confirmation button or the attachment button and tapping.
  • a bar may be provided at the bottom of the browser.
  • the cursor appearance processing unit 41 may cause the cursor to appear.
  • the cursor appearance processing unit 41 may cause the cursor to appear when the bar is tapped for a long time.
  • the cursor appearance processing unit 41 may cause the cursor to appear. That is, when there is no character input button at the tapped position, the cursor appearance processing unit 41 may cause the cursor to appear. The user can flip the cursor that has appeared to move it to the search button and select the search button.
  • the cursor appearance processing unit 41 may cause the cursor to appear when tapping outside the frame of the calendar.
  • the cursor appearance processing unit 41 may cause the cursor to appear when the portion of the month other than this month is tapped for a long time.
  • the application may be in a mode for accepting input of the date of the month.
  • the cursor appearance processing unit 41 may cause the cursor to appear.
  • the cursor appearance processing unit 41 may cause the cursor to appear when the calendar is displayed on the day and the user taps on a band displaying time.
  • the user can flip the cursor and move it to a desired icon to execute the icon.
  • the user can also scroll the screen by dragging to display a portion that has not been displayed.
  • the cursor appearance processing unit 41 may cause the cursor to appear. The user can flip the appeared cursor and move it to a desired icon to select the icon.
  • each block of the portable information terminal 1, particularly the touch detection unit 11 (contact position acquisition unit 21, contact time measurement unit 22) of the control unit 6, and the cursor processing unit 12 (cursor display processing unit 31, cursor appearance processing unit) 41, the cursor movement processing unit 42, and the cursor determination processing unit 32) may be realized in hardware by a logic circuit formed on an integrated circuit (IC chip), or using a CPU (central processing unit) It may be realized as software.
  • the recording medium examples include tapes such as magnetic tape and cassette tape, magnetic disks such as floppy (registered trademark) disk / hard disk, and compact disc read-only memory (CD-ROM) / MO (magneto-optical) / Disc including optical disc such as MD (Mini Disc) / DVD (digital versatile disc) / CD-R (CD Recordable), IC card (including memory card) / card such as optical card, mask ROM / EPROM (erasable) Semiconductor memory such as programmable read-only memory / EEPROM (electrically erasable and programmable read-only memory) / flash ROM, or logic circuits such as PLD (programmable logic device) or FPGA (field programmable gate array) be able to.
  • tapes such as magnetic tape and cassette tape
  • magnetic disks such as floppy (registered trademark) disk / hard disk
  • CD-ROM compact disc read-only memory
  • MO magnetic-optical
  • Disc including optical disc such as MD (Min
  • the portable information terminal 1 may be configured to be connectable to a communication network, and the program code may be supplied via the communication network.
  • This communication network is not particularly limited as long as the program code can be transmitted.
  • the Internet intranet, extranet, LAN (local area network), ISDN (integrated services digital network), VAN (value-added network), CATV (community antenna television) communication network, virtual private network, A telephone network, a mobile communication network, a satellite communication network, etc. can be used.
  • the transmission medium that constitutes this communication network may be any medium that can transmit the program code, and is not limited to a specific configuration or type.
  • the present invention can also be realized in the form of a computer data signal embedded in a carrier wave, in which the program code is embodied by electronic transmission.
  • the portable information terminal 1 as the information processing apparatus detects a touch on the icon displayed on the display unit 4 and executes the processing indicated by the icon.
  • the portable information terminal 1 detects an operation on the own apparatus including a touch on the display unit 4 and also detects a touch position of the touch on the display unit, an operation detected by the touch detection unit 11, and When the acquired touch position matches the predetermined cursor display operation, the cursor appearance processing unit 41 for displaying the cursor at the touch position acquired by the touch detection unit 11 and the cursor displayed by the cursor appearance processing unit 41 are moved And a cursor movement processing unit 42.
  • the cursor can be displayed conveniently for the user.
  • the process indicated by the icon present at the cursor position after movement is executed, so even if the icon exists at a position where the user's hand does not reach, the icon is indicated by moving the cursor. Processing can be performed. Thus, the user can easily execute the process indicated by the icon.
  • the cursor display operation may be a touch on a position different from the position where the icon is displayed on the display unit.
  • the cursor display operation may be that an elapsed time from the touch start time of the touch on the display unit is a predetermined time or more.
  • the cursor is displayed when the elapsed time of the touch is equal to or longer than the predetermined time, so the cursor is displayed when there is no intention to display the cursor, such as simply touching. Can be prevented.
  • the cursor display operation may be such that the touch position on the display unit reciprocates within a predetermined range from the position at which the display portion first contacts.
  • the cursor is displayed by a clear operation that the contact position reciprocates within a predetermined range from the position at which the contact is first made. Therefore, the cursor can be displayed only when there is a clear intention of the user.
  • the operation detection unit detects a touch on the display unit and detects a shake of the own apparatus, and the cursor display operation includes the contact on the display unit and the own terminal Shaking may be performed at the same time.
  • the cursor is displayed by the clear operation that the own terminal is shaken. Therefore, the cursor can be displayed only when there is a clear intention of the user.
  • the cursor can be displayed at the position at which the icon is displayed without executing the processing indicated by the icon.
  • the information processing apparatus includes a cursor display input receiving unit that receives an input of a cursor display instruction, and the operation detection unit detects a touch on the display unit, and the cursor display input unit generates a cursor display instruction. It may detect that an input has been received, and the cursor display operation may be an input of the cursor display instruction while the touch on the display unit is being made.
  • the cursor is displayed by a clear operation such as a touch on the display unit and a cursor display instruction. Therefore, the cursor can be displayed only when there is a clear intention of the user.
  • the cursor can be displayed at the position at which the icon is displayed without executing the processing indicated by the icon.
  • the information processing apparatus includes a cursor display input reception unit for receiving an input of a cursor display instruction, and the operation detection unit detects a touch on the display unit, and the cursor display input reception unit is a cursor display instruction.
  • the cursor display operation may be that there is a touch on the display unit after the cursor display instruction is input.
  • the cursor is displayed by a clear operation such as a touch on the display unit and a cursor display instruction. Therefore, the cursor can be displayed only when there is a clear intention of the user.
  • the cursor can be displayed at the position at which the icon is displayed without executing the processing indicated by the icon.
  • the cursor display means when displaying the cursor, gradually increases the brightness of the cursor to be displayed to a predetermined brightness, and the cursor moving means sets the brightness of the cursor to the predetermined brightness. After the brightness is reached, the cursor may be moved.
  • the portable information terminal can be gripped with one hand and can be tapped even at a position out of reach of the gripping hand, it is suitable for a portable information terminal such as operating a screen with one hand while gripping with one hand.

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephone Function (AREA)
  • Position Input By Displaying (AREA)

Abstract

 携帯情報端末(1)は、表示部(4)に対する接触を含む、自装置に対する操作を検知するとともに、接触位置を取得する接触検知部(11)と、上記操作および上記接触位置が予め定められたカーソル表示動作と一致したとき、上記接触位置にカーソルを表示させるカーソル出現処理部(41)と、表示したカーソルを移動させるカーソル移動処理部(42)と、を備えている。

Description

情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
 本発明は、情報処理装置、特に表示されているアイコンをカーソルで選択することでアイコンが示す処理を実行する情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体に関するものである。
 近年、スマートフォンと呼ばれる高機能携帯電話端末や携帯情報端末において、全面タッチパネルを備えた機種が普及してきている。全面タッチパネルを備えた機種は、タッチパネルにおいて、各種表示および操作の受け付けを行うことができるとともに、デザインも近代的で、多くの人から支持されている。
 このような、全面タッチパネルを備えた携帯情報端末に対し、ユーザは、指やペン等でタッチパネルに表示されたアイコン等をタッチすることにより各種操作を行っている。すなわち、片手(例えば左手)で携帯情報端末を把持し、他方の手(右手)でアイコン等をタッチしている。
 また、片手で携帯情報端末の把持および操作を行う場合は、ユーザは、携帯情報端末を把持したまま、タッチパネル上で指の届く範囲をタッチする。また、タッチパネル上で指の届かない範囲については、ユーザは、当該範囲に指が届くように携帯情報端末を持ち替える等して、操作を行っている。
 一方、パーソナルコンピュータ等では、画面にマウスカーソル(カーソル)が表示され、マウスでカーソルの位置を操作して、アイコン等が表示されている位置にカーソルを合わせて処理操作(ダブルクリック等)をすることにより、各種操作が行われている。
 なお、カーソルを移動させる従来技術として、特許文献1には、表示パネル上にスライドパッドを配設し、画面に接触することにより、画面に表示されているカーソルを移動させる方法が記載されている。
 また、特許文献2にも、接触した指等の位置の変化によりカーソルを移動させる方法が記載されている。
日本国公開特許公報「特開2001-34414号公報(公開日:2001年2月9日)」 日本国公開特許公報「特開平8-76927号公報(公開日:1996年3月22日)」
 ところで、カーソルを移動させて、移動先にあるアイコン等が示す処理を実行する場合、予め画面上にカーソルが表示されている必要がある。
 しかしながら、現行の技術では、アプリケーションが起動したときや、アプリケーションにおける何らかのモードが変更になったときに、カーソルを表示/非表示するものが散見されるのみであり、カーソルをユーザにとって使い勝手良く表示させるものはない。
 また、上記特許文献1、2も、カーソルの表示方法については言及していない。
 本発明は、上記の問題点に鑑みてなされたものであり、その目的は、ユーザにとって使い勝手良くカーソルを表示させることが可能な情報処理装置等を実現することにある。
 上記課題を解決するために、本発明に係る情報処理装置は、表示部に表示したアイコンに対する接触を検知して、該アイコンが示す処理を実行する情報処理装置において、少なくとも上記表示部に対する接触を含む、自装置に対する操作を検知するとともに、該接触の該表示部における接触位置を取得する操作検知手段と、上記操作検知手段が検知した操作および取得した接触位置が、当該動作を検知すると上記表示部にカーソルを表示する動作であるカーソル表示動作であって、予め定められたカーソル表示動作と一致したとき、上記操作検知手段が取得した接触位置にカーソルを表示させるカーソル表示手段と、上記カーソル表示手段が表示したカーソルを移動させるカーソル移動手段と、を備えていることを特徴としている。
 また、本発明に係る情報処理装置の制御方法は、表示部に表示したアイコンに対する接触を検知して、該アイコンが示す処理を実行する情報処理装置の制御方法であって、上記情報処理装置にて、操作検知手段が、少なくとも上記表示部に対する接触を含む、自装置に対する操作を検知するとともに、該接触の該表示部における接触位置を取得する操作検知ステップと、カーソル表示手段が、上記操作検知ステップで検知した操作および取得した接触位置が、当該動作を受け付けると上記表示部にカーソルを表示する動作であるカーソル表示動作であって、予め定められたカーソル表示動作と一致したとき、上記操作検知ステップで取得した接触位置にカーソルを表示させるカーソル表示ステップと、カーソル移動手段が、上記カーソル表示ステップで表示したカーソルを移動させるカーソル移動ステップと、を含むことを特徴としている。
 上記の構成または方法によれば、カーソル表示動作と一致する動作を検知したときに、接触位置にカーソルを表示させる。
 これにより、ユーザの指が届く範囲にカーソルを表示させるので、ユーザが容易にカーソルを操作できるようにすることができる。また、アイコンに対する接触と区別してカーソルを表示させるので、誤ってアイコンが示す処理が実行されてしまうことを防止しつつ、適切にカーソルを表示させることができる。
 したがって、ユーザにとって使い勝手良くカーソルを表示することができる。
 以上のように、本発明に係る情報処理装置は、少なくとも表示部に対する接触を含む、自装置に対する操作を検知するとともに、該接触の該表示部における接触位置を取得する操作検知手段と、上記操作検知手段が検知した操作および取得した接触位置が、当該動作を検知すると上記表示部にカーソルを表示する動作であるカーソル表示動作であって、予め定められたカーソル表示動作と一致したとき、上記操作検知手段が取得した接触位置にカーソルを表示させるカーソル表示手段と、上記カーソル表示手段が表示したカーソルを移動させるカーソル移動手段と、を備えている構成である。
 また、本発明に係る情報処理装置の制御方法は、情報処理装置にて、操作検知手段が、少なくとも表示部に対する接触を含む、自装置に対する操作を見地するとともに、該接触の該表示部における接触位置を取得する操作検知ステップと、カーソル表示手段が、上記操作検知ステップで検知した操作および取得した接触位置が、当該動作を受け付けると上記表示部にカーソルを表示する動作であるカーソル表示動作であって、予め定められたカーソル表示動作と一致したとき、上記操作検知ステップで取得した接触位置にカーソルを表示させるカーソル表示ステップと、カーソル移動手段が、上記カーソル表示ステップで表示したカーソルを移動させるカーソル移動ステップと、を含む方法である。
 これにより、ユーザの指が届く範囲にカーソルを表示させることができるので、ユーザが容易にカーソルを操作できるようにすることができるという効果を奏する。また、アイコンに対する接触と区別してカーソルを表示させるので、誤ってアイコンが示す処理が実行されてしまうことを防止しつつ、適切にカーソルを表示させることができるという効果を奏する。
 したがって、ユーザにとって使い勝手良くカーソルを表示することができるという効果を奏する。
本発明の実施の形態を示すものであり、携帯情報端末の要部構成を示すブロック図である。 上記携帯情報端末を示す図であり、図2の(a)は、携帯情報端末の外観を示す図であり、図2の(b)は、携帯情報端末を把持した状態を示す図である。 上記携帯情報端末における、カーソルを出現させる操作の内容を示す出現テーブルである。 上記携帯情報端末における動作の流れを示すフローチャートである。 上記携帯情報端末における動作の流れを示すフローチャートである。 上記携帯情報端末における動作の流れを示すフローチャートである。 上記携帯情報端末における動作の流れを示すフローチャートである。 上記携帯情報端末における動作の流れを示すフローチャートである。 上記携帯情報端末における動作の流れを示すフローチャートである。 上記携帯情報端末における動作の流れを示すフローチャートである。 上記携帯情報端末における動作の流れを示すフローチャートである。 ユーザの操作とカーソル表示との関係を示す説明図であり、図12の(a)は、表示部にメール画面が表示されている図であり、図12の(b)は、表示部にブラウザが表示されている図である。 ユーザの操作とカーソル表示との関係を示す説明図であり、図13の(a)は、カーソルを弾く前の様子を示す図であり、図13の(b)および(c)は、弾いたカーソルの進行方向を示す図であり、図13の(d)は、カーソルを弾いたあとに、特に操作が行われなかった様子を示す図である。 ユーザの操作とカーソル表示との関係を示す説明図である。 ユーザの操作とカーソル表示との関係を示す説明図である。 ユーザの操作とカーソル表示との関係を示す説明図である。 ユーザ操作とカーソル表示との関係を示す説明図であり、図17の(a)は、カーソルがアイコンの位置に移動する様子を示す図であり、図17の(b)は、カーソルから所定の距離の範囲に存在する全てのアイコンが選択される状態を示す図である。 ユーザの操作とカーソル表示との関係を示す説明図であり、図18の(a)は、カーソルが表示されている様子を示す図であり、図18の(b)は、カーソルが消去されている様子を示す図である。
 (全体概要)
 本発明の一実施の形態について図1から図18に基づいて説明すれば、以下のとおりである。本実施の形態に係る携帯情報端末(情報処理装置)1は、片手で把持可能な情報端末であり、全面タッチパネル(操作受付部2、表示部4)を備えているものである。図2は、携帯情報端末1の外観を示す図であり、図2の(a)は、携帯情報端末1の外観を示し、図2の(b)は、携帯情報端末1を把持した状態を示す。図2に示すように、携帯情報端末1には、音声出力部5、操作スイッチ16、音声入力部17が備えられている。なお、これらは必須の構成ではない。
 本実施の形態に係る携帯情報端末1では、図2の(b)に示すように、片手で携帯情報端末1を把持したまま、親指でタッチパネルである操作受付部2を操作できるものである。そして、例えば、親指が届かない位置に操作対象となるアイコンが存在する場合、親指近辺にカーソルを表示させる。そして、該カーソルが親指で弾かれると、カーソルを移動させ、所望のアイコンの位置にカーソルが移動してきたときに、再度、親指で操作受付部2をタップされると、アイコンの処理を行うことができるものである。
 これにより、片手のみで把持および操作可能な携帯情報端末1を実現することができる。
 (携帯情報端末1の構成)
 次に、図1を用いて、携帯情報端末1の要部構成について説明する。図1は、携帯情報端末1の要部構成を示すブロック図である。
 図1に示すように、本実施の形態に係る携帯情報端末1は、操作受付部2、加速度センサー3、表示部4、音声出力部5、制御部6、記憶部7、操作スイッチ16、および音声入力部17を含む構成である。また、制御部6は、接触検知部(操作検知手段)11およびカーソル処理部(カーソル移動手段)12を含み、接触検知部11は、接触位置取得部21および接触時間測定部22を含む構成である。また、カーソル処理部12は、カーソル表示処理部31およびカーソル決定処理部(処理実行手段)32を含み、カーソル表示処理部31は、カーソル出現処理部(カーソル表示手段)41およびカーソル移動処理部(カーソル移動手段)42を含む構成である。また、記憶部7には、カーソル表示テーブル記憶部51が含まれている。
 記憶部7のカーソル表示テーブル記憶部51には、入力位置を示すカーソルを出現させる操作を記憶している。ここで、カーソルとは、該カーソルが、表示部4に表示されているアイコンの位置にあるときに、実行操作(例えば、タップ)がなされると、該アイコンが示す処理が実行されるものである。すなわち、パーソナルコンピュータにおけるマウスカーソルと同じ機能を有するものである。
 また、記憶部7には、携帯情報端末1における各種処理に必要なプログラム、各種動作設定値、各種データ等も記憶している。記憶部7は、フラッシュメモリ、ROM(Read Only Memory)などの不揮発性の記憶デバイスと、RAM(Random Access Memory)などの揮発性の記憶デバイスとによって構成される。
 操作受付部2は、携帯情報端末1に対する操作を受け付けるものである。本実施の形態では表示と接触検知との両者を実現できるタッチパネル等のデバイスにより構成されており、表示部4と兼ねている。
 加速度センサー3は、携帯情報端末1自体の加速度を検出し、カーソル処理部12に通知するものである。加速度センサー3は、周知の技術で実現可能であるが、例えば、互いに直交する3つの軸方向の加速度を検出するようなセンサーで実現することができる。
 表示部4は、各種情報を表示するものである。本実施の形態では表示と接触検知との両者を実現できるタッチパネル等のデバイスにより構成されており、操作受付部2と兼ねている。
 音声出力部5は、音声が出力されるものであり、スピーカ等により実現される。音声入力部17は、音声の入力を受け付けるものであり、マイク等により実現される。
 操作スイッチ16は、携帯情報端末1の電源のオン/オフを行うスイッチである。
 制御部6は、携帯情報端末1におけるカーソル動作を実行するとともに、携帯情報端末1の各種処理を実行するものであり、接触検知部11およびカーソル処理部12を含んでいる。
 接触検知部11は、操作受付部2に対する接触(タップ)を検知するものであり、接触位置取得部21および接触時間測定部22を含んでいる。
 接触位置取得部21は、操作受付部2に対する接触があったときに、操作受付部2における接触位置(すなわち、表示部4における接触位置)を取得して、カーソル処理部12に通知するものである。
 接触時間測定部22は、操作受付部2に対する接触があったときに、接触が開始した時点からの時間を測定し、カーソル処理部12に通知するものである。
 カーソル処理部12は、カーソルの出現、動作、決定処理を行うものであり、カーソル表示処理部31、およびカーソル決定処理部32を含んでいる。
 カーソル表示処理部31は、カーソルの表示を処理するものであり、カーソル出現処理部41およびカーソル移動処理部42を含んでいる。
 カーソル出現処理部41は、接触検知部11から取得した操作受付部2に対する接触操作、および、加速度センサー3から取得した携帯情報端末1の加速度が、カーソル表示テーブル記憶部51に記憶されているカーソル出現操作と対応する場合に、表示部4の、接触位置に対応する位置にカーソルを出現させるものである。
 カーソル移動処理部42は、接触検知部11から取得した接触位置に応じて、カーソルを移動させるものである。より詳細には、接触位置取得部21から取得した接触位置の変化の方向に、接触位置の変化のスピードに応じた距離だけ、カーソルを移動させる。
 また、カーソル移動処理部42は、カーソル移動中に、操作受付部2が接触を受け付けると、接触位置に合わせたカーソル移動方向の修正、およびドラッグに対応するカーソル移動も行う。
 カーソル決定処理部32は、接触検知部11から取得した接触位置、および接触時間に応じて、カーソル位置に表示されているアイコン等のオブジェクトが示す処理を、該処理を行うアプリケーション等に実行させるものである。
 (出現操作の内容)
 次に、カーソル出現処理部41がカーソルの出現に用いるカーソル表示テーブル記憶部51の内容について、図3を用いて説明する。図3は、カーソルを出現させる操作の内容(カーソル表示動作)を示す出現テーブル301である。なお、カーソル出現処理部41がカーソルの出現に用いる操作内容は、出現テーブル301に記載された8つの場合に限定されない。
 出現テーブル301に示すように、カーソルを出現させる操作としては、次の8つの方法が挙げられる。
 第1は、表示部4にカーソルが表示されていない状態で、アイコンが表示されていない位置をタップ(接触)されると、タップされた位置にカーソルを表示するというものである。これにより、タップされるとすぐにカーソルを表示させることができ、ユーザに対し、速やかにカーソルを提示することができる。よって、ユーザは、速やかにカーソルを弾いて、所望の処理を実行させることができる。
 第2は、表示部4にカーソルが表示されていない状態で、アイコンが表示されていない位置をタップされ(操作A)、さらに当該タップが所定時間継続した以上の場合に(操作B、長タップ)、タップされた位置にカーソルを表示するというものである。
 これにより、所定時間以上継続してタップされた場合に、カーソルを表示する。そのため、ユーザがカーソルを出現させる意思が無いのに、誤ってアイコンが表示されていない位置をタップしてしまった場合に、誤ってカーソルを表示してしまうということを防止することができる。従って、正しくカーソル表示を行うことができる。
 また、上記のカーソル表示において、タップの継続時間が所定時間を超えるとすぐにカーソルを表示するのではなく、徐々にカーソルが浮かび上がってくるような表示としてもよい。そして、例えば、徐々に表示されるカーソルの色を、青→黄→赤としたり、灰→白としたりしてもよい。カーソルは、接触位置に表示される。接触位置にカーソルが徐々に浮かび上がってきている間に、ユーザが、操作受付部2に接触したまま、カーソルを弾き易い位置に指を移動させると、カーソルが、ユーザの指に付着するように浮かび上がりながら移動する。よって、ユーザに対し、カーソルの位置を認識させつつ、指で弾き易い位置にカーソルを移動させることができる。
 また、カーソル出現処理部41は、カーソルを表示するときに、表示するカーソルの輝度を徐々に高くしていくものであってもよい。また、カーソルは、カーソル自体の輝度が最も高くなった時点で、カーソル移動処理部42による移動が可能、すなわちユーザによる操作が可能となるものであってもよい。
 また、カーソルが表示されると、表示部4に表示されているアイコンを、選択できないようにグレーアウトさせてもよい。これにより、ユーザに対し、カーソルを弾くことが可能な状態になったことを認識させることができる。なお、アイコンは、カーソルが弾かれると元の表示に戻してもよい。
 第3は、表示部4にカーソルが表示されていない状態で、アイコンが表示されていない位置をタップされ(操作A)、さらにタップされたまま携帯情報端末1が揺らされた場合に(操作B)、タップされた位置にカーソルを表示するというものである。
 これにより、ユーザに対し、揺らすという直感的な操作感を与えることができる。また、タップされながら揺らされた場合にカーソルを表示するので、長タップされた場合にカーソルを表示するよりもタップ時間を短くしても、適切にカーソルを表示することが可能となる。なお、携帯情報端末1の揺れは、加速度センサー3によって検出することができる。
 第4は、表示部4にカーソルが表示されていない状態で、アイコンが表示されていない位置をタップされ(操作A)、かつ、タップされたまま指が上下に動かされた場合に(操作B)、タップされた位置にカーソルを表示するというものである。これにより、指を上下に移動させるという直感的な操作感をユーザに与えることができる。
 第5は、表示部4にカーソルが表示されていない状態で、カーソル出現ボタン(カーソル表示入力受付部、図示せず)が押下(カーソル表示指示)されたまま(操作B)、アイコンが表示されていない位置をタップされる(操作A)というものである。これにより、カーソル出現ボタンを押下するという直感的な操作感をユーザに与えることができる。
 第6は、表示部4にカーソルが表示されていない状態で、アイコンが表示されていない位置をタップされ(操作A)、さらにカーソル出現ボタンが押下される(操作B)というものである。この場合も、カーソル出現ボタンを押下するという直感的な操作感をユーザに与えることができる。
 第7は、表示部4にカーソルが表示されていない状態で、アイコンが表示されている位置をタップされ(操作A)、かつ、タップされたまま携帯情報端末1が揺らされた場合に(操作B)、タップされた位置にカーソルを表示するというものである。これにより、アイコンに対する操作機能を残したまま、カーソル出現を実行することができる。
 第8は、表示部4にカーソルが表示されていない状態で、アイコンが表示されている位置をタップされ(操作A)、かつ、タップされたまま指を上下に動かされた場合に(操作B)、タップされた位置にカーソルを表示するというものである。これにより、アイコンに対する操作機能を残したまま、カーソル出現を実行することができる。
 また、カーソルが表示されているときに、操作受付部2に接触している指を移動させずに、そのまま操作受付部2から離すと、表示されているカーソルが消える。これにより、カーソルが不要なときに消去することができる。
 (携帯情報端末1の動作)
 次に、図4~7を用いて、携帯情報端末1における動作について説明する。図4~7は、携帯情報端末1における動作の流れを示すフローチャートである。
 図4に示すように、携帯情報端末1は、操作受付部2でカーソル出現操作を受け付けると(S101、操作検知ステップ)、カーソル表示処理部31は表示部4にカーソルを表示させる(S102、カーソル表示ステップ)。
 次に、接触位置取得部21が、表示されたカーソルの近傍で接触があり、かつ、接触位置が所定距離以上移動し、かつ、接触位置の移動時間が所定時間以下であることを検知した場合(S103でYES)、カーソル移動処理部42は、表示されているカーソルを、接触位置取得部21が検知した方向に、接触位置取得部21が検知した接触位置の変化のスピードに応じた距離を、移動させる(S104、カーソル移動ステップ)。これは、ユーザがカーソルを弾いたことに対応する。
 その後、カーソルが表示部4の画面内に存在する間に(S105でYES)、再度、操作受付部2に対する接触(タップ)を検知し(S107でYES)、かつ、該接触の接触時間が所定の時間未満の場合(S109でNOで、S108でYES)、カーソル決定処理部32は、その時点におけるカーソルの位置でタップ処理を行う(S115、処理実行ステップ)。ここで、タップ処理とは、カーソルの位置に存在するアイコンが示す処理を実行することをいう。
 また、操作受付部2に対する接触を検知することなく(S107でNO)、所定の時間が経過した場合(S116でYES)、カーソル処理部12は、表示部4に表示しているカーソルを消去する(S117)。
 一方、接触時間が所定時間以上継続した場合(S109でYES)、カーソル移動処理部42は、カーソル移動修正処理を行う(S110、カーソル移動ステップ)。カーソル移動修正処理については後述する。
 カーソル移動修正処理後、操作受付部2でドラッグを受け付けると(S111でYES)、カーソル移動処理部42は、ドラッグに基づくカーソル移動を行う(S112)。具体的には、ドラッグの動きと同じようにカーソルを移動させる。その後、カーソルが表示部4の画面の端部まで移動すると(S113でYES)、カーソル処理部12は、表示部4に表示されている画面をスクロールさせる(S114)。そして、ステップS111に戻る。
 一方、カーソル移動修正処理後、操作受付部2でドラッグを受け付けることがなかった場合(S111でNO)、ステップS105に戻る。
 また、カーソルが表示部4の画面の端部まで移動しなかった場合(S113でNO)、ステップS105に戻る。その後、ドラックが解除されると(S106でYES)、カーソル決定処理部32は、その時点におけるカーソルの位置でタップ処理を行う(S115)。
 以上が、携帯情報端末1における動作の流れである。
 次に、図5、6を用いて、カーソル移動修正処理の流れについて説明する。
 図5に示すように、カーソル移動修正処理では、まず、カーソル移動処理部42は、接触検知部11から取得した接触位置が、カーソル進行方向を示す、カーソルを含む線(以降、進行方向線と呼ぶ)上にあるか否かを判定する(S201)。そして、接触位置が進行方向線上にある場合(S201でYES)、カーソル移動修正処理を終了してステップS111へ進む。
 一方、接触位置が進行方向線上にない場合(S201でNO)、カーソル移動処理部42は、接触位置が進行方向線よりも右か否かを判定する(S202)。そして、接触位置が進行方向線よりも右にある場合(S202でYES)、カーソル移動処理部42は、カーソルの移動方向を右方向に修正しながら移動させる(S203)。一方、接触位置が、進行方向線よりも右にない場合(S202でNO)、カーソル移動処理部42は、カーソルの移動方向を左方向に修正しながら移動させる(S204)。以上が、カーソル移動修正処理の流れである。
 なお、接触位置の判定は、進行方向線よりも右か否かではなく、最初に接触した位置よりも表示部4の画面上で右か否かで判定してもよい。
 また、ステップS201の代わりに、図6のステップS211、S212に示す処理を行ってもよい。すなわち、カーソル移動処理部42は、まず、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じか否かを判定する(S211)。そして、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じであれば(S211でYES)、カーソル移動処理部42は、接触を検知した時点におけるカーソルの位置から最も近い位置にあるオブジェクト(アイコン、ファイル、WEBリンク等を含む)の位置にカーソルを移動させる(S212)。そして、カーソル移動修正処理を終了する。
 一方、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じでなければ(S211でNO)、ステップS202へ進む。
 また、ステップS212の代わりに、図7のステップS221に示す処理を行ってもよい。すなわち、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じ場合(S211でYES)、カーソル移動処理部42は、現在のカーソル位置にカーソルを停止させるとともに、カーソルから所定の距離の範囲に存在するオブジェクト(アイコン、ファイル、WEBリンク等を含む)を全て選択された状態とする(S221)。そして、カーソル移動修正処理を終了する。
その後、ステップS111で、ドラッグ操作を受け付けると(S111でYES)、カーソル移動処理部42は、選択された状態のオブジェクトが全て選択されていない状態にする。
 また、カーソル移動修正処理については、図8のような流れであってもよい。
 まず、カーソル移動処理部42は、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じか否かを判定する(S301)。そして、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じである場合(S201でYES)、カーソル移動修正処理を終了する。
 一方、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じでない場合(S301でNO)、カーソル移動処理部42は、接触位置が、進行方向線よりも右か否かを判定する(S302)。そして、接触位置が、進行方向線よりも右である場合(S302でYES)、カーソル移動処理部42は、カーソルの移動方向を右方向に修正しながら移動させる(S303)。一方、接触位置が、進行方向線よりも右でなければ(S302でNO)、カーソル移動処理部42は、カーソルの移動方向を左方向に修正しながら移動させる(S304)。
 次に、カーソル移動処理部42は、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置よりもカーソルの進行方向寄りか否かを判定する(S305)。そして、カーソルの進行方向寄りである場合(S305でYES)、カーソル移動処理部42は、カーソルの移動速度を加速して速くする(S306)。一方、カーソルの進行方向寄りでない場合(S305でNO)、カーソル移動処理部42は、カーソルの移動速度を減速して遅くする(S307)。
 また、ステップS301でYESの場合に、図9のステップS311に示す処理を行ってもよい。すなわち、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じであれば(S301でYES)、カーソル移動処理部42は、接触を検知した時点におけるカーソルの位置から最も近い位置にあるオブジェクトの位置にカーソルを移動させる(S311)。そして、カーソル移動修正処理を終了する。
 また、ステップS301でYESの場合に、図10のステップS321に示す処理を行ってもよい。すなわち、接触検知部11から取得した接触位置が、カーソル出現操作における接触位置と同じであれば(S301でYES)、カーソル移動処理部42は、現在のカーソル位置にカーソルを停止させるとともに、カーソルから所定の距離の範囲に存在するオブジェクトを全て選択された状態にする(S321)。そして、カーソル移動修正処理を終了する。
 以上が、カーソル移動修正処理の流れである。
 また、カーソル移動修正処理に代えて、図11に示すような処理を行ってもよい。図11に示すように、カーソル移動処理部42は、まず、接触検知部11から取得した接触位置と、カーソル出現操作における接触位置との関係を調べる(S401)。そして、接触検知部11から取得した接触位置と、カーソル出現操作における接触位置との関係について、表示部4の画面における上側方向の変化量が最大であれば(S402でYES)、カーソル処理部12は、表示部4に表示されている画面を上側にスクロールする(S403)。また、接触検知部11から取得した接触位置と、カーソル出現操作における接触位置との関係について、表示部4の画面における上側方向の変化量が最大でなく(S402でNO)、下側方向の変化量が最大であれば(S404でYES)、カーソル処理部12は、表示部4に表示されている画面を下側にスクロールする(S405)。
 また、接触検知部11から取得した接触位置と、カーソル出現操作における接触位置との関係について、表示部4の画面における下側方向の変化量が最大でなく(S404でNO)、右側方向の変化量が最大であれば(S406でYES)、カーソル処理部12は、表示部4に表示されている画面を右側にスクロールする(S407)。
 また、接触検知部11から取得した接触位置と、カーソル出現操作における接触位置との関係について、表示部4の画面における右側方向の変化量が最大でなく(S406でNO)、左側方向の変化量が最大であれば(S408でYES)、カーソル処理部12は、表示部4に表示されている画面を左側にスクロールする(S409)。
 また、表示部4の画面における左側方向の変化量が最大でなければ(S408でNO)、画面をスクロールすることなく処理を終了する。
 以上のような処理とすることで、ユーザは、操作受付部2に所定の時間以上接触(タップ)すると画面をスクロールすることができ、その後のドラッグ操作により、所望のアイコンを実行することができる。
 (表示例)
 次に、図12~18を用いて、ユーザの操作とカーソル表示について説明する。図12~18は、ユーザの操作とカーソル表示との関係を示す説明図である。
 図12は、カーソルを表示させる操作を示す図であり、図12の(a)は、表示部4にメール画面が表示されている図であり、図12の(b)は、表示部4にブラウザが表示されている図である。
 図12の(a)に示すように、ユーザは、メール画面において、送信ボタン803をタップするために、親指801を表示部4(操作受付部2)に接触させたまま上下に移動させる。すると、カーソル移動処理部42は、カーソル802を、親指801が表示部4に接触している位置に表示する。親指801によって表示されたカーソル802が送信ボタン803方向に弾かれた場合、カーソル移動処理部42は、カーソル802を送信ボタン803方向に移動させる。そして、カーソル802が送信ボタン803の位置に到達したところで、再度、親指801で表示部4がタップされた場合、カーソル決定処理部32は、送信ボタン803がタップされたときの処理を行う。
 また、図12の(b)に示すように、ブラウザ画面においてリンクボタン804をタップする操作も同様である。ユーザが親指801を表示部4に接触させたまま上下に移動させると、カーソル移動処理部42は、カーソル802を表示する。そして、親指801によって、表示されたカーソル802がリンクボタン804方向に弾かれた場合、カーソル移動処理部42は、カーソル802をリンクボタン804方向に移動させる。そして、カーソル802がリンクボタン804の位置に到達した時点で、親指801によって、再度、表示部4がタップされた場合、カーソル決定処理部32は、リンクボタン804がタップされた場合の処理を実行する。
 図13は、カーソルを表示させ、移動させる様子を示す説明図である。図13の(a)は、カーソルを弾く前の様子を示す図である。図13の(b)(c)は、弾いたカーソルの進行方向を示す図である。図13の(d)は、カーソルを弾いたあとに、特に操作が行われなかった様子を示す図である。
 図13の(a)に示すように、カーソル出現処理部41は、カーソル出現処理を受け付けると、親指901が接触していた位置にカーソル902を表示させる。ユーザは、領域(アイコン)900をタップするために、カーソル902を親指901で領域900方向に弾く。カーソル移動処理部42は、カーソル902が弾かれたこと、すなわち、カーソル902近傍で所定距離以上の接触があったことの通知を接触検知部11から受け付けると、図13の(b)に示すように、接触位置が変化する方向である矢印905方向にカーソル902を移動させる。
 また、図13の(c)に示すように、カーソル近傍で所定距離以上の接触があり、かつ、接触位置の移動速度が図13(b)における該移動速度よりも遅い場合、カーソル移動処理部42は、矢印908に示すように、図13の(b)の場合と比較してカーソル902が移動する距離を短くする。そして、図13の(d)に示すように、カーソル902が移動した後、ユーザが何の操作も行わない場合、カーソル表示処理部31は、カーソル902を消去する(カーソル跡911)。
 次に、図14を用いて、操作受付部2がタップされた場合の動作を説明する。画面例1001に示すようにカーソル902が親指901によって弾かれたことを受け付けると、カーソル移動処理部42は、カーソル902を移動させる。そして、カーソル902が移動中に、再度、操作受付部2に対する接触があった場合、カーソル決定処理部32は、接触があった時点におけるカーソル902の位置でタップ処理を行う。画面例1002では、カーソル902の移動が開始された位置と領域900との間にカーソル902が存在するときに、操作受付部2に対する接触があった場合の動作を示す。また、画面例1003は、カーソル902が領域900に到達したときに、操作受付部2に対する接触があった場合の動作を示す。
 次に、図15を用いて、カーソル902の移動方向が修正される動作を説明する。画面例1101に示すように、カーソル902が親指901で弾かれたことを受け付けると、画面例1102に示すように、カーソル移動処理部42は、弾かれた方向にカーソル902を移動させる。このとき、操作受付部2に対し、所定時間以上の接触(長タップ)があった場合、画面例1103に示すように、カーソル移動処理部42は、長タップされた方向にカーソル902の移動方向を修正する(矢印1108)。
 次に、図16を用いて、カーソル902の移動後の動作について説明する。画面例1201に示すように、カーソル902が親指901で弾かれたことを受け付けると、カーソル移動処理部42は、カーソル902を移動させる。そして、操作受付部2に対する長タップがあった場合、画面例1202に示すように、カーソル移動処理部42は長タップされた方向にカーソル902の移動方向を修正する(矢印1205)。
 また、画面例1203に示すように、親指901によるドラッグを受け付けると、カーソル移動処理部42は、受け付けたドラッグの方向と同じ方向に、カーソル902の移動方向を修正する。そして、画面例1204に示すように、ドラッグにより、カーソル902が表示部4の端部に移動すると、カーソル処理部12は、表示画面をカーソル902が位置する方向(図16の例では上方向)にスクロールさせる。
 次に、図17を用いて、カーソルの進行方向線上をタップされた場合の動作について説明する。図17は、進行方向線上をタップされた場合の動作を示す図である。図17の(a)は、タップされた時点で、カーソルに最も近い位置に存在したアイコンにカーソルが移動する設定における動作を示す図である。図17の(b)は、タップされたときにカーソルが停止し、カーソルから所定の距離の範囲に存在するアイコンが全て選択された状態となる設定における動作を示す図である。
 図17の(a)に示すように、カーソル902が最も近いアイコンに向かって移動する設定においては、カーソル902を移動中に、進行方向線上を親指901でタップされた場合、カーソル移動処理部42は、そのときのカーソル902の位置902aから最も近いところに存在するアイコン921の位置902bにカーソル902を移動させる。
 また、図17の(b)に示すように、カーソル902から所定の距離の範囲に存在するアイコンが全て選択された状態になる設定においては、進行方向線上を親指901でタップされた場合、カーソル移動処理部42は、カーソル902を停止し、カーソル902の位置から所定の距離の範囲930に存在する領域(アイコン)900、アイコン921が選択された状態にする。
 なお、進行方向線上をタップされるのではなく、カーソル902を弾いた地点から所定の範囲内をタップされた場合、カーソル移動処理部42は、そのときのカーソル902の位置から最も近いところに存在するアイコンの位置にカーソル902を移動するか、または、カーソル902の位置から所定の距離の範囲に存在するアイコンが選択された状態にするものであってもよい。
 次に、図18を用いて、カーソルの表示および消去の動作について説明する。図18の(a)は、カーソル902を表示する動作を示す図であり、図18の(b)は、カーソル902を消去する動作を示す図である。
 図18の(a)に示すように、タップが有効なオブジェクト(アイコン)1310が、親指901が届かない位置に存在する場合に、カーソル出現処理部41は、オブジェクト1310をタップするためのカーソル902を表示させる。その後、ユーザが、親指901の接触位置を変更せずに、そのまま操作受付部2から離すと、図18の(b)に示すように、カーソル出現処理部41は、表示部4に表示したカーソル902を消去する(カーソル跡1303)。
 (付記事項1)
 カーソル出現処理部41は、アプリケーションに関係なく、次のような操作によって、カーソルを出現させてもよい。
 まず、入力が確定するまでに、操作受付部2に接触している指が上下にドラッグされる場合に、カーソル出現処理部41はカーソルを出現させてもよい。この場合、最初に接触された位置に存在したアイコンに対するカーソル決定処理部32によるタップ処理の実行はキャンセルされる。
 また、操作受付部2に所定時間以上の接触があった場合に、カーソル出現処理部41はカーソルを出現させてもよい。この場合も、最初に接触された位置に存在したアイコンに対するカーソル決定処理部32によるタップ処理の実行はキャンセルされる。
 また、携帯情報端末1はカーソル出現ボタンを備えていてもよい。そして、この構成において、上記カーソル出現ボタンを押下されながら、操作受付部2に接触があった場合に、カーソルを出現させてもよい。この場合、接触があった位置に存在したアイコンに対するカーソル決定処理部32によるタップ処理の実行はキャンセルされる。
 また、操作受付部2が接触されながら、上記カーソル出現ボタンが押下された場合に、カーソル出現処理部41はカーソルを出現させてもよい。この場合、接触があった位置に存在したアイコンに対するカーソル決定処理部32によるタップ処理の実行はキャンセルされる。
 また、操作受付部2が接触されながら、携帯情報端末1が揺らされた場合に、カーソル出現処理部41はカーソルを出現させてもよい。この場合、接触があった位置に存在したアイコンに対するカーソル決定処理部32によるタップ処理は実行されないか、実行がキャンセルされる。なお、操作受付部2に対する接触があった時点から、所定の時間が経過した後に携帯情報端末1が揺らされた場合、カーソル出現処理部41は、カーソル出現処理を行わず、接触の長押し(長タップ)がされた場合における処理を行う。
 また、カーソル出現ボタンを押下された場合に、カーソル出現処理部41はカーソル出現モードになり、この状態で操作受付部2に接触があった場合に、カーソル出現処理部41はカーソルを出現させてもよい。また、カーソル出現モードの状態では、カーソル出現処理部41は、表示部4に「画面をタップするとカーソルが表示されます」等の表示を行ってもよい。また、カーソル出現モードの状態において、再度カーソル出現ボタンが押下された場合に、カーソル出現処理部41は通常のモードに戻ってもよい。
 また、メニュー表示にカーソル出現ボタンを設けてもよい。この構成において、該カーソル出現ボタンがタップされた場合に、カーソル出現処理部41はカーソルを出現させてもよい。
 (付記事項2)
 また、カーソル出現処理部41は、各アプリケーションの特徴に応じ、次のような操作によって、カーソルを出現させてもよい。
 まず、アプリケーションが電子メールソフトであるならば、文字入力中に文字入力ボタン以外の位置をタップされた場合に、カーソル出現処理部41はカーソルを出現させてもよい。すなわち、タップされた位置に、文字入力アイコンがない場合、カーソル出現処理部41はカーソルを出現させる。ユーザは、出現したカーソルを弾いて送信ボタンまで移動させてタップすることにより、送信ボタンを選択することができる。
 また、アプリケーションがブラウザであるならば、文字等が入力され、ソフトキーボードの閉じるボタンが押下されると、カーソル出現処理部41はボタンが押下された位置にカーソルを出現させてもよい。ユーザは、出現したカーソルを弾いて確認ボタンまたは添付ボタンまで移動させてタップすることにより、確認ボタンまたは添付ボタンを選択することができる。
 また、上記ブラウザにおいて、ウェブ画面内のリンクや画像が表示されていない位置を長タップされると、カーソル出現処理部41はタップされた位置にカーソルを出現させてもよい。これにより、ユーザは、出現したカーソルを弾いて所望のアイコンまで移動させ、該アイコンを選択することができる。また、ユーザは、ドラッグを行って表示部4の端部にカーソルを移動させることにより、画面をスクロールすることができる。
 また、上記ブラウザにおいて、ブラウザの下部にバーを設けてもよい。この構成において、上記バーがブラウザの画面内にドラッグされた場合に、カーソル出現処理部41はカーソルを出現させてもよい。または、上記バーを長タップされた場合に、カーソル出現処理部41はカーソルを出現させてもよい。
 また、ユーザが、アプリケーションにおいて検索を実行するための文字を入力中に、文字入力ボタン以外の位置をタップした場合、カーソル出現処理部41はカーソルを出現させてもよい。すなわち、タップされた位置に文字入力ボタンがない場合に、カーソル出現処理部41はカーソルを出現させてもよい。ユーザは、出現したカーソルを弾いて検索ボタンまで移動させて、該検索ボタンを選択することができる。
 また、アプリケーションがカレンダーソフトであるならば、カレンダーの枠外をタップされた場合に、カーソル出現処理部41はカーソルを出現させてもよい。また、カレンダーが月表示されているならば、今月以外の月の部分を長タップされた場合に、カーソル出現処理部41はカーソルを出現させてもよい。一方、今月以外の月の部分を短タップ(長タップ以外のタップ)された場合、上記アプリケーションは当該月の日付入力を受け付けるモードとなってもよい。
 また、上記カレンダーソフトにおいて、カレンダーが週表示されている状態で、日を表示している帯の上をタップされた場合、カーソル出現処理部41はカーソルを出現させてもよい。また、カレンダーが日表示されている状態で、時間を表示している帯の上をタップされた場合に、カーソル出現処理部41はカーソルを出現させてもよい。
 上記カレンダーソフトにおいて、カーソルが出現した後、ユーザは、カーソルを弾いて所望のアイコンまで移動させて、該アイコンを実行させることもできる。また、ユーザは、ドラッグにより画面をスクロールさせて、表示されていなかった部分を表示させることもできる。
 (付記事項3)
 ファイルエクスプローラーが表示されている状態で、ファイルアイコン以外の位置をタップされた場合、カーソル出現処理部41はカーソルを出現させてもよい。ユーザは、出現したカーソルを弾いて所望のアイコンまで移動させて、該アイコンを選択することができる。
 (ソフトウェアによる処理)
 最後に、携帯情報端末1の各ブロック、特に制御部6の接触検知部11(接触位置取得部21、接触時間測定部22)、およびカーソル処理部12(カーソル表示処理部31、カーソル出現処理部41、カーソル移動処理部42、カーソル決定処理部32)は、集積回路(ICチップ)上に形成された論理回路によってハードウェア的に実現していてもよいし、CPU(central processing unit)を用いてソフトウェア的に実現してもよい。
 後者の場合、携帯情報端末1は、各機能を実現する制御プログラムの命令を実行するCPU、上記プログラムを格納したROM(read only memory)、上記プログラムを展開するRAM(random access memory)、上記プログラムおよび各種データを格納するメモリ等の記憶装置(記録媒体)などを備えている。そして、本発明の目的は、上述した機能を実現するソフトウェアである携帯情報端末1の制御プログラムのプログラムコード(実行形式プログラム、中間コードプログラム、ソースプログラム)をコンピュータで読み取り可能に記録した記録媒体を、上記携帯情報端末1に供給し、そのコンピュータ(またはCPUやMPU(microprocessor unit))が記録媒体に記録されているプログラムコードを読み出し実行することによっても、達成可能である。
 上記記録媒体としては、例えば、磁気テープやカセットテープ等のテープ類、フロッピー(登録商標)ディスク/ハードディスク等の磁気ディスクやCD-ROM(compact disc read-only memory)/MO(magneto-optical)/MD(Mini Disc)/DVD(digital versatile disk)/CD-R(CD Recordable)等の光ディスクを含むディスク類、ICカード(メモリカードを含む)/光カード等のカード類、マスクROM/EPROM(erasable programmable read-only memory)/EEPROM(electrically erasable and programmable read-only memory)/フラッシュROM等の半導体メモリ類、あるいはPLD(Programmable logic device)やFPGA(Field Programmable Gate Array)等の論理回路類などを用いることができる。
 また、携帯情報端末1を通信ネットワークと接続可能に構成し、上記プログラムコードを通信ネットワークを介して供給してもよい。この通信ネットワークは、プログラムコードを伝送可能であればよく、特に限定されない。例えば、インターネット、イントラネット、エキストラネット、LAN(local area network)、ISDN(integrated services digital network)、VAN(value-added network)、CATV(community antenna television)通信網、仮想専用網(virtual private network)、電話回線網、移動体通信網、衛星通信網等が利用可能である。また、この通信ネットワークを構成する伝送媒体も、プログラムコードを伝送可能な媒体であればよく、特定の構成または種類のものに限定されない。例えば、IEEE(institute of electrical and electronic engineers)1394、USB、電力線搬送、ケーブルTV回線、電話線、ADSL(asynchronous digital subscriber loop)回線等の有線でも、IrDA(infrared data association)やリモコンのような赤外線、Bluetooth(登録商標)、IEEE802.11無線、HDR(high data rate)、NFC(Near Field Communication)、DLNA(Digital Living Network Alliance)、携帯電話網、衛星回線、地上波デジタル網等の無線でも利用可能である。なお、本発明は、上記プログラムコードが電子的な伝送で具現化された、搬送波に埋め込まれたコンピュータデータ信号の形態でも実現され得る。
 (補足)
 以上のように、本発明に係る情報処理装置としての携帯情報端末1は、表示部4に表示したアイコンに対する接触を検知して、該アイコンが示す処理を実行する。携帯情報端末1は、表示部4に対する接触を含む、自装置に対する操作を検知するとともに、該接触の該表示部における接触位置を取得する接触検知部11と、接触検知部11が検知した操作および取得した接触位置が予め定められたカーソル表示動作と一致したとき、接触検知部11が取得した接触位置にカーソルを表示させるカーソル出現処理部41と、カーソル出現処理部41が表示したカーソルを移動させるカーソル移動処理部42と、を備えている。
 これにより、ユーザにとって使い勝手良くカーソルを表示させることができる。
 本発明にかかる情報処理装置では、上記カーソル移動手段によるカーソル移動が終了したときの上記カーソルの位置に存在するアイコンが示す処理を実行する処理実行手段を備えていてもよい。
 上記の構成によれば、移動後のカーソル位置に存在するアイコンが示す処理を実行するので、ユーザの手が届かない位置にアイコンが存在していても、カーソルを移動させることにより、アイコンが示す処理を実行することができる。これにより、ユーザに対し、アイコンが示す処理の実行を容易に行わせることができる。
 本発明に係る情報処理装置では、上記カーソル表示動作は、上記表示部における上記アイコンが表示されている位置と異なる位置に対する接触であることであってもよい。
 上記の構成によれば、アイコンが表示されている位置と異なる位置の接触を受け付けるとカーソルを表示する。よって、表示部に対する接触を受け付けたときに、アイコンに対する処理を実行するのか、カーソルを表示するのか明確に区別することができ、アイコンに対する処理とカーソル表示とが混同してしまうことを防止することができる。
 本発明に係る情報処理装置では、上記カーソル表示動作は、上記表示部に対する接触の接触開始時点からの経過時間が所定時間以上であることであってもよい。
 上記の構成によれば、接触の経過時間が所定時間以上となるとカーソルを表示するので、単に接触してしまったというような、カーソルを表示させる意図がない場合に、カーソルを表示してしまうということを防止することができる。
 また、本発明に係る情報処理装置では、上記カーソル表示動作は、上記表示部における接触位置が、最初に接触した位置から所定の範囲内を往復することであってもよい。
 上記の構成によれば、接触位置が、最初に接触した位置から所定の範囲内を往復するという明確な動作によって、カーソルを表示する。よって、ユーザの明確な意図があった場合にのみカーソルを表示することができる。
 また、アイコンが表示されている位置であっても、アイコンに対する処理を実行する接触の方法とは異なるので、アイコンが示す処理を実行させることなく、アイコンが表示されている位置にカーソルを表示することができる。
 本発明に係る情報処理装置では、上記操作検知手段は、上記表示部に対する接触を検知するとともに、自装置の揺れを検知するものであり、上記カーソル表示動作は、上記表示部に対する接触および自端末の揺れが同時に行われることであることであってもよい。
 上記の構成によれば、自端末が揺らされたという明確な動作によって、カーソルを表示する。よって、ユーザの明確な意図があった場合にのみカーソルを表示することができる。
 また、接触位置がアイコンが表示されている位置であっても、アイコンが示す処理を実行させることなく、アイコンが表示されている位置にカーソルを表示することができる。
 本発明に係る情報処理装置では、カーソル表示指示の入力を受け付けるカーソル表示入力受付部を備え、上記操作検知手段は、上記表示部に対する接触を検知するとともに、上記カーソル表示入力部がカーソル表示指示の入力を受け付けたことを検知するものであり、上記カーソル表示動作は、上記表示部に対する接触後、該接触があったまま、上記カーソル表示指示の入力があることであってもよい。
 上記の構成によれば、表示部に対する接触とカーソル表示指示という明確な動作によって、カーソルを表示する。よって、ユーザの明確な意図があった場合にのみカーソルを表示することができる。
 また、接触位置がアイコンが表示されている位置であっても、アイコンが示す処理を実行させることなく、アイコンが表示されている位置にカーソルを表示することができる。
 本発明に係る情報処理装置では、カーソル表示指示の入力を受け付けるカーソル表示入力受付部を備え、上記操作検知手段は、上記表示部に対する接触を検知するとともに、上記カーソル表示入力受付部がカーソル表示指示の入力を受け付けたことを検知するものであり、上記カーソル表示動作は、上記カーソル表示指示が入力された後、上記表示部に対する接触があることであってもよい。
 上記の構成によれば、表示部に対する接触とカーソル表示指示という明確な動作によって、カーソルを表示する。よって、ユーザの明確な意図があった場合にのみカーソルを表示することができる。
 また、接触位置がアイコンが表示されている位置であっても、アイコンが示す処理を実行させることなく、アイコンが表示されている位置にカーソルを表示することができる。
 本発明に係る情報処理装置では、上記カーソル表示手段は、カーソルを表示するとき、表示するカーソルの輝度を所定の輝度まで徐々に高くし、上記カーソル移動手段は、上記カーソルの輝度が上記所定の輝度となった後、カーソルを移動することであってもよい。
 上記の構成によれば、ユーザに対し、視覚的に変化を持たせたカーソルを提示することができるとともに、カーソルが操作可能となったタイミングを的確に提供することができる。
 本発明に係る情報処理装置では、上記カーソル表示手段は、カーソルを表示した後、上記操作検知手段が表示部に対する接触を検知し、該接触の接触位置が移動せずに該接触を検知しなくなったとき、表示したカーソルを消去するものであってもよい。
 上記の構成によれば、接触位置を移動させずに接触が終わると、カーソルを消去するので、ユーザに対し、カーソルが不要なときに容易に消去させることができる。
 なお、上記情報処理装置は、コンピュータによって実現してもよく、この場合には、コンピュータを上記各手段として動作させることにより上記情報処理装置をコンピュータにて実現させる情報処理装置の制御プログラム、およびそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した実施の形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能である。すなわち、請求項に示した範囲で適宜変更した技術的手段を組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 携帯情報端末を、片手で把持し、把持している手の届かない位置でもタップすることができるので、片手で把持しつつ、該片手で画面を操作するような携帯情報端末に好適である。
  1  携帯情報端末(情報処理装置)
  4  表示部
 11  接触検知部(操作検知手段)
 12  カーソル処理部(カーソル移動手段)
 21  接触位置取得部(操作検知手段)
 22  接触時間測定部(操作検知手段)
 32  カーソル決定処理部(処理実行手段)
 41  カーソル出現処理部(カーソル表示手段)
 42  カーソル移動処理部(カーソル移動手段)

Claims (13)

  1.  表示部に表示したアイコンに対する接触を検知して、該アイコンが示す処理を実行する情報処理装置において、
     少なくとも上記表示部に対する接触を含む、自装置に対する操作を検知するとともに、該接触の該表示部における接触位置を取得する操作検知手段と、
     上記操作検知手段が検知した操作および取得した接触位置が、当該動作を検知すると上記表示部にカーソルを表示する動作であるカーソル表示動作であって、予め定められたカーソル表示動作と一致したとき、上記操作検知手段が取得した接触位置にカーソルを表示させるカーソル表示手段と、
     上記カーソル表示手段が表示したカーソルを移動させるカーソル移動手段と、を備えていることを特徴とする情報処理装置。
  2.  上記カーソル移動手段によるカーソル移動が終了したときの上記カーソルの位置に存在するアイコンが示す処理を実行する処理実行手段を備えていることを特徴とする請求項1に記載の情報処理装置。
  3.  上記カーソル表示動作は、上記表示部における上記アイコンが表示されている位置と異なる位置に対する接触があることであることを特徴とする請求項1に記載の情報処理装置。
  4.  上記カーソル表示動作は、上記表示部に対する接触の接触開始時点からの経過時間が所定時間以上であることであることを特徴とする請求項1に記載の情報処理装置。
  5.  上記カーソル表示動作は、上記表示部における接触位置が、最初に接触した位置から所定の範囲内を往復することであることを特徴とする請求項1に記載の情報処理装置。
  6.  上記操作検知手段は、上記表示部に対する接触を検知するとともに、自装置の揺れを検知するものであり、
     上記カーソル表示動作は、上記表示部に対する接触および自装置の揺れが同時に行われることであることを特徴とする請求項1に記載の情報処理装置。
  7.  カーソル表示指示の入力を受け付けるカーソル表示入力受付部を備え、
     上記操作検知手段は、上記表示部に対する接触を検知するとともに、上記カーソル表示入力受付部がカーソル表示指示の入力を受け付けたことを検知するものであり、
     上記カーソル表示動作は、上記表示部に対する接触後、該接触があったまま、上記カーソル表示指示の入力があることであることを特徴とする請求項1に記載の情報処理装置。
  8.  カーソル表示指示の入力を受け付けるカーソル表示入力受付部を備え、
     上記操作検知手段は、上記表示部に対する接触を検知するとともに、上記カーソル表示入力受付部がカーソル表示指示の入力を受け付けたことを検知するものであり、
     上記カーソル表示動作は、上記カーソル表示指示が入力された後、上記表示部に対する接触があることであることを特徴とする請求項1に記載の情報処理装置。
  9.  上記カーソル表示手段は、カーソルを表示するとき、表示するカーソルの輝度を所定の輝度まで徐々に高くし、
     上記カーソル移動手段は、上記カーソルの輝度が上記所定の輝度となった後、カーソルを移動することを特徴とする請求項1~8のいずれか1項に記載の情報処理装置。
  10.  上記カーソル表示手段は、カーソルを表示した後、上記操作検知手段が表示部に対する接触を検知し、該接触の接触位置が移動せずに該接触を検知しなくなったとき、表示したカーソルを消去することを特徴とする請求項1~9のいずれか1項に記載の情報処理装置。
  11.  請求項1~10のいずれか1項に記載の情報処理装置を動作させる情報処理装置制御プログラムであって、コンピュータを上記の各手段として機能させるための情報処理装置制御プログラム。
  12.  請求項11に記載の情報処理装置制御プログラムを記録したコンピュータ読み取り可能な記録媒体。
  13.  表示部に表示したアイコンに対する接触を検知して、該アイコンが示す処理を実行する情報処理装置の制御方法であって、
     上記情報処理装置にて、
     操作検知手段が、少なくとも上記表示部に対する接触を含む、自装置に対する操作を検知するとともに、該接触の該表示部における接触位置を取得する操作検知ステップと、
     カーソル表示手段が、上記操作検知ステップで検知した操作および取得した接触位置が、当該動作を検知すると上記表示部にカーソルを表示する動作であるカーソル表示動作であって、予め定められたカーソル表示動作と一致したとき、上記操作検知ステップで取得した接触位置にカーソルを表示させるカーソル表示ステップと、
     カーソル移動手段が、上記カーソル表示ステップで表示したカーソルを移動させるカーソル移動ステップと、を含むことを特徴とする情報処理装置の制御方法。
PCT/JP2012/057232 2011-03-23 2012-03-21 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体 WO2012128296A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-064471 2011-03-23
JP2011064471A JP2012203433A (ja) 2011-03-23 2011-03-23 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Publications (1)

Publication Number Publication Date
WO2012128296A1 true WO2012128296A1 (ja) 2012-09-27

Family

ID=46879438

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/057232 WO2012128296A1 (ja) 2011-03-23 2012-03-21 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体

Country Status (2)

Country Link
JP (1) JP2012203433A (ja)
WO (1) WO2012128296A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2799971A2 (en) * 2013-05-03 2014-11-05 Samsung Electronics Co., Ltd. Method of operating touch screen and electronic device thereof
JP2016197435A (ja) * 2016-07-05 2016-11-24 京セラ株式会社 携帯端末及びユーザインターフェース制御プログラム
WO2017195472A1 (ja) * 2016-05-11 2017-11-16 シャープ株式会社 情報処理装置、情報処理装置の制御方法、および制御プログラム
US9891805B2 (en) 2012-12-21 2018-02-13 Kyocera Corporation Mobile terminal, and user interface control program and method

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014089522A (ja) 2012-10-29 2014-05-15 Kyocera Corp 電子機器及び制御プログラム並びに電子機器の動作方法
CN104516663B (zh) * 2013-09-29 2018-10-12 华为技术有限公司 浏览翻页方法及设备
US10353567B2 (en) 2013-11-28 2019-07-16 Kyocera Corporation Electronic device
JP6410537B2 (ja) * 2014-09-16 2018-10-24 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03263088A (ja) * 1990-03-14 1991-11-22 Fujitsu Ltd カーソル表示方式
JP2010211352A (ja) * 2009-03-09 2010-09-24 Victor Co Of Japan Ltd タッチパネル座標指定方法およびタッチパネル座標指定装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03263088A (ja) * 1990-03-14 1991-11-22 Fujitsu Ltd カーソル表示方式
JP2010211352A (ja) * 2009-03-09 2010-09-24 Victor Co Of Japan Ltd タッチパネル座標指定方法およびタッチパネル座標指定装置

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9891805B2 (en) 2012-12-21 2018-02-13 Kyocera Corporation Mobile terminal, and user interface control program and method
EP2799971A2 (en) * 2013-05-03 2014-11-05 Samsung Electronics Co., Ltd. Method of operating touch screen and electronic device thereof
EP2799971A3 (en) * 2013-05-03 2014-11-12 Samsung Electronics Co., Ltd. Method of operating touch screen and electronic device thereof
US9652056B2 (en) 2013-05-03 2017-05-16 Samsung Electronics Co., Ltd. Touch-enable cursor control method and electronic device thereof
WO2017195472A1 (ja) * 2016-05-11 2017-11-16 シャープ株式会社 情報処理装置、情報処理装置の制御方法、および制御プログラム
JP2016197435A (ja) * 2016-07-05 2016-11-24 京セラ株式会社 携帯端末及びユーザインターフェース制御プログラム

Also Published As

Publication number Publication date
JP2012203433A (ja) 2012-10-22

Similar Documents

Publication Publication Date Title
WO2012128296A1 (ja) 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2012128292A1 (ja) 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
US20230185447A1 (en) Information Processing Device, Operation Input Method And Operation Input Program
AU2021203022B2 (en) Multifunction device control of another electronic device
US9372556B2 (en) Electronic device, informing control method, and storage medium storing control program
CN110851068B (zh) 用于管理用户界面的方法和电子设备
EP3966678A1 (en) Handwriting entry on an electronic device
EP3105669B1 (en) Application menu for video system
US9013422B2 (en) Device, method, and storage medium storing program
US9703382B2 (en) Device, method, and storage medium storing program with control for terminating a program
AU2022200268A1 (en) Devices and methods for manipulating user interfaces with a stylus
US9535503B2 (en) Methods and devices for simultaneous multi-touch input
WO2019232131A1 (en) Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
US9952760B2 (en) Mobile terminal, non-transitory computer readable storage medium, and combination control method
WO2012160920A1 (ja) 情報処理装置、情報処理装置の制御方法、情報処理装置制御プログラムおよび該プログラムを記録したコンピュータ読み取り可能な記録媒体
WO2017113379A1 (zh) 一种用户界面的菜单显示方法及手持终端
US20110141142A1 (en) Device, Method, and Graphical User Interface for Managing User Interface Content and User Interface Elements
KR20150079829A (ko) 제스처에 기반한 대화 처리 방법, 장치, 단말 장치, 프로그램 및 기록 매체
JP5805685B2 (ja) 電子機器、制御方法、及び制御プログラム
CN105393201B (zh) 用于管理同时打开的软件应用的设备、方法和图形用户界面
JP2014035603A (ja) 情報処理装置、表示処理方法、表示処理制御プログラム、記録媒体
JP2014056400A (ja) 情報処理装置、情報処理装置の制御方法、制御プログラム、および、記録媒体
WO2017035740A1 (zh) 一种选择文本的方法
JP2016099948A (ja) 電子機器
JP2014081891A (ja) 電子機器、電子機器の制御方法、電子機器の制御プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12759905

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12759905

Country of ref document: EP

Kind code of ref document: A1