WO2012127733A1 - 情報処理装置、情報処理装置の制御方法、および、プログラム - Google Patents

情報処理装置、情報処理装置の制御方法、および、プログラム Download PDF

Info

Publication number
WO2012127733A1
WO2012127733A1 PCT/JP2011/076080 JP2011076080W WO2012127733A1 WO 2012127733 A1 WO2012127733 A1 WO 2012127733A1 JP 2011076080 W JP2011076080 W JP 2011076080W WO 2012127733 A1 WO2012127733 A1 WO 2012127733A1
Authority
WO
WIPO (PCT)
Prior art keywords
display unit
information processing
contact point
processing apparatus
display
Prior art date
Application number
PCT/JP2011/076080
Other languages
English (en)
French (fr)
Inventor
樋口 和俊
Original Assignee
Necカシオモバイルコミュニケーションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Necカシオモバイルコミュニケーションズ株式会社 filed Critical Necカシオモバイルコミュニケーションズ株式会社
Priority to US13/978,440 priority Critical patent/US9563337B2/en
Priority to CN2011800692011A priority patent/CN103403660A/zh
Priority to JP2013505774A priority patent/JPWO2012127733A1/ja
Priority to EP11861343.9A priority patent/EP2690536A4/en
Publication of WO2012127733A1 publication Critical patent/WO2012127733A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus

Definitions

  • the present invention relates to an information processing apparatus in which operation input is performed via a touch panel, a control method for the information processing apparatus, and a program.
  • information processing apparatuses such as smartphones and portable game machines have a display unit and a touch panel that is arranged on the display unit and detects contact of a pointing unit such as a finger or a stylus pen. Some operations are input.
  • an operation image including an operation button indicating the operation content is displayed on the display unit, and is displayed on the operation button by bringing an instruction unit into contact with the operation button. Processing according to the operation content is performed.
  • the user can perform the operation input intuitively, which is easy to use, and the physical key structure for the operation input can be reduced from the information processing apparatus. Therefore, for example, the size of the display unit can be increased by the amount that the key structure is reduced.
  • the size of the display unit is limited to a size that fits in the user's palm. The If the entire operation image is displayed while the size of the display unit is limited, the display of the operation button may be reduced, and it may be difficult to select the operation button.
  • Patent Document 1 Japanese Patent Laid-Open No. 2003-330613
  • Patent Document 2 Japanese Patent Laid-Open No. 2010-204781
  • Information processing that scrolls the display on the display unit by the amount corresponding to the movement amount of the contact point in the same direction as the movement direction of the contact point accompanying the drag operation when a drag operation to slide the contact point is input after the contact is made
  • An apparatus is disclosed. According to this information processing apparatus, by displaying only a part of the region on the operation image on the display unit, the display of the operation button is prevented from becoming too small, and the target operation button is displayed on the display unit. If not, the desired operation button can be displayed by scrolling the display on the display unit.
  • the present invention provides an information processing apparatus, a control method for the information processing apparatus, and a program that can solve the above-described problems and can reduce the labor of operation input.
  • the information processing apparatus of the present invention provides: A display unit; A touch panel that is arranged on the display unit, detects contact or proximity of the instruction means, and outputs a detection result;
  • a display unit A touch panel that is arranged on the display unit, detects contact or proximity of the instruction means, and outputs a detection result;
  • the control method of the information processing apparatus of the present invention comprises: Displaying all or part of the operation image on the display unit of the information processing apparatus; When a part of the operation image is displayed on the display unit, the touch panel arranged on the display unit, detects contact or proximity of the instruction unit, and outputs a detection result, and the instruction unit
  • a drag operation is performed to slide a contact point or a close contact point, a movement direction and a movement amount of the contact point associated with the drag operation are specified, and the specified movement amount is set in a direction opposite to the specified movement direction.
  • the display on the display unit is scrolled by a corresponding amount.
  • the program of the present invention In the information processing device, Processing for displaying the whole or part of the operation image on the display unit of the information processing apparatus; When a part of the operation image is displayed on the display unit, the touch panel arranged on the display unit, detects contact or proximity of the instruction unit, and outputs a detection result, and the instruction unit When a drag operation is performed to slide a contact point or a close contact point, a movement direction and a movement amount of the contact point associated with the drag operation are specified, and the specified movement amount is set in a direction opposite to the specified movement direction. And a process of scrolling the display on the display unit by a corresponding amount.
  • FIG. 1 It is a block diagram which shows the structure of the information processing apparatus of the 1st Embodiment of this invention. It is a flowchart which shows operation
  • FIG. 1 is a block diagram showing the configuration of the information processing apparatus according to the first embodiment of this invention.
  • An information processing apparatus 10 shown in FIG. 1 includes a CPU (Central Processing Unit) 11, a memory 12, a display unit 13, a touch panel 14, a key input unit 15, a communication unit 16, a microphone 17, and a speaker 18.
  • a CPU Central Processing Unit
  • Specific examples of the information processing apparatus 10 include a smartphone, a portable game machine, a notebook type or a tablet type personal computer.
  • the CPU 11 is an example of a control unit, and is connected to each unit described above to control each unit.
  • the memory 12 includes a ROM (Read Only Memory) and a RAM (Random Access Memory), stores various control programs executed by the CPU 11 and fixed data in the ROM, and the CPU 11 executes various control programs. Temporarily necessary data is stored in the RAM.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the display unit 13 displays various images such as operation images under the control of the CPU 11.
  • the touch panel 14 is arranged on the display surface of the display unit 13 so as to detect the contact of the pointing means such as a finger and a stylus pen, and outputs information such as the coordinates of the contact point to the CPU 11 as a detection result. Note that the touch panel 14 can also detect the proximity of the instruction unit and output information such as the coordinates of the contact point using the point at which the instruction unit approaches as a contact point.
  • the key input unit 15 When the key input unit 15 is pressed for operation input, the key input unit 15 outputs information indicating the pressed state to the CPU 11.
  • the communication unit 16 communicates with other information processing apparatuses and the like via a network according to the control of the CPU 11.
  • the microphone 17 outputs audio data obtained by collecting ambient sounds to the CPU 11.
  • the speaker 18 outputs sound according to the control of the CPU 11.
  • the target operation button When the target operation button is on the left side of the region displayed on the display unit 13 on the operation image in a state where a part of the region on the operation image is displayed, the target operation button is displayed. In addition, it is necessary to scroll the display on the display unit 13 in the right direction.
  • the display of the display unit 13 is scrolled in the direction opposite to the moving direction of the contact point. Therefore, in order to scroll the display on the display unit 13 in the right direction, a drag operation for sliding the contact point in the left direction is performed. Along with this drag operation, the contact point moves to the left, the display on the display unit 13 is scrolled to the right, and the target operation button is displayed from the left on the display unit 13. The operation buttons are displayed on the display unit 13 so as to approach each other. Therefore, the area displayed on the display unit 13 in accordance with the drag operation is added to the display area in the direction in which the drag operation is currently displayed, and the display area in the direction of scrolling the display on the display unit 13 is added. Since it is twice as large as the area, the amount of movement of the contact point can be reduced compared with the case where the display on the display unit is scrolled in the same direction as the movement direction of the contact point. it can.
  • the contact point can be moved onto the target operation button. If the drag operation is released while the contact point is on the operation button, the operation button is processed as being selected. Therefore, scrolling of the display on the display unit 13 and selection of the operation button can be performed by one drag operation, so that it is possible to reduce the labor of operation input.
  • the CPU 11 clears the scroll amount of the display unit 13 stored in the memory 12 (step S101).
  • the CPU 11 displays a virtual keyboard on the display unit 13.
  • FIG. 3 is a diagram showing a state where the virtual keyboard 22 including the virtual input key 21 is displayed on the display unit 13.
  • the CPU 11 has a selection item display range 24 and a selection result display range 25 on the display surface of the display unit 13 inside the effective detection range 23 in which the touch panel 14 detects the contact of the instruction unit 20.
  • a part of the virtual keyboard 22 is displayed in the selection item display range 24, and characters corresponding to the selected virtual input key are displayed in the selection result display range 25.
  • the area displayed in the selection item display range 24 is indicated by a solid line, and the area other than the area displayed in the selection item display range 24 is indicated by a dotted line. It is intended to make it easier, and it doesn't mean there is a real situation.
  • the virtual input key 21 corresponding to the character “w” (hereinafter referred to as the virtual input key 21W) on the display unit 13.
  • the virtual input key 21 ⁇ / b> W is not displayed on the display unit 13
  • the user brings the instruction unit 20 into contact with the touch panel 14 in order to scroll the display on the display unit 13 by performing a drag operation.
  • FIG. 4 it is assumed that the pointing means 20 is touched on a virtual input key 21 (hereinafter referred to as virtual input key 21M) corresponding to the character “m”.
  • CPU11 determines whether the contact of the instruction means 20 was performed based on the output from the touch panel 14 (step S102).
  • the touch panel 14 outputs information such as the coordinates of the contact point to the CPU 11.
  • step S102 If it is determined that the instruction means 20 has made contact with the touch panel 14 based on the output from the touch panel 14 (step S102: Yes), the CPU 11 uses the coordinates of the contact point as the moving direction and moving amount of the contact point associated with the drag operation. Is set as a starting point for specifying and stored in the memory 12 (step S103).
  • the CPU 11 determines whether the contact point is on the virtual input key 21 displayed on the display unit 13 according to whether the coordinates of the contact point are within the area where the virtual input key 21 is displayed. It is determined whether or not (step S104).
  • step S104 If the contact point is not on the virtual input key 21 (step S104: No), the CPU 11 proceeds to the process of step S106 described later.
  • step S104 When the contact point is on the virtual input key 21 (step S104: Yes), the CPU 11 highlights the virtual input key 21 on the display unit 13 (step S105).
  • the pointing means touches the virtual input key 21M
  • the coordinates of the contact point are within the area where the virtual input key 21M is displayed.
  • the CPU 11 causes the display unit 13 to reversely display the virtual input key 21 ⁇ / b> M as an input candidate.
  • highlighting an example in which the input candidate virtual input key 21 is highlighted is described.
  • the present invention is not limited to this.
  • the input candidate virtual input key 21 is displayed. May be enlarged or the characters on the virtual input key 21 may be displayed thickly.
  • the CPU 11 determines whether or not the contact between the instruction unit 20 and the touch panel 14 is continued (step S106).
  • step S106 If the touch to the touch panel 14 continues (step S106: Yes), the CPU 11 determines whether or not the contact point has moved from the starting point (step S107).
  • step S107: No If the contact point has not moved (step S107: No), the CPU 11 returns to the process of step S106.
  • step S107: Yes the CPU 11 causes the display unit 13 to cancel the reverse display of the virtual input key 21 (step S108).
  • the CPU 11 specifies the moving direction and moving amount of the contact point from the starting point, determines the scroll amount of display on the display unit 13 according to the specified moving direction and moving amount (step S109), and the memory 12 Remember me.
  • the CPU 11 stores, in the memory 12, a point moved by the movement amount specified in the movement direction specified from the starting point stored in the memory 12 in step S ⁇ b> 103 as a new starting point, and the display unit 13 stores the determined scroll amount.
  • the display is scrolled (step S110).
  • the CPU 11 scrolls the display of the display unit 13 in the direction opposite to the moving direction of the contact point by an amount equal to the moving amount of the contact point. Therefore, when the contact point indicated by the movement vector 51 in FIG. 5 is moved, the size of the vector is the same as that of the movement vector 51, and the virtual keyboard 22 is moved by the display scroll vector 52 of the opposite direction.
  • An image is displayed in the selection item display range 24. Therefore, the area on the operation image displayed on the display unit 13 is increased with a small amount of movement of the contact point, compared with the case where the display unit is scrolled in the same direction as the movement direction of the contact point. It is possible to reduce input labor.
  • the size of the display scroll vector 52 may be larger or smaller than the size of the moving vector 51. Further, the size of the display scroll vector 52 is the same as the size of the movement vector 51 when the moving speed of the contact point is less than a predetermined threshold, and the moving speed of the contact point is equal to or larger than the predetermined threshold. In this case, it may be made larger than the size of the movement vector 51.
  • CPU11 returns to the process of step S102 after performing the process of step S110.
  • the CPU 11 repeats the processing from step S102 to step S110 at predetermined time intervals, for example, so that the virtual input key is reversed and the reversed display is released according to the movement of the contact point accompanying the drag operation. It is.
  • step S105 Since the touch point is on the virtual input key 21W, the CPU 11 highlights the virtual input key 21W (step S105), and then the instruction unit 20 is released from the touch panel 14 (step S106: No). It is determined whether or not the release point at which 20 is separated from the touch panel 14 is within the detection effective range 23 (step S111).
  • step S111: Yes the CPU 11 determines whether or not the release point is on the virtual input key 21 that is highlighted (step S112).
  • step S112 When the release point is on the virtual input key 21 that is highlighted (step S112: Yes), the CPU 11 assumes that the virtual input key 21 has been selected, and the characters corresponding to the virtual input key 21 are displayed. Is displayed in the selection result display range 25 (step S113). As described above, the virtual input key 21W is highlighted and the instruction means 20 is released in a state where the contact point is on the virtual input key 21W, so that the character “w” is selected as shown in FIG. It is displayed in the result display range 25.
  • step S114 After canceling the reverse display of the virtual input key 21 on the display unit 13 (step S114), the CPU 11 ends the input process of one character.
  • step S112 If the release point is not on the highlighted virtual input key 21 (step S112: No), the drag operation is canceled at a position deviating from the target virtual input key 21. Since there is a high possibility that the operation has been performed, the CPU 11 proceeds to the process of step S114 without any virtual input key 21 being selected.
  • a virtual input key 21 (hereinafter referred to as a virtual input key 21E) corresponding to the character “e” is displayed in the selection item display range 24, as shown in FIG.
  • the CPU 11 performs steps S101 to S106 and S111 to S114, and selects the character “e” on the display unit 13. It is displayed in the result display range 25.
  • step S102 when the CPU 11 detects the contact of the instruction unit 20 to the touch panel 14 (step S102: Yes) and determines that the contact point is on the virtual input key 21E (step S104: Yes), the virtual input key 21E is highlighted (step S105).
  • step S106: No When the instruction means 20 is released (step S106: No), the CPU 11 displays the character “e” in the selection result display range 25 of the display unit 13 because the release point is on the virtual input key 21E (step S113). Then, the reverse display of the virtual input key 21E is canceled (step S114).
  • the virtual input key 21 corresponding to the character “l” (hereinafter referred to as the virtual input key 21L) is not displayed in the selection item display range 24 as shown in FIG.
  • the user performs a drag operation toward the virtual input key 21L.
  • the virtual input key 21L is displayed as a selection item in the display scrolling of the display unit 13 according to the amount of movement of the contact point. Suppose that it cannot be displayed in the range 24. In this case, the user leaves the instruction means 20 in contact with the touch panel 14 beyond the effective detection range 23.
  • step S106 the CPU 11 applies the instruction means 20 to the touch panel 14 at step S106. It determines with the contact not continuing, and progresses to the process of step S111. In the process of step S ⁇ b> 111, the CPU 11 determines a point where the contact point has reached the outer edge of the detection effective range 23 as a release point, and determines whether the release point is within the detection effective range 23 of the touch panel 14.
  • the CPU 11 determines that the release point is not within the effective detection range 23 (No at Step S111). In this case, the CPU 11 returns to the process of step S ⁇ b> 102 and waits for the contact point to recover within the effective detection range 23.
  • step S115 the CPU 11 reduces the scroll amount stored in the memory 12 (step S115). Further, the CPU 11 scrolls the display on the display unit 13 by the scroll amount after reduction, and updates the starting point stored in the memory 12 to the coordinates of the point moved from the starting point by the scroll amount after reduction (step). S116). Therefore, when the contact point of the instruction means 20 with the touch panel 14 reaches the outer edge of the detection effective range 23 in accordance with the drag operation, as shown in FIG. 9, the direction of the vector is opposite to the movement vector 51 of the contact point. In addition to the display scroll vector 52 having the same size, the display on the display unit 13 is scrolled by the size of the vector 53 having the same direction as the display scroll vector 52. The size of the vector 53 is a size corresponding to the scroll amount after reduction stored in the memory 12 in step S115.
  • the CPU 11 determines whether or not the virtual keyboard 22 exceeds the selection item display range 24 of the display unit 13 (step S117).
  • step S118: Yes the CPU 11 returns to the process of step S102.
  • step S117: No the CPU 11 determines that the display scroll limit of the display unit 13 has been reached and ends the process. .
  • step S102 Yes
  • the CPU 11 returns to the process of step S103.
  • the user waits for the virtual input key 21L to be displayed in the selection item display range 24, As shown in FIG. 10, if the point of contact with the touch panel 14 of the pointing unit 20 is returned to the effective detection range 23 and the point of contact 20 is on the virtual input key 21L and the pointing unit 20 is moved away from the touch panel 14, the characters “L” is input.
  • the fourth character “l” is input by releasing the touch panel 14 after the pointing means 20 is brought into contact with the virtual input key 21L. Note that the input procedure for the fourth character “l” is the same as the input procedure for the character “e”, and thus description thereof is omitted.
  • the information processing apparatus 10 scrolls the display on the display unit 13 in the direction opposite to the moving direction of the contact point accompanying the drag operation.
  • the information processing apparatus 10 assumes that the operation button is selected when the release point of the drag operation is on the operation button, and the content of the operation indicated by the operation button is determined. Perform appropriate processing.
  • the information processing apparatus 10 highlights the operation button when the contact point is on the operation button.
  • the information processing apparatus 10 displays an operation image inside the effective detection range 23, and when the contact point reaches the outer edge of the effective detection range 23 due to the drag operation, the contact associated with the drag operation is performed.
  • the moving direction and moving amount of the point are specified, and the display on the display unit 13 is scrolled in the direction opposite to the specified moving direction until the contact point is detected again within the effective detection range.
  • FIG. 12 is a block diagram showing the configuration of the information processing apparatus according to the second embodiment of this invention.
  • the 12 includes a display unit 61, a touch panel 62, and a control unit 63.
  • Display unit 61 displays various images such as operation images.
  • the touch panel 62 is arranged so as to overlap the display unit 61, detects the contact or proximity of the instruction means 20, and outputs a detection result.
  • the control unit 63 displays, for example, the entire or part of the operation image on the display unit 61.
  • the control unit 63 specifies the moving direction and the moving amount of the contact point accompanying the drag operation. Further, the control unit 63 scrolls the display on the display unit by an amount corresponding to the movement amount specified in the direction opposite to the specified movement direction.
  • the information processing apparatus 60 scrolls the display of the display unit 61 in the direction opposite to the moving direction of the contact point.
  • the method performed by the information processing apparatus of the present invention may be applied to a program for causing a computer to execute.
  • the program can be stored in a storage medium and can be provided to the outside via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 本発明の情報処理装置は、表示部と、前記表示部に重ね合わせて配置され、指示手段の接触または近接を検出し、検出結果を出力するタッチパネルと、操作画像の全体または一部を前記表示部に表示させ、前記操作画像の一部を前記表示部に表示させている場合に、前記指示手段と前記タッチパネルとが接触または近接した接触点をスライドさせるドラッグ操作が行われると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記特定した移動方向とは反対方向に前記特定した移動量に対応する量だけ前記表示部の表示をスクロールさせる制御部と、を有する。

Description

情報処理装置、情報処理装置の制御方法、および、プログラム
 本発明は、タッチパネルを介して操作入力が行われる情報処理装置、情報処理装置の制御方法、および、プログラムに関する。
 近年、スマートフォン、携帯型ゲーム機などの情報処理装置には、表示部と表示部に重ね合わせて配置され、指、スタイラスペンなどの指示手段の接触を検出するタッチパネルとを有し、タッチパネルを介して操作入力が行われるものがある。
 タッチパネルを介して操作入力が行われる情報処理装置においては、操作内容を示す操作ボタンを含む操作画像が表示部に表示され、操作ボタン上に指示手段を接触させることで、その操作ボタンに示される操作内容に応じた処理が行われる。タッチパネルを介した操作入力によれば、ユーザにとっては直感的に操作入力を行うことができるので使い勝手がよく、また、操作入力のための物理的なキー構造を情報処理装置から削減することができるので、例えば、キー構造が削減された分だけ表示部のサイズを大きくすることができる。
 しかし、情報処理装置がスマートフォンなどのようにユーザに携帯されるものである場合には、携帯性が重要視されるため、表示部のサイズは、利用者の掌に納まる程度のサイズに制限される。表示部のサイズに制限がある中で操作画像全体を表示すると、操作ボタンの表示が小さくなり、操作ボタンの選択が行いにくくなるおそれがある。
 そこで、特許文献1(特開2003-330613号公報)および特許文献2(特開2010-204781号公報)には、操作画像上の一部の領域を表示部に表示させ、指示手段をタッチパネルに接触させた後、接触点をスライドさせるドラッグ操作が入力されると、ドラッグ操作に伴う接触点の移動方向と同じ方向に接触点の移動量に応じた量だけ表示部の表示をスクロールさせる情報処理装置が開示されている。この情報処理装置によれば、操作画像上の一部の領域だけを表示部に表示させることで、操作ボタンの表示が小さくなりすぎることを防止し、また、目的の操作ボタンが表示部に表示されていない場合には、表示部の表示をスクロールさせることで、目的の操作ボタンを表示させることができる。
特開2003-330613号公報 特開2010-204781号公報
 しかしながら、特許文献1,2に開示されるような、接触点の移動方向と同じ方向に表示部の表示をスクロールさせる情報処理装置においては、表示部に表示される領域はスクロールする方向に限定されることとなる。このため、目的の操作ボタンを見つけにいという課題がある。
 本発明は、上述した課題を解決し、操作入力の手間の削減を図ることができる情報処理装置、情報処理装置の制御方法、および、プログラムを提供することにある。
 上記目的を達成するために本発明の情報処理装置は、
 表示部と、
 前記表示部に重ね合わせて配置され、指示手段の接触または近接を検出し、検出結果を出力するタッチパネルと、
 操作画像の全体または一部を前記表示部に表示させ、前記操作画像の一部を前記表示部に表示させている場合に、前記指示手段と前記タッチパネルとが接触または近接した接触点をスライドさせるドラッグ操作が行われると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記特定した移動方向とは反対方向に前記特定した移動量に対応する量だけ前記表示部の表示をスクロールさせる制御部と、を有する。
 上記目的を達成するための本発明の情報処理装置の制御方法は、
 操作画像の全体または一部を前記情報処理装置の表示部に表示させ、
 前記操作画像の一部を前記表示部に表示させている場合に、前記表示部に重ね合わせて配置され、指示手段の接触または近接を検出し、検出結果を出力するタッチパネルと前記指示手段とが接触または近接した接触点をスライドさせるドラッグ操作が行われると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記特定した移動方向とは反対方向に前記特定した移動量に対応する量だけ前記表示部の表示をスクロールさせる。
 上記目的を達成するために本発明のプログラムは、
 情報処理装置に、
 操作画像の全体または一部を前記情報処理装置の表示部に表示させる処理と、
 前記操作画像の一部を前記表示部に表示させている場合に、前記表示部に重ね合わせて配置され、指示手段の接触または近接を検出し、検出結果を出力するタッチパネルと前記指示手段とが接触または近接した接触点をスライドさせるドラッグ操作が行われると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記特定した移動方向とは反対方向に前記特定した移動量に対応する量だけ前記表示部の表示をスクロールさせる処理と、を実行させる。
 本発明によれば、操作入力の手間の削減を図ることができる。
本発明の第1の実施形態の情報処理装置の構成を示すブロック図である。 図1に示す情報処理装置の動作を示すフローチャートである。 図1に示す表示部の表示の一例を示す図である。 図1に示す表示部の表示の遷移の一例を示す図である。 図1に示す表示部の表示の遷移の他の一例を示す図である。 図1に示す表示部の表示の遷移のさらに他の一例を示す図である。 図1に示す表示部の表示の遷移のさらに他の一例を示す図である。 図1に示す表示部の表示の遷移のさらに他の一例を示す図である。 図1に示す表示部の表示の遷移のさらに他の一例を示す図である。 図1に示す表示部の表示の遷移のさらに他の一例を示す図である。 図1に示す表示部の表示の遷移のさらに他の一例を示す図である。 本発明の第2の実施形態の情報処理装置の構成を示すブロック図である。
 以下に、本発明を実施するための形態について図面を参照して説明する。
 (第1の実施形態)
 図1は、本発明の第1の実施形態の情報処理装置の構成を示すブロック図である。
 図1に示す情報処理装置10は、CPU(Central Processing Unit)11と、メモリ12と、表示部13と、タッチパネル14と、キー入力部15と、通信部16と、マイク17と、スピーカ18と、を有する。なお、情報処理装置10に具体例としては、スマートフォン、携帯型ゲーム機、ノート型あるいはタブレット型のパーソナルコンピュータなどがある。
 CPU11は、制御部の一例であり、上述した各部と接続され、各部を制御する。
 メモリ12は、ROM(Read Only Memory)とRAM(Random Access Memory)とからなり、CPU11が実行する各種制御プログラム、固定的なデータなどをROMに格納し、CPU11が各種制御プログラムを実行する上で一時的に必要となるデータをRAMに格納する。
 表示部13は、CPU11の制御に従い、操作画像など種々の画像を表示する。
 タッチパネル14は、表示部13の表示面に重ね合わせて配置され、指、スタイラスペンなどの指示手段の接触を検出し、接触点の座標などの情報を検出結果としてCPU11に出力する。なお、タッチパネル14は、指示手段の近接を検出し、指示手段が近接した点を接触点として、その接触点の座標などの情報を出力することも可能である。
 キー入力部15は、操作入力のために押下げなどが行われると、押下げの状態などを示す情報をCPU11に出力する。
 通信部16は、CPU11の制御に従い、他の情報処理装置などとネットワークを介して通信する。
 マイク17は、周囲の音を集音した音声データをCPU11に出力する。
 スピーカ18は、CPU11の制御に従い、音を出力する。
 次に、本実施形態の情報処理装置10の動作の概要について説明する。
 操作画像上の一部の領域が表示されている状態で、目的の操作ボタンが操作画像上において表示部13に表示されている領域の左側にある場合には、目的の操作ボタンを表示させるために、表示部13の表示を右方向にスクロールさせる必要がある。
 特許文献1,2に開示のように、接触点の移動方向と同じ方向に表示部の表示をスクロールさせる場合には、表示部の表示を右方向にスクロールさせるために、接触点を右方向にスライドさせるドラッグ操作が行われる。このドラッグ操作に伴い、表示部の表示が右方向にスクロールされ、表示部13の左方向から目的の操作ボタンが表示されるが、接触点は右方向に移動しているため、目的の操作ボタンを選択するためには、指示手段をタッチパネルから離してドラッグ操作を解除し、その後、再度、目的の操作ボタンを選択するために指示手段をタッチパネルに接触させる必要がある。
 一方、本実施形態の情報処理装置10においては、接触点の移動方向と反対方向に表示部13の表示をスクロールさせる。したがって、表示部13の表示を右方向にスクロールさせるために、接触点を左方向にスライドさせるドラッグ操作が行われる。このドラッグ操作に伴い、接触点は左方向に移動するとともに、表示部13の表示は右方向にスクロールされ、表示部13の左方向から目的の操作ボタンが表示されるので、接触点に目的の操作ボタンが近づいてくるように表示部13上では表示される。したがって、ドラッグ操作に伴って表示部13に表示される領域が、現在表示されているドラッグ操作を行う方向の表示領域に表示部13の表示をスクロールする方向の表示領域が加えられ、従来の表示領域の2倍になるので、接触点の移動方向と同じ方向に表示部の表示をスクロールさせる場合と比較して、接触点の移動量は少なくて済み、操作入力の手間の削減を図ることができる。
 また、本実施形態の情報処理装置10においては、表示部13上では接触点に目的の操作ボタンが近づいてくるように表示されるので、目的の操作ボタン上に接触点を移動させることができ、接触点が操作ボタン上にある状態でドラッグ操作が解除されると、その操作ボタンが選択されたものとして処理する。したがって、表示部13の表示のスクロールと操作ボタンの選択とを1つのドラッグ操作で行うことができるので、操作入力の手間の削減を図ることができる。
 次に、本実施形態の情報処理装置10の具体的な動作について、図2に示すフローチャートを参照して具体的に説明する。
 なお、以下では、文字、記号などに対応する仮想入力キーを含む仮想キーボードを表示部13に表示し、指示手段20を用いて仮想入力キーを選択することで文字入力が行われる文字入力アプリケーションを用いて文字入力が行われる場合を例として説明する。
 タッチパネル14などを介して文字入力アプリケーションを起動させる旨が入力されると、CPU11は、メモリ12に記憶されている表示部13の表示のスクロール量をクリアする(ステップS101)。
 次に、CPU11は、仮想キーボードを表示部13に表示させる。
 図3は、表示部13に仮想入力キー21を含む仮想キーボード22が表示されている状態を示す図である。
 図3に示すように、CPU11は、タッチパネル14が指示手段20の接触を検出する検出有効範囲23よりも内側の表示部13の表示面上に、選択項目表示範囲24と選択結果表示範囲25とを設定し、選択項目表示範囲24に仮想キーボード22の一部の領域を表示させ、選択結果表示範囲25に選択された仮想入力キーに対応する文字などを表示させる。なお、以下では、仮想キーボード22において、選択項目表示範囲24に表示される領域については実線で示し、選択項目表示範囲24に表示される領域以外の領域については点線で示しているが、理解を容易にするためのものであり、実態があるわけではない。
 以下では、図3に示す状態から、「well」という4文字の入力が行われる場合を例として説明する。
 まず、文字「w」の入力について説明する。
 文字「w」の入力を行うためには、文字「w」に対応する仮想入力キー21(以下、仮想入力キー21Wと称する)を表示部13に表示させる必要がある。図3においては、仮想入力キー21Wは表示部13に表示されていないので、ユーザは、ドラッグ操作を行って表示部13の表示をスクロールさせるために、指示手段20をタッチパネル14に接触させる。以下では、図4に示すように、文字「m」に対応する仮想入力キー21(以下、仮想入力キー21Mと称する)上に指示手段20の接触が行われたものとする。
 CPU11は、タッチパネル14からの出力に基づき、指示手段20の接触が行われたか否かを判定する(ステップS102)。
 上述したように、指示手段20の接触が行われているので、タッチパネル14は、接触点の座標などの情報をCPU11に出力する。
 タッチパネル14からの出力に基づき、指示手段20のタッチパネル14への接触が行われたと判定すると(ステップS102:Yes)、CPU11は、接触点の座標をドラッグ操作に伴う接触点の移動方向および移動量を特定するための起点として設定し、メモリ12に記憶させる(ステップS103)。
 次に、CPU11は、接触点の座標が仮想入力キー21が表示されている領域内にあるか否かに応じて、接触点が表示部13に表示されている仮想入力キー21上にあるか否かを判定する(ステップS104)。
 接触点が仮想入力キー21上にない場合には(ステップS104:No)、CPU11は、後述するステップS106の処理に進む。
 接触点が仮想入力キー21上にある場合には(ステップS104:Yes)、CPU11は、表示部13にその仮想入力キー21を強調表示させる(ステップS105)。
 上述したように、仮想入力キー21M上への指示手段の接触が行われたため、接触点の座標は仮想入力キー21Mが表示されている領域内にある。CPU11は、図4に示すように、表示部13に仮想入力キー21Mを入力候補として反転表示させる。なお、本実施形態においては、強調表示の一例として、入力候補の仮想入力キー21を反転表示する例を用いて説明したが、これに限られるものではなく、例えば、入力候補の仮想入力キー21を拡大表示したり、仮想入力キー21上の文字を太く表示したりしてもよい。
 図4においては、仮想キーボード22上の表示部13に表示されている領域の左側に仮想入力キー21Wがあるので、表示部13の表示を右方向にスクロールさせるために、ユーザは、接触点を左方向に移動させるドラッグ操作を行う。
 再び、図2を参照すると、CPU11は、指示手段20とタッチパネル14との接触が継続しているか否かを判定する(ステップS106)。
 上述したように、ユーザがドラッグ操作を行うので、指示手段20とタッチパネル14との接触は継続されている。
 タッチパネル14への接触が継続している場合には(ステップS106:Yes)、CPU11は、起点から接触点が移動しているか否かを判定する(ステップS107)。
 接触点が移動していない場合には(ステップS107:No)、CPU11は、ステップS106の処理に戻る。
 接触点が移動している場合には(ステップS107:Yes)、CPU11は、表示部13に仮想入力キー21の反転表示を解除させる(ステップS108)。
 次に、CPU11は、起点からの接触点の移動方向および移動量を特定し、特定した移動方向および移動量に応じて、表示部13の表示のスクロール量を決定し(ステップS109)、メモリ12に記憶させる。
 次に、CPU11は、ステップS103でメモリ12に記憶させた起点から特定した移動方向に特定した移動量だけ移動した地点を新たな起点としてメモリ12に記憶させ、決定したスクロール量だけ表示部13の表示をスクロールさせる(ステップS110)。ここで、CPU11は、接触点の移動量と等しい量だけ、接触点の移動方向とは反対方向に表示部13の表示をスクロールさせる。したがって、図5の移動ベクトル51に示される接触点の移動が行われると、移動ベクトル51とベクトルの大きさは同じであり、向きが反対の表示スクロールベクトル52分だけ仮想キーボード22を移動させた画像が選択項目表示範囲24に表示される。したがって、接触点の移動方向と同じ方向に表示部の表示をスクロールさせる場合と比較して、少ない接触点の移動量で、表示部13に表示される操作画像上の領域は大きくなるので、操作入力の手間の削減を図ることができる。
 なお、表示スクロールベクトル52の大きさは、移動ベクトル51の大きさに対して大きくも、小さくしてもよい。また、表示スクロールベクトル52の大きさは、例えば、接触点の移動速度が所定の閾値未満である場合には、移動ベクトル51の大きさと同じとし、接触点の移動速度が所定の閾値以上である場合には、移動ベクトル51の大きさよりも大きくするようにしてもよい。
 CPU11は、ステップS110の処理を行った後、ステップS102の処理に戻る。CPU11がステップS102からステップS110までの処理を、例えば、所定の時間間隔で繰り返すことで、ドラッグ操作に伴う接触点の移動に応じて、仮想入力キーの反転表示とその反転表示の解除とが繰り返される。
 接触点が仮想入力キー21W上にある状態で、ユーザが、指示手段20をタッチパネルから離し、ドラッグ操作を解除したとする。
 タッチ点が仮想入力キー21W上にあるので、CPU11は、仮想入力キー21Wを反転表示させた後(ステップS105)、指示手段20がタッチパネル14から離されたので(ステップS106:No)、指示手段20がタッチパネル14から離された解除点が検出有効範囲23内にあるか否かを判定する(ステップS111)。
 解除点が検出有効範囲23内にある場合には(ステップS111:Yes)、CPU11は、解除点が反転表示されている仮想入力キー21上にあるか否かを判定する(ステップS112)。
 解除点が反転表示されている仮想入力キー21上にある場合には(ステップS112:Yes)、CPU11は、その仮想入力キー21が選択されたものとし、その仮想入力キー21に対応する文字などを選択結果表示範囲25に表示させる(ステップS113)。上述したように、仮想入力キー21Wの反転表示が行われ、接触点が仮想入力キー21W上にある状態で指示手段20が離されたので、図6に示すように、文字「w」が選択結果表示範囲25に表示される。
 次に、CPU11は、表示部13に仮想入力キー21の反転表示を解除させたのち(ステップS114)、1つの文字の入力処理を終了する。
 解除点が反転表示されている仮想入力キー21上にない場合には(ステップS112:No)、目的の仮想入力キー21から外れた位置でドラッグ操作を解除したなど、ユーザの意図とは異なるドラッグ操作が行われた可能性が高いので、CPU11は、いずれの仮想入力キー21が選択されたともせず、ステップS114の処理に進む。
 次に、文字「e」の入力について説明する。
 文字「w」の入力終了時には、図7に示すように、文字「e」に対応する仮想入力キー21(以下、仮想入力キー21Eと称する)が、選択項目表示範囲24に表示されている。ユーザが仮想入力キー21E上に指示手段20を接触させた後、そのまま接触を解除させると、CPU11は、ステップS101~S106,S111~S114の処理を行い、文字「e」を表示部13の選択結果表示範囲25に表示させる。
 具体的には、CPU11は、タッチパネル14への指示手段20の接触を検出し(ステップS102:Yes)、接触点が仮想入力キー21E上にあると判定すると(ステップS104:Yes)、仮想入力キー21Eを反転表示させる(ステップS105)。指示手段20が離されると(ステップS106:No)、CPU11は、解除点が仮想入力キー21E上にあるので、文字「e」を表示部13の選択結果表示範囲25に表示させ(ステップS113)、仮想入力キー21Eの反転表示を解除させる(ステップS114)。
 次に、3文字目の文字「l」の入力について説明する。
 文字「e」の入力終了時には、図8に示すように、文字「l」に対応する仮想入力キー21(以下、仮想入力キー21Lと称する)が選択項目表示範囲24に表示されていないので、ユーザは、仮想入力キー21Lを選択項目表示範囲24に表示させるために、仮想入力キー21Lに向かってドラッグ操作を行う。
 ここで、検出有効範囲23内で仮想入力キー21Lに向かって接触点をスライドさせても、その接触点の移動量に応じた表示部13の表示のスクロールでは、仮想入力キー21Lを選択項目表示範囲24に表示させることができないとする。この場合、ユーザは、検出有効範囲23を超えて指示手段20をタッチパネル14に接触させたままにする。
 接触点が検出有効範囲23を超えると、接触点が検出有効範囲23の外縁に達した時点で、タッチパネル14からの出力がなくなるため、CPU11は、ステップS106において、指示手段20のタッチパネル14への接触が継続していないと判定し、ステップS111の処理に進む。ステップS111の処理においては、CPU11は、接触点が検出有効範囲23の外縁に達した地点を解除点とし、解除点がタッチパネル14の検出有効範囲内23にあるか否かを判定する。
 接触点が検出有効範囲23の外縁に達しているので、CPU11は、解除点が検出有効範囲内23にないと判定する(ステップS111:No)。この場合、CPU11は、ステップS102の処理に戻り、検出有効範囲23内に接触点が回復するのを待つ。
 タッチパネル14への接触が行われない場合には(ステップS102:No)、CPU11は、メモリ12に記憶されているスクロール量を低減させる(ステップS115)。さらに、CPU11は、低減後のスクロール量だけ表示部13の表示をスクロールさせ、メモリ12に記憶されている起点を、その起点から低減後のスクロール量だけ移動させた地点の座標に更新する(ステップS116)。したがって、ドラッグ操作に伴い指示手段20のタッチパネル14との接触点が検出有効範囲23の外縁に達すると、図9に示されるように、接触点の移動ベクトル51とは向きが反対方向でベクトルの大きさは等しい表示スクロールベクトル52に加えて、表示スクロールベクトル52と向きが等しいベクトル53の大きさの分だけ表示部13の表示がスクロールされる。なお、ベクトル53の大きさは、ステップS115においてメモリ12に記憶された低減後のスクロール量に対応する大きさである。
 次に、CPU11は、仮想キーボード22が表示部13の選択項目表示範囲24を超えるか否かを判定する(ステップS117)。
 仮想キーボード22が表示部13の選択項目表示範囲24を超えていない場合には(ステップS118:Yes)、CPU11は、ステップS102の処理に戻る。
 仮想キーボード22が表示部13の選択項目表示範囲24を超えている場合には(ステップS117:No)、CPU11は、表示部13の表示のスクロールの限界に達したと判定し、処理を終了する。
 指示手段20のタッチパネル14への接触が行われた場合には(ステップS102:Yes)、CPU11は、ステップS103の処理に戻る。
 したがって、表示部13の表示のスクロールは、次にタッチパネル14への接触が行われるまで継続されるので、ユーザは、仮想入力キー21Lが選択項目表示範囲24内に表示されるのを待って、図10に示すように、指示手段20のタッチパネル14との接触点を検出有効範囲23内に戻し、接触点が仮想入力キー21L上にある状態で、指示手段20をタッチパネル14から離せば、文字「l」の入力が行われる。
 4文字目文字「l」は、図11に示すように、仮想入力キー21Lに指示手段20を接触させたのち、タッチパネル14から離すことで入力される。なお、4文字目の「l」の入力手順は、文字「e」の入力手順と同様であるので、説明を省略する。
 このように、本実施形態によれば、情報処理装置10は、ドラッグ操作が行われると、ドラッグ操作に伴う接触点の移動方向とは反対方向に表示部13の表示をスクロールさせる。
 そのため、少ないドラッグ操作の際の接触点の移動量で、目的の操作ボタンが見つけやすくなり、操作入力の手間の削減を図ることができる。
 また、本実施形態によれば、情報処理装置10は、ドラッグ操作の解除点が操作ボタン上にある場合には、その操作ボタンが選択されたものとし、その操作ボタンに示される操作の内容に応じた処理を行う。
 そのため、一度のドラッグ操作で表示部13の表示のスクロールと操作ボタンの選択とが行われるので、操作入力の手間の削減を図ることができる。
 また、本実施形態によれば、情報処理装置10は、接触点が操作ボタン上にある場合には、その操作ボタンを強調表示する。
 そのため、選択の候補となっている操作ボタンをユーザが認識しやすくなる。
 また、本実施形態によれば、情報処理装置10は、検出有効範囲23の内側に操作画像を表示し、ドラッグ操作に伴い接触点が検出有効範囲23の外縁に達すると、ドラッグ操作に伴う接触点の移動方向および移動量を特定し、接触点が検出有効範囲内で再び検出されるまで、特定した移動方向とは反対方向に表示部13の表示をスクロールさせる。
 通常、ドラッグ操作に伴い接触点がタッチパネル14の検出有効範囲23を超えると、一旦、ドラッグ操作を終えて、新たにドラッグ操作を開始する必要がある。しかし、本実施形態のように、ドラッグ操作に伴い接触点が検出有効範囲23の外縁に達すると、接触点が検出有効範囲23内で再び検出されるまで表示部13の表示をスクロールさせることで、操作入力の手間の削減を図ることができる。
 (第2の実施形態)
 図12は、本発明の第2の実施形態の情報処理装置の構成を示すブロック図である。
 図12に示す情報処理装置60は、表示部61と、タッチパネル62と、制御部63と、を有する。
 表示部61は、操作画像など種々の画像を表示する。
 タッチパネル62は、表示部61に重ね合わせて配置され、指示手段20の接触または近接を検出し、検出結果を出力する。
 制御部63は、例えば、操作画像の全体または一部を表示部61に表示させる。また、制御部63は、操作画像の一部を表示部61に表示させている場合に、ドラッグ操作が行われると、そのドラッグ操作に伴う接触点の移動方向および移動量を特定する。さらに、制御部63は、特定した移動方向とは反対方向に特定した移動量に対応する量だけ表示部の表示をスクロールさせる。
 このように、本実施形態によれば、情報処理装置60は、接触点の移動方向とは反対方向に表示部61の表示をスクロールさせる。
 そのため、少ないドラッグ操作の際の接触点の移動量で、目的の操作ボタンが見つけやすくなり、操作入力の手間の削減を図ることができる。
 なお、本発明の情報処理装置にて行われる方法は、コンピュータに実行させるためのプログラムに適用してもよい。また、そのプログラムを記憶媒体に格納することも可能であり、ネットワークを介して外部に提供することも可能である。
 以上、実施形態を参照して本願発明を説明したが、本発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2011年3月23日に出願された日本出願2011-064170を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (9)

  1.  表示部と、
     前記表示部に重ね合わせて配置され、指示手段の接触または近接を検出し、検出結果を出力するタッチパネルと、
     操作画像の全体または一部を前記表示部に表示させ、前記操作画像の一部を前記表示部に表示させている場合に、前記指示手段と前記タッチパネルとが接触または近接した接触点をスライドさせるドラッグ操作が行われると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記特定した移動方向とは反対方向に前記特定した移動量に対応する量だけ前記表示部の表示をスクロールさせる制御部と、を有することを特徴とする情報処理装置。
  2.  請求項1記載の情報処理装置において、
     前記制御部は、前記操作画像に含まれる、操作の内容を示す操作ボタン上に前記ドラッグ操作の終了時の接触点がある場合には、該操作ボタンに示される操作の内容に応じた処理を行うことを特徴とする情報処理装置。
  3.  請求項1または2記載の情報処理装置において、
     前記制御部は、前記操作画像に含まれる、操作の内容を示す操作ボタン上に前記接触点がある場合には、該操作ボタンを前記表示部に強調表示させることを特徴とする情報処理装置。
  4.  請求項1から3のいずれか1項に記載の情報処理装置において、
     前記制御部は、前記ドラッグ操作に伴い、前記接触点が前記タッチパネルが前記指示手段の接触または近接を検出する検出有効範囲の外縁に達すると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記接触点が前記検出有効範囲内で再び検出されるまで前記特定した移動方向とは反対方向に前記表示部の表示をスクロールさせることを特徴とする情報処理装置。
  5.  情報処理装置の制御方法であって、
     操作画像の全体または一部を前記情報処理装置の表示部に表示させ、
     前記操作画像の一部を前記表示部に表示させている場合に、前記表示部に重ね合わせて配置され、指示手段の接触または近接を検出し、検出結果を出力するタッチパネルと前記指示手段とが接触または近接した接触点をスライドさせるドラッグ操作が行われると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記特定した移動方向とは反対方向に前記特定した移動量に対応する量だけ前記表示部の表示をスクロールさせることを特徴とする情報処理装置の制御方法。
  6.  請求項5記載の情報処理装置の制御方法において、
     前記操作画像に含まれる、操作の内容を示す操作ボタン上に前記ドラッグ操作の終了時の接触点がある場合には、該操作ボタンに示される操作の内容に応じた処理を行うことを特徴とする情報処理装置の制御方法。
  7.  請求項5または6記載の情報処理装置の制御方法において、
     前記操作画像に含まれる、操作の内容を示す操作ボタン上に前記接触点がある場合には、該操作ボタンを前記表示部に強調表示させることを特徴とする情報処理装置の制御方法。
  8.  請求項5から7のいずれか1項に記載の情報処理装置の制御方法において、
     前記ドラッグ操作に伴い、前記接触点が前記タッチパネルが前記指示手段の接触または近接を検出する検出有効範囲の外縁に達すると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記接触点が前記検出有効範囲内で再び検出されるまで前記特定した移動方向とは反対方向に前記表示部の表示をスクロールさせることを特徴とする情報処理装置の制御方法。
  9.  情報処理装置に、
     操作画像の全体または一部を前記情報処理装置の表示部に表示させる処理と、
     前記操作画像の一部を前記表示部に表示させている場合に、前記表示部に重ね合わせて配置され、指示手段の接触または近接を検出し、検出結果を出力するタッチパネルと前記指示手段とが接触または近接した接触点をスライドさせるドラッグ操作が行われると、前記ドラッグ操作に伴う前記接触点の移動方向および移動量を特定し、前記特定した移動方向とは反対方向に前記特定した移動量に対応する量だけ前記表示部の表示をスクロールさせる処理と、を実行させるプログラム。
PCT/JP2011/076080 2011-03-23 2011-11-11 情報処理装置、情報処理装置の制御方法、および、プログラム WO2012127733A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US13/978,440 US9563337B2 (en) 2011-03-23 2011-11-11 Information processing device, method for controlling an information processing device, and program
CN2011800692011A CN103403660A (zh) 2011-03-23 2011-11-11 信息处理装置、用于控制信息处理装置的方法和程序
JP2013505774A JPWO2012127733A1 (ja) 2011-03-23 2011-11-11 情報処理装置、情報処理装置の制御方法、および、プログラム
EP11861343.9A EP2690536A4 (en) 2011-03-23 2011-11-11 INFORMATION PROCESSING DEVICE, ITS CONTROL METHOD, AND ASSOCIATED PROGRAM

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-064170 2011-03-23
JP2011064170 2011-03-23

Publications (1)

Publication Number Publication Date
WO2012127733A1 true WO2012127733A1 (ja) 2012-09-27

Family

ID=46878921

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/076080 WO2012127733A1 (ja) 2011-03-23 2011-11-11 情報処理装置、情報処理装置の制御方法、および、プログラム

Country Status (5)

Country Link
US (1) US9563337B2 (ja)
EP (1) EP2690536A4 (ja)
JP (1) JPWO2012127733A1 (ja)
CN (1) CN103403660A (ja)
WO (1) WO2012127733A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2516029A (en) * 2013-07-08 2015-01-14 Ibm Touchscreen keyboard

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015148991A (ja) * 2014-02-07 2015-08-20 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
FR3020481B1 (fr) * 2014-04-25 2017-08-11 Thales Sa Dispositif de visualisation a surface tactile fonctionnant en environnement degrade
JP6410537B2 (ja) * 2014-09-16 2018-10-24 キヤノン株式会社 情報処理装置、その制御方法、プログラム、及び記憶媒体
US9678656B2 (en) * 2014-12-19 2017-06-13 International Business Machines Corporation Preventing accidental selection events on a touch screen
CN109002247A (zh) * 2018-06-15 2018-12-14 维沃移动通信有限公司 一种数据清理方法、移动终端

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330613A (ja) 2002-05-13 2003-11-21 Mobile Computing Technologies:Kk 携帯型情報端末装置、表示制御情報、及び表示制御方法
JP2007026349A (ja) * 2005-07-21 2007-02-01 Casio Comput Co Ltd 文字入力装置及び文字入力プログラム
JP2010204781A (ja) 2009-03-02 2010-09-16 Alpine Electronics Inc 入力装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09319502A (ja) * 1996-05-28 1997-12-12 Toshiba Corp 表示一体型座標入力装置を備えた情報機器
GB0406056D0 (en) * 2004-03-18 2004-04-21 Ibm Method and apparatus for two-dimensional scrolling in a graphical display window
US9785329B2 (en) * 2005-05-23 2017-10-10 Nokia Technologies Oy Pocket computer and associated methods
US20080046496A1 (en) * 2006-05-18 2008-02-21 Arthur Kater Multi-functional keyboard on touch screen
KR100913962B1 (ko) * 2007-05-14 2009-08-26 삼성전자주식회사 이동통신 단말기의 문자 입력 방법 및 장치
JP2008305294A (ja) * 2007-06-11 2008-12-18 Sharp Corp フルキーボードを搭載した携帯型端末装置及びフルキーボード表示方法
DE202008018283U1 (de) * 2007-10-04 2012-07-17 Lg Electronics Inc. Menüanzeige für ein mobiles Kommunikationsendgerät
KR101387527B1 (ko) * 2007-12-06 2014-04-23 엘지전자 주식회사 단말기 및 그 메뉴 아이콘 디스플레이 방법
JP4244068B1 (ja) * 2008-08-21 2009-03-25 任天堂株式会社 オブジェクト表示順変更プログラム及び装置
GB2462579A (en) * 2008-06-10 2010-02-17 Sony Service Ct Touch screen display including proximity sensor
JP2010108061A (ja) * 2008-10-28 2010-05-13 Sony Corp 情報処理装置、情報処理方法および情報処理プログラム
US8610673B2 (en) * 2008-12-03 2013-12-17 Microsoft Corporation Manipulation of list on a multi-touch display
EP2392999A4 (en) * 2009-02-02 2013-11-27 Panasonic Corp INFORMATION DISPLAY DEVICE
JP2011192179A (ja) * 2010-03-16 2011-09-29 Kyocera Corp 文字入力装置、文字入力方法及び文字入力プログラム
US8327296B2 (en) * 2010-04-16 2012-12-04 Google Inc. Extended keyboard user interface

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003330613A (ja) 2002-05-13 2003-11-21 Mobile Computing Technologies:Kk 携帯型情報端末装置、表示制御情報、及び表示制御方法
JP2007026349A (ja) * 2005-07-21 2007-02-01 Casio Comput Co Ltd 文字入力装置及び文字入力プログラム
JP2010204781A (ja) 2009-03-02 2010-09-16 Alpine Electronics Inc 入力装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2690536A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2516029A (en) * 2013-07-08 2015-01-14 Ibm Touchscreen keyboard
US9959039B2 (en) 2013-07-08 2018-05-01 International Business Machines Corporation Touchscreen keyboard
US10754543B2 (en) 2013-07-08 2020-08-25 International Business Machines Corporation Touchscreen keyboard

Also Published As

Publication number Publication date
EP2690536A4 (en) 2014-08-27
US20140009423A1 (en) 2014-01-09
US9563337B2 (en) 2017-02-07
JPWO2012127733A1 (ja) 2014-07-24
CN103403660A (zh) 2013-11-20
EP2690536A1 (en) 2014-01-29

Similar Documents

Publication Publication Date Title
US11816330B2 (en) Display device, display controlling method, and computer program
JP6177669B2 (ja) 画像表示装置およびプログラム
US8854316B2 (en) Portable electronic device with a touch-sensitive display and navigation device and method
US20100245275A1 (en) User interface apparatus and mobile terminal apparatus
WO2012127733A1 (ja) 情報処理装置、情報処理装置の制御方法、および、プログラム
WO2012157562A1 (ja) 表示装置、ユーザインタフェース方法及びプログラム
JP6013714B2 (ja) 画面スクロール方法及びその装置
JP6319298B2 (ja) 情報端末、表示制御方法及びそのプログラム
JP2011070474A (ja) 携帯端末装置
TWI659353B (zh) 電子設備以及電子設備的工作方法
KR20140073245A (ko) 후면 입력을 가능하게 하기 위한 방법 및 그 방법을 처리하는 전자 장치
US20120218208A1 (en) Electronic device, operation control method, and storage medium storing operation control program
US20130044061A1 (en) Method and apparatus for providing a no-tap zone for touch screen displays
JP5737380B1 (ja) 情報処理装置、及びプログラム
JP2013089037A (ja) 描画装置、描画制御方法、及び描画制御プログラム
US20120218207A1 (en) Electronic device, operation control method, and storage medium storing operation control program
CN103809794A (zh) 一种信息处理方法以及电子设备
JP5872979B2 (ja) 携帯情報表示装置および拡大表示方法
JP5288206B2 (ja) 携帯端末装置、文字入力方法、及び文字入力プログラム
EP2407867B1 (en) Portable electronic device with a touch-sensitive display and navigation device and method
JP2013162202A (ja) 情報処理装置、情報処理方法及びプログラム
JP2014095942A (ja) 情報表示装置および情報表示方法
JP2014160301A (ja) 情報処理装置、情報処理方法およびプログラム
JP2015225417A (ja) 携帯端末装置及び表示制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11861343

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13978440

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2011861343

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2013505774

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE