WO2014002518A1 - 情報処理装置、認証装置、情報処理方法及び情報処理プログラム - Google Patents

情報処理装置、認証装置、情報処理方法及び情報処理プログラム Download PDF

Info

Publication number
WO2014002518A1
WO2014002518A1 PCT/JP2013/051430 JP2013051430W WO2014002518A1 WO 2014002518 A1 WO2014002518 A1 WO 2014002518A1 JP 2013051430 W JP2013051430 W JP 2013051430W WO 2014002518 A1 WO2014002518 A1 WO 2014002518A1
Authority
WO
WIPO (PCT)
Prior art keywords
objects
positions
initial position
current position
information processing
Prior art date
Application number
PCT/JP2013/051430
Other languages
English (en)
French (fr)
Inventor
エリック カークパトリック
滝あ 大貝
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to US14/374,328 priority Critical patent/US10216401B2/en
Publication of WO2014002518A1 publication Critical patent/WO2014002518A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Definitions

  • the present invention relates to an information processing device, an authentication device, an information processing method, and an information processing program.
  • Non-Patent Document 1 describes that an object is moved by drag and drop operation on the object, and that a folder is created to store the object.
  • a process different from a desired process may be executed only when the drop position is slightly different. Further, for example, by preparing a processing mode switching function separately and switching the processing mode before the drop operation, it is possible to reduce erroneous operations, but the operation procedure becomes complicated.
  • an object of the present invention is to provide a user interface that may reduce erroneous operations without increasing the operation procedure in an instruction operation for executing a desired process on an object displayed on a touch panel. .
  • an information processing apparatus detects a plurality of positions in a screen instructed by a user, and a display control unit that displays a screen including a plurality of objects on a display unit.
  • a display control unit that displays a screen including a plurality of objects on a display unit.
  • one of the designated positions is within a determination area set based on the position of one of the plurality of objects.
  • a moving means for moving the one object in response to one movement of the designated position, and one of the designated positions and the other one in the determination area of each of the first and second objects.
  • Initial position acquisition means for acquiring the positions of the first and second objects as initial positions at the same time when the two are included at the same time; After the initial positions of the first and second objects are acquired by the above, the first and second objects are moved by the moving means while one of the indicated positions by the detecting means and the other one of the detection positions are maintained.
  • Current position acquisition means for acquiring the respective positions of the first and second objects as current positions when at least one of them is moved, the initial positions of the first and second objects, and the first and second Processing execution means for executing processing related to the first and second objects when the current position of the two objects is in a predetermined positional relationship.
  • An information processing method includes a display control step of causing a display unit to display a screen including a plurality of objects, a detection step of detecting a plurality of positions in the screen instructed by a user, Each of the first and second objects at a timing at which one of the indicated positions detected in the detection step and the other one are simultaneously included in each determination area set based on the position of each of the second objects.
  • An initial position acquisition step for acquiring each position as an initial position, and one of the specified positions and one of the specified positions in each of the determination areas of the first and second objects are maintained.
  • a movement step for moving at least one of the first and second objects in response to movement of at least one of the other one.
  • An information processing program includes a display control function for causing a computer to display a screen including a plurality of objects on a display unit, and a detection function capable of detecting a plurality of positions in the screen instructed by a user.
  • a display control function for causing a computer to display a screen including a plurality of objects on a display unit
  • a detection function capable of detecting a plurality of positions in the screen instructed by a user.
  • the first and second objects are moved by the moving function while one of the indicated positions by the detecting function and the other one of the detected positions are maintained.
  • a current position acquisition function for acquiring the respective positions of the first and second objects as current positions, the initial positions of the first and second objects, and the first and second
  • a process execution function for executing a process related to the first and second objects is realized.
  • the user's designated position on the display unit is detected, and the first and second displayed on the display unit are moved by moving the user's designated position detected in the determination region based on the position of the object.
  • At least one of the objects can be moved, and predetermined processing relating to the first and second objects is executed based on the positional relationship between the initial position and the current position relating to the movement of the first and second objects.
  • the user can execute processing related to the object by an easy operation such as moving the displayed first and second objects.
  • the desired process can be executed by adjusting the initial position and the current position of each object by the operation of moving the object, erroneous operations are reduced.
  • the process execution means is configured such that the first distance from the initial position of the first object to the current position is less than a predetermined value, and the initial position of the second object to the current position.
  • the second distance of the first and second objects is greater than or equal to a predetermined value, and the distance between the current position of the first object and the current position of the second object is less than or equal to the predetermined value.
  • the first process is executed by performing an operation of moving the second object so as to approach the first object.
  • the first process can be executed by adjusting the drag operation on the first and second objects, thereby providing a user interface with an operation that is easy and difficult to erroneously operate.
  • the process execution means has a first distance from the initial position of the first object to the current position that is equal to or greater than a predetermined value, and the current position from the initial position of the second object.
  • the second distance is equal to or greater than a predetermined value
  • the line segment connecting the initial position of the first object and the initial position of the second object is the current position of the first object and the current position of the second object.
  • a line segment connecting the position and the movement center point intersect, and a line segment connecting the initial position of the first object and the movement center point, and a line segment connecting the current position of the first object and the movement center point.
  • the rotation angle indicating the movement from the initial position of the first object centered on the movement center point to the current position is greater than or equal to a predetermined magnitude, and the first and second objects are 2 Processing may be the execution.
  • the second process when a drag operation is performed so as to exchange the positions of the first and second objects, the second process is executed.
  • the second process can be executed by adjusting the drag operation on the first and second objects, thereby providing an intuitive user interface that is less likely to be erroneously operated.
  • the process execution unit determines whether the movement from the initial position of the first object centering on the movement center point to the current position corresponds to clockwise rotation or counterclockwise rotation. May be included as a condition for executing the second process.
  • the direction of rotation is defined in the operation of rotating the position so that the positions of the first and second objects for executing the second process are exchanged.
  • the process execution unit is configured such that the first distance from the initial position of the first object to the current position is equal to or greater than the first predetermined value and the initial position of the second object.
  • the second distance from the current position to the current position is greater than or equal to a second predetermined value different from the first predetermined value, the second processing relating to the first and second objects may be executed.
  • the drag operation on each of the first and second objects is likely to be performed with two fingers having different lengths.
  • a threshold value related to the drag operation amount can be set according to the length of the finger operating each of the first and second objects, for example, a drag operation shorter than the drag operation on the first object can be performed on the second object.
  • the process execution means has a first distance from the initial position of the first object to the current position that is equal to or greater than a predetermined value, and the current position from the initial position of the second object.
  • the second distance is equal to or greater than a predetermined value, and the distance between the current position of the first object and the current position of the second object is equal to or less than a predetermined value, and the second distance from the initial position of the second object.
  • the distance from the initial position of the first object to the current position of the second object is shorter than the distance from the initial position of the second object to the initial position of the first object. Is shorter than the distance from the initial position of the first object to the initial position of the second object, the third process relating to the first and second objects is executed. It is also possible to be.
  • the third process is executed when a movement operation is performed such that the positions of the first and second objects are brought closer and the two objects collide with each other.
  • the third process can be executed by adjusting the drag operation on the first and second objects, thereby providing an intuitive user interface that is less likely to be erroneously operated.
  • An authentication apparatus is an authentication apparatus including the above information processing apparatus, and the information processing apparatus determines whether or not preset processing related to a plurality of objects has been executed. Authentication means for performing an authentication process related to.
  • authentication processing is performed by determining whether or not a predetermined drag operation has been performed on the first and second objects, input for authentication is easy and advanced An authentication device that secures high security is provided.
  • An authentication apparatus is an authentication apparatus including the information processing apparatus, wherein the information processing apparatus determines whether or not predetermined replacement processing for a plurality of objects is performed in advance.
  • An authentication unit that performs an authentication process on the user may be provided.
  • the authentication process is performed by determining whether or not the replacement process for the predetermined object has been performed by a drag operation that replaces the position of the object.
  • An authentication device is realized.
  • a user interface that can reduce an erroneous operation without increasing an operation procedure in an instruction operation for executing a desired process on an object displayed on a touch panel. Is possible.
  • FIG. 4A is a diagram illustrating an example of execution of processing related to an object by the processing execution unit.
  • FIG. 4B is a diagram illustrating an example of the first process.
  • FIG. 5A is a diagram illustrating an example of processing related to an object configured by a text box.
  • FIG. 5B is a diagram illustrating an example of the first process.
  • FIG. 5C shows another example of the first process.
  • FIGS. 6A and 6B are diagrams illustrating examples of conditions under which the second process is executed. It is a figure which shows the example of a 2nd process.
  • FIG. 4A is a diagram illustrating an example of execution of processing related to an object by the processing execution unit.
  • FIG. 4B is a diagram illustrating an example of the first process.
  • FIG. 5A is a diagram illustrating an example of processing related to an object configured by a text box.
  • FIG. 5B is a diagram illustrating an example of the first process.
  • FIG. 5C shows another example of the first process.
  • FIG. 8A is a diagram illustrating an example of a condition for executing the second process.
  • FIG. 8B is a diagram illustrating an example of a third process related to an object by the process execution unit.
  • FIG. 8C illustrates another example of the third process. It is a flowchart which shows the processing content in information processing apparatus. It is a figure which shows the structure of an information processing program. It is a block diagram which shows the function structure of an authentication apparatus. It is a figure which shows the example of the table in which the predetermined process content for the authentication process was set. It is a schematic diagram which shows the specific example of an authentication process.
  • FIG. 1 is a block diagram showing a functional configuration of the information processing apparatus 1 according to the present embodiment.
  • the information processing apparatus 1 includes a display unit that displays a screen including a plurality of objects, and a detection unit that can detect an input from a user indicating a position on the display unit.
  • the information processing apparatus 1 is, for example, a terminal equipped with a so-called touch panel.
  • the touch panel displays an image on the display and includes a detecting unit that detects physical contact with the display, and can detect a position where the physical contact is detected on the display.
  • the information processing apparatus 1 may be, for example, a personal computer that includes a display and a pointing device.
  • the display displays an image on the display screen
  • the pointing device can accept an instruction input for designating a position on the display screen.
  • the user can input an instruction indicating an arbitrary position of the image displayed on the display screen by operating the pointing device.
  • the information processing apparatus 1 functionally includes an acquisition unit 11 (initial position acquisition unit, current position acquisition unit), a process execution unit 12 (process execution unit), and a display control unit 13 (display control). Means, moving means) and a storage unit 14.
  • the touch panel 10 includes a detection unit 10a (detection unit) and a display unit 10b (display unit).
  • the display unit 10b is configured by a device such as a display.
  • the detection unit 10a is a portion that can detect a plurality of positions in the screen instructed by the user in the display unit 10b, and detects a position where physical contact on the display is detected.
  • FIG. 2 is a hardware configuration diagram of the information processing apparatus 1.
  • the information processing apparatus 1 is physically composed of a CPU 101, a main storage device 102 composed of a memory such as a RAM and a ROM, an auxiliary storage device 103 composed of a hard disk, a network card, and the like.
  • the computer system includes a communication control device 104, an input device 105 such as a keyboard and mouse, an output device 106 such as a display, and the like.
  • Each function shown in FIG. 1 is a communication control device under the control of the CPU 101 by reading predetermined computer software (information processing program) on hardware such as the CPU 101 and the main storage device 102 shown in FIG. 104, the input device 105, and the output device 106 are operated, and data is read and written in the main storage device 102 and the auxiliary storage device 103. Data and databases necessary for processing are stored in the main storage device 102 and the auxiliary storage device 103.
  • the objects to be processed are, for example, an icon representing a file, a set of texts, a text box, and the like.
  • the object is accompanied by various types of attribute information according to the type, and the attribute information is stored in the storage unit 14 in association with the object.
  • the attribute information of the object includes information about the application indicated by the object that is an icon, the text content of the object that is a text box, and the like.
  • FIG. 3 is a diagram schematically showing an input to the object displayed on the touch panel 10.
  • the object displayed on the touch panel 10 has a determination area B for recognizing a selection operation on the object.
  • the determination area B is a range set based on the position of the object, and information indicating the range is stored in the storage unit 14 in association with the object A, for example.
  • the obtaining unit 11 obtains an input of the designated position as a selection input for selecting the object A. And the acquisition part 11 acquires the position of the object A when the user's instruction
  • the display control unit 13 detects one of the designated positions when one of the designated positions of the user is detected by the detection unit 10a and one of the designated positions is included in the determination region B of the object. Move the object as it moves. As shown in FIG. 3, when the designated position D is moved to the position E by the drag operation, the display control unit 13 changes the position of the object A to the position indicated by the object AZ according to the movement of the designated position. Move to.
  • the acquisition unit 11 acquires the position of the object AZ as the current position of the object.
  • the processing related to the first and second objects is executed in response to the drag operation on the first and second objects, so the acquisition unit 11 is displayed on the display unit 10b.
  • the initial positions of the first and second objects at the timing at which one of the designated positions detected by the detection unit 10a and the other one are simultaneously included in the respective determination areas of the first and second objects Get as each position.
  • the acquisition unit 11 maintains one detection position and one other detection point indicated by the detection unit 10a in each of the determination regions B of the first and second objects.
  • the respective positions of the first and second objects are acquired as current positions, respectively.
  • the initial position of the first object is “first initial position”
  • the current position of the first object is “first current position”
  • the initial position of the second object is “second”.
  • the current position of the second object is denoted as “second current position”.
  • the process execution unit 12 is a part that executes processes related to the first and second objects when the first and second initial positions and the first and second current positions are in a predetermined positional relationship. is there. Moreover, the process execution part 12 displays the screen according to the result of the performed process on the display part 10b via the display control part 13. FIG. The process executed by the process execution unit 12 will be specifically described later.
  • the process execution unit 12 performs the first operation when the distance from the first initial position to the first current position and the distance from the second initial position to the second current position correspond to predetermined cases. And a process related to the second object can be executed.
  • first distance the distance from the first initial position to the first current position
  • second distance the distance from the second initial position to the second current position
  • the process execution unit 12 can determine whether or not to execute the process regarding the first and second objects depending on whether or not the first distance and the second distance are less than a predetermined value.
  • FIG. 3 an area where the first or second distance relating to the movement of the object is less than a predetermined value is shown as a predetermined area C relating to the object A. That is, in the example of FIG. 3, since the end of the arrow F indicating the distance related to the movement of the object is outside the predetermined area C, the process execution unit 12 determines that the distance related to the movement of the object is greater than or equal to a predetermined value.
  • Information indicating the range of the predetermined area C for each object A is stored in, for example, the storage unit 14.
  • the display control unit 13 is a part that displays a screen including a plurality of objects on the display unit 10b, and displays a screen including an object on the display unit 10b according to the result of the process executed by the process execution unit 12. . Further, as described above, the object displayed on the display unit 10b is moved in accordance with the movement of the designated position indicating the determination area B of the object. Specifically, the display control unit 13 executes processing such as changing the display position of the object displayed on the display unit 10b while accessing the attribute information regarding each object stored in the storage unit 14.
  • FIG. 4A is a diagram illustrating an example of processing related to an object by the processing execution unit 12.
  • the first object A 11 and the second object A 21 are displayed on the touch panel 10.
  • the first and second objects A 11 and A 21 are, for example, icons.
  • the acquisition unit 11 indicates the position indicated by the user's second finger and the first finger in the determination areas B 11 and B 21 of the first and second objects A 11 and A 21 via the detection unit 10 a.
  • D 11 and D 21 are acquired at the same time, the designated positions D 11 and D 21 are acquired as the first initial position and the second initial position.
  • the acquisition unit 11 acquires the positions of the first object A 11 and the second object A 21 at that time as the first current position and the second current position.
  • the second distance indicated by the arrow F 21 exceeds the movement distance less than the predetermined value indicated by the second predetermined region C 21 .
  • the first distance related to the first object A 11 is a value almost close to zero.
  • the process execution unit 12 has a first distance from the initial position of the first object A 11 to the current position that is less than the predetermined value, and the distance from the initial position of the second object A 21 to the current position.
  • the first process relating to the first and second objects can be executed.
  • the position of the second object A 21 moved in accordance with the movement of the designated position D 21 to the position E 21 is changed from the current position of the first object A 11. Further included is within a predetermined distance.
  • the first process can be executed by performing a drag operation for moving the second object closer to the first object, a user interface with an operation that is easy and difficult to misoperate is provided. .
  • FIG. 4B is a diagram illustrating an example of the first process.
  • the folder H 1 is generated, the first and second objects A 11, A 21 are stored in the folder H 1 generated. That is, the process execution unit 12 generates a folder H 1, stores the first and second objects A 11, A 21 to the folder H 1.
  • an intuitive user interface such as storing the first and second objects in one folder by dragging the second object toward the display position of the first object is provided. Provided.
  • FIG. 5 is a diagram illustrating an example in which an object related to processing is a text box.
  • an object related to processing is a text box.
  • the first object A 12 and the second object A 22 that are text boxes are displayed on the touch panel 10.
  • the acquisition unit 11 receives the first and second objects A 12 and A 22 via the detection unit 10a.
  • the determination area for example, the second finger and the indicated position D 12, D 22 of the first finger of the user at the same time to get to obtain the indicated position D 12, D 22 as the first initial position and a second initial position .
  • the second object A 22 is moved as indicated by the arrow F 22, and thus the acquisition unit 11 Acquires the positions of the first object A 12 and the second object A 22 at that time as the first current position and the second current position.
  • the second distance indicated by the arrow F 22 exceeds the movement distance less than the predetermined value indicated by the second predetermined region C 22 .
  • the first distance related to the first object A 12 is a value almost close to zero.
  • the process execution unit 12 determines that the first distance related to the first object A 12 is less than the predetermined value, and the second distance indicated by the arrow F 22 is greater than or equal to the predetermined value.
  • the process execution unit 12 determines that the first distance related to the first object A 12 is less than the predetermined value, and the second distance indicated by the arrow F 22 is greater than or equal to the predetermined value.
  • FIG. 5B is a diagram illustrating an example of the first process.
  • the process execution unit 12 associates the second object A 22 with the first object A 12 as the first process.
  • the process execution unit 12 displays the text “222” in association with the text “111”.
  • an intuitive user interface is provided in which, for example, the second object is associated with the first object by dragging the second object toward the display position of the first object.
  • FIG. 5C is a diagram illustrating another example of the first process.
  • the process execution unit 12 executes an overwrite process on the information related to the first object A 12 by the information related to the second object A 22 .
  • the process execution unit 12 overwrites the content of the text box related to the first object A 12 with the text “222”, and replaces the text box A 1X including the text “222” with the first object. displaying the position the text box has been displayed according to a 12.
  • the text box related to the second object A 22 is deleted, but it may be displayed without being deleted.
  • 5C shows an example in which the text in the text box is overwritten, but the same attribute information on the first object A 12 is overwritten by other attribute information on the second object A 22. It is also good to do.
  • an intuitive user interface in which, for example, information related to the first object is overwritten with information related to the second object by dragging the second object toward the display position of the first object. Is provided.
  • FIG. 6A is a diagram illustrating another example of processing related to an object by the processing execution unit 12.
  • the first object A 13 and the second object A 23 are displayed on the touch panel 10.
  • the first and second objects A 13 and A 23 are, for example, icons.
  • the acquisition unit 11 includes, for example, designated positions D 13 and D 23 by the user's second and first fingers in the determination areas of the first and second objects A 13 and A 23 via the detection unit 10a. Is acquired at the same time, the designated positions D 13 and D 23 are acquired as the first initial position and the second initial position.
  • a drag operation as indicated by arrows F 13 and F 23 is performed on each of the first object A 13 and the second object A 23 , the first object A 13 and the second object A 23 are moved to the positions E 13 and E 23 , respectively, so that the acquiring unit 11 determines the positions of the first object A 13 and the second object A 23 at that time as the first current position and the second object A 23 .
  • Get as current position In the example of FIG. 6 (a), a first current position E 13 is so located outside the predetermined region C 13 about an object A 13, the first distance in the movement of the first object A 13 are members is less than the predetermined value .
  • the second current location E 23 is so located outside the predetermined region C 23 about an object A 23, the second distance in the movement of the second object A 23 is more than a predetermined value.
  • FIG. 6B shows the first initial position D 13 and the second initial position when the first object A 13 and the second object A 23 are moved as shown in FIG. position D 23, is a diagram showing the positional relationship between the first current location E 13 and the second current location E 23.
  • the line segment connecting the first initial position D 13 and the second initial position D 23 is, connecting the first current position E 13 and a second current position E 23 When the line segment is crossed, a movement center point CP is defined at the crossing point.
  • a line segment connecting the first initial position D 13 and the mobile center point CP, a angle made by the line segment connecting the first and the current position E 13 moves the center point CP, the mobile center point CP rotation indicating the movement leading to the current position E 23 from first second object of the initial position D 23 about the movement and moving the center point CP reaches the current position E 13 from the initial position D 13 of an object around the corner R 1 is defined.
  • the process execution unit 12 the first distance is equal to or greater than the predetermined value indicated by the arrow F 13
  • the second distance is equal to or greater than the predetermined value indicated by the arrow F 23
  • the rotation angle R 1 Is equal to or larger than a predetermined size
  • the second process is executed as the predetermined process related to the first and second objects.
  • an intuitive user interface that is less likely to be erroneously operated is provided.
  • the processing execution unit 12, the movement extending from a first initial position D 13 of an object around the mobile center point CP in the current position E 13 is, whether corresponds to one of the clockwise and counter-clockwise, the It is good also as having as conditions for execution of 2 processes.
  • the process execution unit 12 the first distance is not more the first predetermined value or more as shown by the arrow F 13
  • the second distance is a first predetermined shown by the arrow F 23
  • the second process may be executed as the predetermined process related to the first and second objects.
  • the second predetermined By setting the value smaller than the first predetermined value, the second process is executed by performing a drag operation on the second object A 23 that is shorter than the drag operation on the first object A 13 .
  • FIG. 7 is a diagram illustrating an example of the second processing.
  • the display positions of the first object A 13 and the second object A 23 are interchanged. That is, the process execution unit 12, a first display position second object A 23 is changed to the position that was displayed object A 13, the object A 13 display position of the first of the second object A 23 Change to the position where was displayed.
  • an intuitive user interface is provided in which the display positions of the first and second objects are interchanged by appropriately dragging the first and second objects.
  • FIG. 8A is a diagram illustrating another example of determination of processing related to an object by the processing execution unit 12.
  • the first object A 15 and the second object A 25 are displayed on the touch panel 10.
  • the first and second objects A 15 and A 25 are, for example, icons.
  • the acquisition unit 11 includes, for example, indication positions D 15 and D 25 by the user's second and first fingers in the determination areas of the first and second objects A 15 and A 25 via the detection unit 10a. Are simultaneously acquired, the designated positions D 15 and D 25 are acquired as the first initial position and the second initial position.
  • the first object A 15 and the second object A 25 are moved to positions corresponding to the positions E 15 and E 25 , respectively, so that the acquisition unit 11 determines the positions of the first object A 15 and the second object A 25 at that time as the first current position. And as the second current position.
  • the first current location E 15 is so located outside the predetermined region C 15 about an object A 15, the first distance in the movement of the first object A 15 is the predetermined value or more .
  • the second current location E 25 is so located outside the predetermined region C 25 about an object A 25, the second distance in the movement of the second object A 25 is more than a predetermined value. Further, in the example of FIG. 8 (a), the distance L E5 between the first current location E 15 and the second current position E 25 is defined.
  • the process execution unit 12 determines the predetermined values for the first and second objects. As the process, the third process can be executed.
  • the third process is executed when a moving operation is performed in which the positions of the first and second objects are brought closer to each other and the two objects collide with each other.
  • the third process can be executed by adjusting the drag operation on the first and second objects, thereby providing an intuitive user interface that is less likely to be erroneously operated.
  • FIG. 8B is a diagram illustrating an example of the third process.
  • the process execution unit 12 when it is determined that the third process is to be performed, the process execution unit 12 generates a folder H 3 and stores the first and second objects A 15 and A 25 . and stores it in the folder H 2.
  • an intuitive user interface is provided in which, for example, the first and second objects are stored in one folder by dragging the first and second objects so as to approach each other. .
  • FIG. 8C is a diagram illustrating another example of the third process.
  • the process execution unit 12 deletes the first and second objects A 15 and A 25 .
  • an intuitive user interface is provided in which, for example, the first and second objects are deleted by performing a drag operation so that the first and second objects are brought closer to each other.
  • FIG. 9 is a flowchart illustrating an example of processing contents of the information processing method.
  • the acquisition unit 11 includes timings at which the first and second designated positions detected by the detection unit 10a are simultaneously included in the determination areas of the first and second objects displayed on the display unit 10b.
  • the positions of the first and second objects are respectively acquired as initial positions (S1).
  • the display control unit 13 moves the object according to the drag operation, and the acquisition unit 11 detects the movement of the object (S2).
  • the acquisition unit 11 maintains the detection of the designated position by the detection unit 10a in each of the determination areas B of the first and second objects during the drag operation of the object, and the first and second objects.
  • the respective positions of the first and second objects are acquired as current positions (S3).
  • the process execution part 12 performs the predetermined
  • the information processing program P1 includes a main module P10, an acquisition module P11, a process execution module P12, and a display control module P13.
  • the main module P10 is a part that comprehensively controls object control processing. Functions realized by executing the acquisition module P11, the process execution module P12, and the display control module P13 are functions of the acquisition unit 11, the process execution unit 12, and the display control unit 13 of the information processing apparatus 1 illustrated in FIG. It is the same.
  • the information processing program P1 is provided by a storage medium D1 such as a CD-ROM, a DVD, or a ROM, or a semiconductor memory, for example. Further, the information processing program P1 may be provided via a communication network as a computer data signal superimposed on a carrier wave.
  • FIG. 11 is a block diagram showing a functional configuration of the authentication device 1A according to the present embodiment.
  • the authentication device 1A is a device that performs an authentication process related to the user, for example, whether or not the user is a valid user based on an input to the information processing device 1 from the user.
  • the authentication device 1A includes an information processing device 1 and an authentication unit 15.
  • the authentication unit 15 is a part that performs authentication processing on the user by determining whether or not preset processing on a plurality of objects has been executed in the information processing apparatus 1. Specifically, the authentication unit 15 performs an authentication process based on the processing contents executed in the process execution unit 12 and the display control unit 13.
  • FIG. 12 is a diagram illustrating an example of a table in which predetermined processing content for authentication processing is set. This table is stored in the storage unit 14, for example. As shown in FIG. 12, the predetermined processing content includes a selected object and a rotation direction for each processing order.
  • the authentication unit 15 performs an authentication process on the user by determining whether or not a predetermined replacement process for a plurality of objects as described with reference to FIGS. 6 and 7 is performed, for example. That is, as set in the table of FIG. 12, the authentication unit 15 performs the replacement process of the object “1” and the object “7” and the replacement process of the object “1” and the object “9” by the user. If this happens, the user is authenticated as a valid user.
  • FIG. 13 is a schematic diagram showing a specific example of the authentication process.
  • a so-called numeric keypad is displayed on the display unit 10 b of the touch panel, and authentication processing is performed based on an input from the user with respect to the numeric keypad.
  • Each displayed key corresponds to an object in the information processing apparatus 1.
  • the process execution unit 12. Performs a process of switching the display positions of the object K 1 and the object K 7 . And according to the process, the display control part 13 implements replacement of the display position of the object. At this time, the process execution unit 12 also acquires that the replacement is performed clockwise as a condition for the replacement process for the object K 1 and the object K 7 .
  • the authentication unit 15 uses the display control unit 13 to perform display position replacement processing of the object “1” (object K 1 ) and the object “7” (object K 7 ), and to instruct the replacement processing. Recognizing that the drag operation has been performed clockwise, it is determined that the processing set in the processing order “1” has been performed correctly.
  • the process execution unit 12 executes a process of switching the display positions of the object K 1 and the object K 9 . And according to the process, the display control part 13 implements replacement of the display position of the object. At this time, the process execution unit 12 also acquires that the replacement is performed counterclockwise as a condition for the replacement process for the object K 1 and the object K 9 .
  • the authenticating unit 15 performs the process of exchanging the display positions of the object “1” (object K 1 ) and the object “9” (object K 9 ) by the process executing unit 12, and provides instructions for the exchange process. It is recognized that the drag operation has been performed counterclockwise, and it is determined that the processing set in the processing order “2” has been performed correctly.
  • FIG. 13C is a diagram illustrating a display example of the touch panel 10 after the processes defined in the processing orders “1” and “2” are properly performed.
  • the authentication unit 15 authenticates, for example, that the user who performed the operation on the authentication device 1A is a valid user, and the authentication result Is displayed on the display unit 10b.
  • authentication processing is performed by determining whether or not a predetermined drag operation has been performed on the first and second objects, so that input for authentication is easy. In addition, high security is ensured.
  • the authentication process is performed by determining whether or not the replacement process for a predetermined object has been performed, an authentication apparatus with an easy and intuitive input operation is realized.
  • the rotation direction of the relative position displacement trajectory of the first and second objects related to the exchange is included in the conditions for authentication, so that higher security can be achieved. Is realized.
  • the user instruction position on the display unit 10a is detected by the detection unit 10b and detected in the determination region based on the position of the object.
  • the designated position of the user By moving the designated position of the user, at least one of the first and second objects displayed on the display unit 10a can be moved, and the initial position and the current position regarding the movement of the first and second objects Is acquired by the acquisition unit 11, and predetermined processing relating to the first and second objects is executed based on the positional relationship between the initial position and the current position.
  • the user can execute processing related to the object by an easy operation such as moving the displayed first and second objects.
  • the desired process can be executed by adjusting the initial position and the current position of each object by the operation of moving the object, erroneous operations are reduced.
  • DESCRIPTION OF SYMBOLS 1 Information processing apparatus, 1A ... Authentication apparatus, 10 ... Touch panel, 10a ... Detection part, 10b ... Display part, 11 ... Acquisition part, 12 ... Process execution part, 13 ... Display control part, 14 ... Memory

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 情報処理装置は、第1のオブジェクトの移動に関する初期位置及び現在位置、及び第2のオブジェクトの移動に関する初期位置及び現在位置を取得する取得部と、第1及び第2のオブジェクトの初期位置及び現在位置の位置関係に基づき、第1及び第2のオブジェクトに関する所定の処理が実行する処理実行部を備える。これにより、ユーザは、表示された第1及び第2のオブジェクトを移動させるような容易な操作により、オブジェクトに関する処理を実行できる。また、オブジェクトを移動させる操作により、各オブジェクトの初期位置及び現在位置を調整することにより所望の処理を実行できるので、誤操作が低減される。

Description

情報処理装置、認証装置、情報処理方法及び情報処理プログラム
 本発明は、情報処理装置、認証装置、情報処理方法及び情報処理プログラムに関する。
 タッチパネルに配列されて表示された複数のオブジェクトのうちの一のオブジェクトに対して、1本の指を使ったドラッグアンドドロップ操作を行うことにより、一のオブジェクトに対する処理を実行する技術がある。例えば、下記非特許文献1には、オブジェクトに対するドラッグアンドドロップ操作により、オブジェクトを移動させること、及びフォルダを作ってオブジェクトを格納することが記載されている。
"iPhone User Guide"、p.22-23、[online]、[2012年6月19日検索]、インターネット<URL:http://manuals.info.apple.com/en_US/iphone_user_guide.pdf>
 同様のドラッグアンドドロップ操作により、オブジェクトに対する複数の異なる処理を実行させることとすると、例えばドロップする位置が微妙に異なるだけで所望の処理とは異なる処理が実行されてしまうことがあった。また、例えば処理モード切替機能を別途準備し、ドロップ操作の前に処理モードを切り替えるようにさせることで、誤操作の低減を図ることが可能であるが、操作の手順が煩雑となってしまう。
 そこで本発明は、タッチパネルに表示されたオブジェクトに対して所望の処理を実行するための指示操作において、操作手順を増やさずに誤操作を低減させる可能性があるユーザインターフェースを提供することを目的とする。
 上記課題を解決するために、本発明の一形態に係る情報処理装置は、複数のオブジェクトを含む画面を表示手段に表示させる表示制御手段と、ユーザによって指示された画面内の複数の位置を検出可能な検出手段と、検出手段によってユーザの指示位置の一つが検出されている状態で、複数のオブジェクトのうちの一つのオブジェクトの位置に基づいて設定される判定領域内に該指示位置の一つが含まれている場合に、該指示位置の一つの移動に応じて該一つのオブジェクトを移動させる移動手段と、第1および第2のオブジェクトそれぞれの判定領域内に指示位置の一つおよび他の一つが同時に含まれたタイミングにおける、第1および第2のオブジェクトの位置を初期位置としてそれぞれ取得する初期位置取得手段と、初期位置取得手段により第1及び第2のオブジェクトの初期位置が取得された時以後において、検出手段による指示位置の一つ及び他の一つの検出が維持された状態で、移動手段により第1および第2のオブジェクトの少なくとも一方が移動された場合に、第1および第2のオブジェクトのそれぞれの位置を現在位置としてそれぞれ取得する現在位置取得手段と、第1および第2のオブジェクトの初期位置と、第1および第2のオブジェクトの現在位置と、が所定の位置関係になった場合に、第1および第2のオブジェクトに関する処理を実行する処理実行手段と、を備える。
 本発明の一形態に係る情報処理方法は、複数のオブジェクトを含む画面を表示手段に表示させる表示制御ステップと、ユーザによって指示された画面内の複数の位置を検出する検出ステップと、第1および第2のオブジェクトそれぞれの位置に基づいて設定される各判定領域内に、検出ステップにおいて検出された指示位置の一つおよび他の一つが同時に含まれたタイミングにおける、第1および第2のオブジェクトの位置を初期位置としてそれぞれ取得する初期位置取得ステップと、第1及び第2のオブジェクトの判定領域のそれぞれにおける指示位置の一つ及び他の一つの検出が維持された状態で、指示位置の一つ及び他の一つの少なくとも一方の移動に応じて、第1及び第2のオブジェクトの少なくとも一方を移動させる移動ステップと、移動ステップにおいて第1及び第2のオブジェクトの少なくとも一方が移動された後の第1および第2のオブジェクトのそれぞれの位置を現在位置としてそれぞれ取得する現在位置取得ステップと、第1および第2のオブジェクトの初期位置と、第1および第2のオブジェクトの現在位置と、が所定の位置関係になった場合に、第1および第2のオブジェクトに関する処理を実行する処理実行ステップと、を有する。
 本発明の一形態に係る情報処理プログラムは、コンピュータに、複数のオブジェクトを含む画面を表示手段に表示させる表示制御機能と、ユーザによって指示された画面内の複数の位置を検出可能な検出機能と、検出機能によってユーザの指示位置の一つが検出されている状態で、複数のオブジェクトのうちの一つのオブジェクトの位置に基づいて設定される判定領域内に該指示位置の一つが含まれている場合に、該指示位置の一つの移動に応じて該一つのオブジェクトを移動させる移動機能と、第1および第2のオブジェクトそれぞれの判定領域内に指示位置の一つおよび他の一つが同時に含まれたタイミングにおける、第1および第2のオブジェクトの位置を初期位置としてそれぞれ取得する初期位置取得機能と、初期位置取得機能により第1及び第2のオブジェクトの初期位置が取得された時以後において、検出機能による指示位置の一つ及び他の一つの検出が維持された状態で、移動機能により第1および第2のオブジェクトの少なくとも一方が移動された場合に、第1および第2のオブジェクトのそれぞれの位置を現在位置としてそれぞれ取得する現在位置取得機能と、第1および第2のオブジェクトの初期位置と、第1および第2のオブジェクトの現在位置と、が所定の位置関係になった場合に、第1および第2のオブジェクトに関する処理を実行する処理実行機能と、を実現させる。
 上記形態によれば、表示手段におけるユーザの指示位置が検出され、オブジェクトの位置に基づく判定領域において検出されたユーザの指示位置を移動させることにより、表示手段に表示された第1及び第2のオブジェクトの少なくとも一方を移動させることができ、第1及び第2のオブジェクトの移動に関する初期位置及び現在位置の位置関係に基づき、第1及び第2のオブジェクトに関する所定の処理が実行される。これにより、ユーザは、表示された第1及び第2のオブジェクトを移動させるような容易な操作により、オブジェクトに関する処理を実行できる。また、オブジェクトを移動させる操作により、各オブジェクトの初期位置及び現在位置を調整することにより所望の処理を実行できるので、誤操作が低減される。
 別の形態に係る情報処理装置では、処理実行手段は、第1のオブジェクトの初期位置から現在位置までの第1の距離が所定値未満であって、第2のオブジェクトの初期位置から現在位置までの第2の距離が所定値以上でああって、第1のオブジェクトの現在位置及び第2のオブジェクトの現在位置の間の距離が所定値以下である場合に、第1及び第2のオブジェクトに関する第1の処理を実行してもよい。
 この形態では、第2のオブジェクトを第1のオブジェクトに近づけるように移動させる操作をすることにより、第1の処理が実行される。これにより、第1及び第2のオブジェクトに対するドラッグ操作の調整により第1の処理の実行が可能となるので、容易且つ誤操作し難い操作によるユーザインターフェースが提供される。
 さらに別の形態に係る情報処理装置では、処理実行手段は、第1のオブジェクトの初期位置から現在位置までの第1の距離が所定値以上であって、第2のオブジェクトの初期位置から現在位置までの第2の距離が所定値以上であって、第1のオブジェクトの初期位置と第2のオブジェクトの初期位置とを結ぶ線分が、第1のオブジェクトの現在位置と第2のオブジェクトの現在位置とを結ぶ線分と移動中心点において交差し、第1のオブジェクトの初期位置と移動中心点とを結ぶ線分と、第1のオブジェクトの現在位置と移動中心点とを結ぶ線分とが成す角であって、移動中心点を中心とする第1のオブジェクトの初期位置から現在位置に至る移動を示す回転角が所定の大きさ以上である場合に、第1及び第2のオブジェクトに関する第2の処理を実行してもよい。
 この形態では、例えば、第1及び第2のオブジェクトの位置を入れ替えるようにドラッグ操作が行われた場合に、第2の処理が実行される。これにより、第1及び第2のオブジェクトに対するドラッグ操作の調整により第2の処理の実行が可能となるので、誤操作し難く且つ直感的なユーザインターフェースが提供される。
 さらに別の形態に係る情報処理装置では、処理実行手段は、移動中心点を中心とする第1のオブジェクトの初期位置から現在位置に至る移動が、時計回り及び反時計回りのいずれに該当するかを、第2の処理の実行の条件として有することとしてもよい。
 この形態では、第2の処理を実行するための第1及び第2のオブジェクトの位置を入れ替えるように回転移動させる操作に際して、その回転の方向が規定される。これにより、第2の処理の実行のための操作態様が限定されるので、誤操作が低減される。
 さらに別の形態に係る情報処理装置では、処理実行手段は、第1のオブジェクトの初期位置から現在位置までの第1の距離が第1の所定値以上であって、第2のオブジェクトの初期位置から現在位置までの第2の距離が第1の所定値とは異なる第2の所定値以上である場合に、第1及び第2のオブジェクトに関する第2の処理を実行することとしてもよい。
 第1及び第2のオブジェクトのそれぞれに対するドラッグ操作は、互いに長さが異なる2指で実施される可能性が高い。この形態では、第1及び第2のオブジェクトのそれぞれを操作する指の長さに応じたドラッグ操作量に関する閾値を設定できるので、例えば第1のオブジェクトに対するドラッグ操作より短いドラッグ操作を第2のオブジェクトに対して行うことにより第2の処理が実行されるように構成できる。これにより、操作に用いられる可能性の高い指の長さが反映された高精度なユーザインターフェースを提供できる。
 さらに別の形態に係る情報処理装置では、処理実行手段は、第1のオブジェクトの初期位置から現在位置までの第1の距離が所定値以上であって、第2のオブジェクトの初期位置から現在位置までの第2の距離が所定値以上であって、第1のオブジェクトの現在位置及び第2のオブジェクトの現在位置の間の距離が所定値以下であって、第2のオブジェクトの初期位置から第1のオブジェクトの現在位置までの距離が、第2のオブジェクトの初期位置から第1のオブジェクトの初期位置までの距離より短く、第1のオブジェクトの初期位置から第2のオブジェクトの現在位置までの距離が、第1のオブジェクトの初期位置から第2のオブジェクトの初期位置までの距離より短い場合に、第1及び第2のオブジェクトに関する第3の処理を実行することとしてもよい。
 この形態では、例えば、第1及び第2のオブジェクトの位置を近付けて、更に両オブジェクトを衝突させるような移動操作が行われた場合に、第3の処理が実行される。これにより、第1及び第2のオブジェクトに対するドラッグ操作の調整により第3の処理の実行が可能となるので、誤操作し難く且つ直感的なユーザインターフェースが提供される。
 本発明の一形態に係る認証装置は、上記情報処理装置を含む認証装置であって、情報処理装置において、複数のオブジェクトに関する予め設定された処理が実行されたか否かを判定することにより、ユーザに関する認証処理を行う認証手段を備える。
 この形態によれば、第1及び第2のオブジェクトに対して所定のドラッグ操作が行われたか否かを判定することにより認証処理が行われるので、認証のための入力が容易であると共に、高度なセキュリティが確保された認証装置が提供される。
 別の形態に係る認証装置は、上記情報処理装置を含む認証装置であって、情報処理装置において、予め設定された、複数のオブジェクトに対する所定の入れ替え処理が実行されたか否かを判定することにより、ユーザに関する認証処理を行う認証手段を備えることとしてもよい。
 この形態によれば、例えばオブジェクトの位置を入れ替えるようなドラッグ操作により、所定のオブジェクトに対する入れ替え処理が行われたか否かを判定することにより認証処理が行われるので、容易かつ直感的な入力操作による認証装置が実現される。
 本発明の一側面によれば、タッチパネルに表示されたオブジェクトに対して所望の処理を実行するための指示操作において、操作手順を増やさずに誤操作を低減させる可能性があるユーザインターフェースを提供することが可能となる。
情報処理装置の機能構成を示すブロック図である。 情報処理装置のハードウェア構成を示す図である。 タッチパネルに表示されたオブジェクトに対する入力を模式的に示す図である。 図4(a)は処理実行部によるオブジェクトに関する処理の実行の例を示す図である。図4(b)は第1の処理の例を示す図である。 図5(a)はテキストボックスにより構成されるオブジェクトに関する処理の例を示す図である。図5(b)は第1の処理の例を示す図である。図5(c)は第1の処理の他の例を示す図である。 図6(a)及び図6(b)は、第2の処理が実行される条件の例を示す図である。 第2の処理の例を示す図である。 図8(a)は第2の処理が実行される条件の例を示す図である。図8(b)は処理実行部によるオブジェクトに関する第3の処理の例を示す図である。図8(c)は第3の処理の他の例を示す図である。 情報処理装置における処理内容を示すフローチャートである。 情報処理プログラムの構成を示す図である。 認証装置の機能構成を示すブロック図である。 認証処理のための所定の処理内容が設定されたテーブルの例を示す図である。 認証処理の具体例を示す模式図である。
 以下、添付図面を参照しながら本発明の実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
 図1は、本実施形態に係る情報処理装置1の機能的構成を示すブロック図である。情報処理装置1は、複数のオブジェクトを含む画面を表示する表示手段と、その表示手段における位置を示すユーザからの入力を検出可能な検出手段とを備える装置である。情報処理装置1は、例えば、いわゆるタッチパネルを搭載した端末である。タッチパネルは、画像をディスプレイに表示すると共に、ディスプレイに対する物理的接触を検知する検出手段を有しており、ディスプレイにおける物理的接触が検知された位置を検出できる。
 また、情報処理装置1は、例えば、ディスプレイとポインティングデバイスを備えたパーソナルコンピュータであってもよい。ディスプレイは、画像を表示画面に表示し、ポインティングデバイスは、表示画面における位置を指定する指示入力を受け付けることができる。ユーザが、ポインティングデバイスを操作することにより、表示画面に表示された画像の任意の位置を示す指示入力をすることができる。
 本実施形態の情報処理装置1は、タッチパネル10を備えた端末の例により説明される。図1に示すように、情報処理装置1は、機能的には、取得部11(初期位置取得手段、現在位置取得手段)、処理実行部12(処理実行手段)、表示制御部13(表示制御手段、移動手段)及び記憶部14を備える。タッチパネル10は、検出部10a(検出手段)及び表示部10b(表示手段)を含む。表示部10bは、ディスプレイといった装置により構成される。また、検出部10aは、表示部10bにおいて、ユーザによって指示された画面内の複数の位置を検出可能な部分であって、ディスプレイにおける物理的接触が検知された位置を検出する。
 図2は、情報処理装置1のハードウェア構成図である。情報処理装置1は、物理的には、図2に示すように、CPU101、RAM及びROMといったメモリにより構成される主記憶装置102、ハードディスク等で構成される補助記憶装置103、ネットワークカード等で構成される通信制御装置104、入力デバイスであるキーボード、マウス等の入力装置105、ディスプレイ等の出力装置106などを含むコンピュータシステムとして構成されている。
 図1に示した各機能は、図2に示すCPU101、主記憶装置102等のハードウェア上に所定のコンピュータソフトウェア(情報処理プログラム)を読み込ませることにより、CPU101の制御のもとで通信制御装置104、入力装置105、出力装置106を動作させるとともに、主記憶装置102や補助記憶装置103におけるデータの読み出し及び書き込みを行うことで実現される。処理に必要なデータやデータベースは主記憶装置102や補助記憶装置103内に格納される。
 本実施形態において、処理の対象となるオブジェクトは、例えば、ファイルを表すアイコン、テキストの集合及びテキストボックス等である。オブジェクトは、その種別に応じて、各種の属性情報を伴っており、それらの属性情報はオブジェクトに対応付けられて記憶部14に記憶されている。オブジェクトの属性情報は、アイコンであるオブジェクトが示すアプリケーションに関する情報、テキストボックス等であるオブジェクトのテキストの内容等を含む。
 取得部11は、検出部10aにより検出されたユーザの指示位置を取得する。図3を参照して、取得部11による入力の取得処理を説明する。図3は、タッチパネル10に表示されたオブジェクトに対する入力を模式的に示す図である。図3に示すように、タッチパネル10に表示されたオブジェクトは、当該オブジェクトに対する選択操作を認識するための判定領域Bを有する。判定領域Bは、オブジェクトの位置に基づいて設定される範囲であって、その範囲を示す情報は、例えば、オブジェクトAに対応付けられて記憶部14に記憶されている。
 取得部11は、判定領域B内においてユーザの指示位置Dを取得した場合に、当該指示位置の入力を、オブジェクトAを選択する選択入力として取得する。そして、取得部11は、判定領域B内においてユーザの指示位置Dを取得したときのオブジェクトAの位置を当該オブジェクトの初期位置として取得する。
 ここで、更に図3を参照して、表示制御部13によるオブジェクトの移動処理について説明する。表示制御部13は、検出部10aによってユーザの指示位置の一つが検出されている状態で、オブジェクトの判定領域B内に当該指示位置の一つが含まれている場合に、当該指示位置の一つの移動に応じてそのオブジェクトを移動させる。図3に示すように、指示位置Dがドラッグ操作により位置Eに移動された場合には、表示制御部13は、指示位置の移動に応じて、オブジェクトAの位置をオブジェクトAに示される位置に移動させる。取得部11は、オブジェクトAの位置を当該オブジェクトの現在位置として取得する。
 本実施形態の情報処理装置1では、第1及び第2のオブジェクトに対するドラッグ操作に応じて第1及び第2のオブジェクトに関する処理が実行されるので、取得部11は、表示部10bに表示された第1および第2のオブジェクトのそれぞれの判定領域内に、検出部10aにより検出された指示位置の一つおよび他の一つが同時に含まれたタイミングにおける、第1および第2のオブジェクトの位置を初期位置としてそれぞれ取得する。また、取得部11は、初期位置の取得以後において、第1及び第2のオブジェクトの判定領域Bのそれぞれにおける検出部10aによる指示位置の一つ及び他の一つの検出が維持された状態で、第1および第2のオブジェクトの少なくとも一方が指示位置の移動により移動された場合に、第1および第2のオブジェクトのそれぞれの位置を現在位置としてそれぞれ取得する。なお、以降の説明において、第1のオブジェクトの初期位置を「第1の初期位置」、第1のオブジェクトの現在位置を「第1の現在位置」、第2のオブジェクトの初期位置を「第2の初期位置」、第2のオブジェクトの現在位置を「第2の現在位置」、と記す。
 処理実行部12は、第1及び第2の初期位置と、第1及び第2の現在位置とが所定の位置関係になった場合に、第1及び第2のオブジェクトに関する処理を実行する部分である。また、処理実行部12は、実行した処理の結果に応じた画面を、表示制御部13を介して表示部10bに表示させる。処理実行部12により実行される処理については、後に具体的に説明する。
 また、処理実行部12は、第1の初期位置から第1の現在位置までの距離、及び第2の初期位置から第2の現在位置までの距離が所定の場合に該当する場合に、第1及び第2のオブジェクトに関する処理を実行することができる。なお、以後の説明において、第1の初期位置から第1の現在位置までの距離を「第1の距離」と記し、第2の初期位置から第2の現在位置までの距離を「第2の距離」と記す。具体的には、処理実行部12は、第1の距離及び第2の距離が所定値未満であるか否かによって、第1及び第2のオブジェクトに関する処理を実行するか否かを決定できる。
 図3において、オブジェクトの移動に関する第1又は第2の距離が所定値未満の領域は、オブジェクトAに関する所定領域Cとして示されている。即ち、図3の例では、オブジェクトの移動に関する距離を示す矢印Fの終端が所定領域C外にあるので、処理実行部12は、オブジェクトの移動に関する距離が所定値以上であると判断する。なお、オブジェクトAごとの所定領域Cの範囲を示す情報は、例えば、記憶部14に記憶されている。
 表示制御部13は、複数のオブジェクトを含む画面を表示部10bに表示させる部分であって、処理実行部12により実行された処理の結果に応じた、オブジェクトを含む画面を表示部10bに表示させる。また、先に説明したように、表示部10bに表示されたオブジェクトを、当該オブジェクトの判定領域B内を示す指示位置の移動に応じて移動させる。具体的には、表示制御部13は、記憶部14に記憶された各オブジェクトに関する属性情報にアクセスしながら、表示部10bに表示させるオブジェクトの表示位置を変更させる等の処理を実行する。
 図4(a)は、処理実行部12によるオブジェクトに関する処理の例を示す図である。図4(a)に示す例では、タッチパネル10に第1のオブジェクトA11及び第2のオブジェクトA21が表示されている。第1及び第2のオブジェクトA11,A21は、例えば、アイコンである。
 取得部11は、検出部10aを介して、第1および第2のオブジェクトA11,A21のそれぞれの判定領域B11,B21内に、例えばユーザの第2指及び第1指による指示位置D11,D21を同時に取得すると、指示位置D11,D21を第1の初期位置及び第2の初期位置として取得する。
 そして、第2のオブジェクトA21を第1のオブジェクトA11に近づけるようなドラッグ操作が位置E21に向けて行われると、第2のオブジェクトA21が矢印F21に示されるように移動されるので、取得部11は、その時点における第1のオブジェクトA11及び第2のオブジェクトA21の位置を、第1の現在位置及び第2の現在位置として取得する。この例では、矢印F21に示される第2の距離は、第2の所定領域C21に示される所定値未満の移動距離を超えている。このとき、第1のオブジェクトA11は、ほとんどドラッグ操作されないので、第1のオブジェクトA11に関する第1の距離は、ほとんどゼロに近い値である。
 このように、処理実行部12は、第1のオブジェクトA11の初期位置から現在位置までの第1の距離が所定値未満であって、第2のオブジェクトA21の初期位置から現在位置までの第2の距離が所定値以上である場合に、第1及び第2のオブジェクトに関する第1の処理を実行することができる。なお、第1の処理が実行される条件として、指示位置D21の位置E21への移動に応じて移動された第2のオブジェクトA21の位置が、第1のオブジェクトA11の現在位置から所定距離以内にあることがさらに含まれる。このように、第2のオブジェクトを第1のオブジェクトに近づけるように移動させるドラッグ操作をすることにより第1の処理の実行が可能となるので、容易且つ誤操作し難い操作によるユーザインターフェースが提供される。
 図4(b)は、第1の処理の例を示す図である。図4(b)に示す例では、フォルダHが生成され、第1及び第2のオブジェクトA11,A21が生成されたフォルダHに格納される。即ち、処理実行部12は、フォルダHを生成し、第1及び第2のオブジェクトA11,A21をフォルダHに格納する。この例によれば、例えば、第2のオブジェクトを第1のオブジェクトの表示位置に向けてドラッグ操作することにより、第1及び第2のオブジェクトを一のフォルダに格納するといった直感的なユーザインターフェースが提供される。
 図5は、処理に係るオブジェクトがテキストボックスである場合の例を示す図である。図5(a)に示す例では、タッチパネル10にテキストボックスからなる第1のオブジェクトA12及び第2のオブジェクトA22が表示されている。
 図5(a)に示す例においても、図4(a)に示す例と同様に、取得部11は、検出部10aを介して、第1および第2のオブジェクトA12,A22のそれぞれの判定領域内に、例えばユーザの第2指及び第1指による指示位置D12,D22を同時に取得すると、指示位置D12,D22を第1の初期位置及び第2の初期位置として取得する。続いて、第2のオブジェクトA22を第1のオブジェクトA12に近づけるようなドラッグ操作が行われると、第2のオブジェクトA22が矢印F22に示されるように移動されるので、取得部11は、その時点における第1のオブジェクトA12及び第2のオブジェクトA22の位置を、第1の現在位置及び第2の現在位置として取得する。この例では、矢印F22に示される第2の距離は、第2の所定領域C22に示される所定値未満の移動距離を超えている。このとき、第1のオブジェクトA12は、ほとんどドラッグ操作されないので、第1のオブジェクトA12に関する第1の距離は、ほとんどゼロに近い値である。
 そして、処理実行部12は、第1のオブジェクトA12に関する第1の距離が所定値未満であって、矢印F22に示される第2の距離が所定値以上であると判断し、さらに、第2のオブジェクトA22の現在位置が、第1のオブジェクトA12の現在位置から所定距離以内にある場合に、第1及び第2のオブジェクトに関する第1の処理を実行する。
 図5(b)は、第1の処理の例を示す図である。図5(b)に示す例では、処理実行部12は、第1の処理として、第2のオブジェクトA22を第1のオブジェクトA12に関連付ける。具体的には、処理実行部12は、テキスト「222」をテキスト「111」に属するものとして関連付けて表示する。この例によれば、例えば、第2のオブジェクトを第1のオブジェクトの表示位置に向けてドラッグすることにより、第2のオブジェクトを第1のオブジェクトに関連付けるといった直感的なユーザインターフェースが提供される。
 図5(c)は、第1の処理の他の例を示す図である。図5(c)に示す例では、処理実行部12は、第2のオブジェクトA22に関する情報による第1のオブジェクトA12に関する情報に対する上書き処理を実行する。具体的には、処理実行部12は、テキスト「222」により、第1のオブジェクトA12に係るテキストボックスの内容を上書きし、テキスト「222」が含まれるテキストボックスA1Xを、第1のオブジェクトA12に係るテキストボックスが表示されていた位置に表示する。なお、図5(c)に示す例では、第2のオブジェクトA22に係るテキストボックスが削除されているが、削除されずに表示されていることとしてもよい。また、図5(c)では、テキストボックス内のテキストが上書きされる例を示したが、第2のオブジェクトA22に関するその他の属性情報により、第1のオブジェクトA12に関する同属性情報が上書きされることとしてもよい。この例によれば、例えば、第2のオブジェクトを第1のオブジェクトの表示位置に向けてドラッグすることにより、第2のオブジェクトに関する情報により第1のオブジェクトに関する情報を上書きするといった直感的なユーザインターフェースが提供される。
 図6(a)は、処理実行部12によるオブジェクトに関する処理の他の例を示す図である。図6(a)に示す例では、タッチパネル10に第1のオブジェクトA13及び第2のオブジェクトA23が表示されている。第1及び第2のオブジェクトA13,A23は、例えば、アイコンである。
 取得部11は、検出部10aを介して、第1および第2のオブジェクトA13,A23のそれぞれの判定領域内に、例えばユーザの第2指及び第1指による指示位置D13,D23を同時に取得すると、指示位置D13,D23を第1の初期位置及び第2の初期位置として取得する。
 そして、第1のオブジェクトA13及び第2のオブジェクトA23のそれぞれに対して矢印F13,F23に示されるようなドラッグ操作が行われると、第1のオブジェクトA13及び第2のオブジェクトA23はそれぞれ、位置E13,E23に移動されるので、取得部11は、その時点における第1のオブジェクトA13及び第2のオブジェクトA23の位置を、第1の現在位置及び第2の現在位置として取得する。図6(a)の例では、第1の現在位置E13はオブジェクトA13に関する所定領域C13外に位置するので、第1のオブジェクトA13の移動に関する第1の距離は所定値以上である。また、第2の現在位置E23はオブジェクトA23に関する所定領域C23外に位置するので、第2のオブジェクトA23の移動に関する第2の距離は所定値以上である。
 図6(b)は、図6(a)に示すような第1のオブジェクトA13及び第2のオブジェクトA23の移動が行われた場合の、第1の初期位置D13、第2の初期位置D23、第1の現在位置E13及び第2の現在位置E23の位置関係を示す図である。図6(b)に示すように、第1の初期位置D13と第2の初期位置D23とを結ぶ線分が、第1の現在位置E13と第2の現在位置E23とを結ぶ線分と交差すると、その交差した点において移動中心点CPが定義される。また、第1の初期位置D13と移動中心点CPとを結ぶ線分と、第1の現在位置E13と移動中心点CPとを結ぶ線分とが成す角であって、移動中心点CPを中心とする第1のオブジェクトの初期位置D13から現在位置E13に至る移動及び移動中心点CPを中心とする第2のオブジェクトの初期位置D23から現在位置E23に至る移動を示す回転角Rが定義される。
 このように、処理実行部12は、矢印F13に示される第1の距離が所定値以上であって、矢印F23に示される第2の距離が所定値以上であって、回転角Rが所定の大きさ以上である場合に、第1及び第2のオブジェクトに関する所定の処理として第2の処理を実行する。この例によれば、第1及び第2のオブジェクトに対するドラッグ操作の調整により第2の処理の実行が可能となるので、誤操作し難く且つ直感的なユーザインターフェースが提供される。なお、処理実行部12は、移動中心点CPを中心とする第1のオブジェクトの初期位置D13から現在位置E13に至る移動が、時計回り及び反時計回りのいずれに該当するかを、第2の処理の実行の条件として有することとしてもよい。
 なお、第1のオブジェクトA13及び第2のオブジェクトA23のそれぞれに対するドラッグ操作は、互いに長さが異なる2指で実施される可能性が高い。このような事情に鑑みて、処理実行部12は、矢印F13に示される第1の距離が第1の所定値以上であって、矢印F23に示される第2の距離が第1の所定値とは異なる第2の所定値以上である場合に、第1及び第2のオブジェクトに関する所定の処理として第2の処理を実行することとしてもよい。
 この場合には、第1のオブジェクトA13及び第2のオブジェクトA23のそれぞれを操作する指の長さに応じたドラッグ操作量に関する閾値を設定できる。例えば、第1のオブジェクトA13が第2指で操作され、第2のオブジェクトA23が第1指で操作される蓋然性が高いようなオブジェクトの配置がなされている場合には、第2の所定値を第1の所定値より小さく設定することにより、第1のオブジェクトA13に対するドラッグ操作より短いドラッグ操作を第2のオブジェクトA23に対して行うことにより第2の処理が実行される。これにより、操作に用いられる可能性の高い指の長さが反映された高精度なユーザインターフェースを提供できる。
 図7は、第2の処理の例を示す図である。図7に示す例では、第1のオブジェクトA13及び第2のオブジェクトA23の表示位置が互いに入れ替えられている。即ち、処理実行部12は、第1のオブジェクトA13の表示位置を第2のオブジェクトA23が表示されていた位置に変更し、第2のオブジェクトA23の表示位置を第1のオブジェクトA13が表示されていた位置に変更する。この例によれば、例えば、第1及び第2のオブジェクトを適切にドラッグ操作することにより、第1及び第2のオブジェクトの表示位置が互いに入れ替えられるといった直感的なユーザインターフェースが提供される。
 図8(a)は、処理実行部12によるオブジェクトに関する処理の決定の他の例を示す図である。図8(a)に示す例では、タッチパネル10に第1のオブジェクトA15及び第2のオブジェクトA25が表示されている。第1及び第2のオブジェクトA15,A25は、例えば、アイコンである。
 取得部11は、検出部10aを介して、第1および第2のオブジェクトA15,A25のそれぞれの判定領域内に、例えばユーザの第2指及び第1指による指示位置D15,D25を同時に取得すると、指示位置D15,D25を第1の初期位置及び第2の初期位置として取得する。
 そして、第1のオブジェクトA15及び第2のオブジェクトA25のそれぞれに対して矢印F15,F25に示されるようなドラッグ操作が行われると、第1のオブジェクトA15及び第2のオブジェクトA25はそれぞれ、位置E15,E25に対応する位置に移動されるので、取得部11は、その時点における第1のオブジェクトA15及び第2のオブジェクトA25の位置を、第1の現在位置及び第2の現在位置として取得する。図8(a)の例では、第1の現在位置E15はオブジェクトA15に関する所定領域C15外に位置するので、第1のオブジェクトA15の移動に関する第1の距離は所定値以上である。また、第2の現在位置E25はオブジェクトA25に関する所定領域C25外に位置するので、第2のオブジェクトA25の移動に関する第2の距離は所定値以上である。さらに、図8(a)の例では、第1の現在位置E15及び第2の現在位置E25の間の距離LE5が定義される。
 図8(a)に示すように、第1のオブジェクトA15及び第2のオブジェクトA25のそれぞれが移動された場合において、距離LE5が所定値以下であって、第2の初期位置D25から第1の現在位置E15までの距離LE1が、第2の初期位置D25から第1の初期位置D15までの距離LD5より短く、第1の初期位置D15から第2の現在位置E25までの距離LE2が、第1の初期位置D15から第2の初期位置D25までの距離LD5より短い場合に、処理実行部12は、第1及び第2のオブジェクトに関する所定の処理として第3の処理を実行することができる。この例によれば、第1及び第2のオブジェクトの位置を近付けて、更に両オブジェクトを衝突させるような移動操作が行われた場合に、第3の処理が実行される。これにより、第1及び第2のオブジェクトに対するドラッグ操作の調整により第3の処理の実行が可能となるので、誤操作し難く且つ直感的なユーザインターフェースが提供される。
 図8(b)は、第3の処理の例を示す図である。図8(b)に示すように、第3の処理を実施することが決定されると、処理実行部12は、フォルダHを生成し、第1及び第2のオブジェクトA15,A25をフォルダHに格納する。この例によれば、例えば、第1及び第2のオブジェクトを互いに近づけるようにドラッグ操作することにより、第1及び第2のオブジェクトを一のフォルダに格納するといった直感的なユーザインターフェースが提供される。
 図8(c)は、第3の処理の他の例を示す図である。図8(c)に示すように、第3の処理を実施することが決定されると、処理実行部12は、第1及び第2のオブジェクトA15,A25を削除する。この例によれば、例えば、第1及び第2のオブジェクトを互いに近づけるようにドラッグ操作することにより、第1及び第2のオブジェクトが削除されるといった直感的なユーザインターフェースが提供される。
 続いて、図9を参照して、本実施形態の情報処理装置1における情報処理方法について説明する。図9は、情報処理方法の処理内容の例を示すフローチャートである。
 まず、取得部11は、表示部10bに表示された第1および第2のオブジェクトのそれぞれの判定領域内に、検出部10aにより検出された第1及び第2の指示位置が同時に含まれたタイミングにおける、第1および第2のオブジェクトの位置を初期位置としてそれぞれ取得する(S1)。
 次に、ユーザによるオブジェクトのドラッグ操作が行われると、表示制御部13は、ドラッグ操作に応じてオブジェクトを移動させ、取得部11は、オブジェクトの移動を検出する(S2)。
 続いて、取得部11は、オブジェクトのドラッグ操作中において第1及び第2のオブジェクトの判定領域Bのそれぞれにおける検出部10aによる指示位置の検出が維持された状態で、第1および第2のオブジェクトの少なくとも一方が指示位置の移動により移動された場合に、第1および第2のオブジェクトのそれぞれの位置を現在位置としてそれぞれ取得する(S3)。
 そして、処理実行部12は、第1の初期位置、第2の初期位置、第1の現在位置及び第2の現在位置の位置関係に応じた所定の処理を実行する(S4)。
 次に、図10を参照して、コンピュータを情報処理装置1として機能させるための情報処理プログラムを説明する。情報処理プログラムP1は、メインモジュールP10、取得モジュールP11、処理実行モジュールP12及び表示制御モジュールP13を備える。
 メインモジュールP10は、オブジェクト制御処理を統括的に制御する部分である。取得モジュールP11、処理実行モジュールP12及び表示制御モジュールP13を実行することにより実現される機能はそれぞれ、図1に示される情報処理装置1の取得部11、処理実行部12及び表示制御部13の機能と同様である。
 情報処理プログラムP1は、例えば、CD-ROMやDVD、ROM等の記憶媒体D1または半導体メモリによって提供される。また、情報処理プログラムP1は、搬送波に重畳されたコンピュータデータ信号として通信ネットワークを介して提供されてもよい。
 次に、情報処理装置1を含む認証装置1Aについて説明する。図11は、本実施形態に係る認証装置1Aの機能的構成を示すブロック図である。認証装置1Aは、ユーザからの情報処理装置1に対する入力に基づき、例えば当該ユーザが正当なユーザであるか否かといった、当該ユーザに関する認証処理を行う装置である。
 図11に示すように、認証装置1Aは、情報処理装置1及び認証部15を含む。認証部15は、情報処理装置1において、複数のオブジェクトに関する予め設定された処理が実行されたか否かを判定することにより、ユーザに関する認証処理を行う部分である。具体的には、認証部15は、処理実行部12及び表示制御部13において実行された処理内容に基づき認証処理を行う。
 次に、図12及び図13を参照して認証処理の具体例について説明する。図12は、認証処理のための所定の処理内容が設定されたテーブルの例を示す図である。このテーブルは、例えば、記憶部14に記憶されている。図12に示すように、所定の処理内容は、処理順番ごとに選択オブジェクト及び回転方向を含む。
 認証部15は、例えば、図6及び図7を参照して説明したような、複数のオブジェクトに対する所定の入れ替え処理が実行されたか否かを判定することにより、ユーザに関する認証処理を行う。即ち、認証部15は、図12のテーブルに設定されたように、オブジェクト「1」及びオブジェクト「7」の入れ替え処理、及びオブジェクト「1」及びオブジェクト「9」の入れ替え処理がユーザにより続けて行われた場合に、そのユーザを正当なユーザとして認証する。
 また、認証処理において、各選択オブジェクトの初期位置間を結ぶ線分と現在位置間を結ぶ線分との交点である移動中心点を中心とする各選択オブジェクトの初期位置から現在位置に至る移動が、時計回り及び反時計回りのいずれに該当するかを、認証の条件として含むことができる。具体的には、図12に示すように、選択オブジェクト(1,7)に関する入れ替え処理の条件として、時計回りに入れ替えが行われること、及び選択オブジェクト(1,9)に関する入れ替え処理の条件として、反時計回りに入れ替えが行われることを認証の条件として含むことができる。
 図13は、認証処理の具体例を示す模式図である。図13に示す例では、タッチパネルの表示部10bにいわゆるテンキーが表示されており、このテンキーに対するユーザからの入力に基づき認証処理が行われる。表示された各キーは、情報処理装置1におけるオブジェクトに相当する。
 まず、図13(a)に示すように、ユーザによる、矢印FK1に示されるオブジェクトKに対するドラッグ操作、及び矢印FK7に示されるオブジェクトKに対するドラッグ操作が行われると、処理実行部12は、オブジェクトK及びオブジェクトKの表示位置を入れ替える処理を実行する。そして、その処理に従い、表示制御部13は、オブジェクトの表示位置の入れ替えを実施する。このとき、処理実行部12は、オブジェクトK及びオブジェクトKに関する入れ替え処理の条件として、時計回りに入れ替えが行われることを併せて取得する。
 認証部15は、表示制御部13によりオブジェクト「1」(オブジェクトK)及びオブジェクト「7」(オブジェクトK)の表示位置の入れ替え処理が実施されたこと、及びその入れ替え処理の指示のためのドラッグ操作が時計回りで実施されたことを認識し、処理順番「1」に設定された処理が正当に行われた旨の判定をする。
 続いて、図13(b)に示すように、ユーザによる、矢印FK12に示されるオブジェクトKに対するドラッグ操作、及び矢印FK9に示されるオブジェクトKに対するドラッグ操作が行われると、処理実行部12は、オブジェクトK及びオブジェクトKの表示位置を入れ替える処理を実行する。そして、その処理に従い、表示制御部13は、オブジェクトの表示位置の入れ替えを実施する。このとき、処理実行部12は、オブジェクトK及びオブジェクトKに関する入れ替え処理の条件として、反時計回りに入れ替えが行われることを併せて取得する。
 認証部15は、処理実行部12によりオブジェクト「1」(オブジェクトK)及びオブジェクト「9」(オブジェクトK)の表示位置の入れ替え処理が実施されたこと、及びその入れ替え処理の指示のためのドラッグ操作が反時計回りで実施されたことを認識し、処理順番「2」に設定された処理が正当に行われた旨の判定をする。図13(c)は、処理順番「1」及び「2」に規定された処理が正当に実施された後の、タッチパネル10の表示例を示す図である。
 以上のように、図12のテーブルに予め設定された処理が実施されると、認証部15は、例えば、認証装置1Aに対する操作を実施したユーザが正当なユーザであると認証し、その認証結果を表示部10bに表示する。
 本実施形態の認証装置1Aによれば、第1及び第2のオブジェクトに対して所定のドラッグ操作が行われたか否かを判定することにより認証処理が行われるので、認証のための入力が容易であると共に、高度なセキュリティが確保される。また、所定のオブジェクトに対する入れ替え処理が行われたか否かを判定することにより認証処理が行われるので、容易かつ直感的な入力操作による認証装置が実現される。さらに、オブジェクトの位置を入れ替える操作において、入れ替えに係る第1及び第2のオブジェクトの相対的な位置の変位の軌跡に関して、その回転方向が認証のための条件に含まれることにより、より高度なセキュリティが実現される。
 以上説明した本実施形態の情報処理装置1、情報処理方法、情報処理プログラムP1によれば、表示部10aにおけるユーザの指示位置が検出部10bにより検出され、オブジェクトの位置に基づく判定領域において検出されたユーザの指示位置を移動させることにより、表示部10aに表示された第1及び第2のオブジェクトの少なくとも一方を移動させることができ、第1及び第2のオブジェクトの移動に関する初期位置及び現在位置が取得部11により取得され、初期位置及び現在位置の位置関係に基づき、第1及び第2のオブジェクトに関する所定の処理が実行される。ユーザは、表示された第1及び第2のオブジェクトを移動させるような容易な操作により、オブジェクトに関する処理を実行できる。また、オブジェクトを移動させる操作により、各オブジェクトの初期位置及び現在位置を調整することにより所望の処理を実行できるので、誤操作が低減される。
 以上、本発明をその実施形態に基づいて詳細に説明した。しかし、本発明は上記実施形態に限定されるものではない。本発明は、その要旨を逸脱しない範囲で様々な変形が可能である。
 本実施形態によれば、タッチパネルに表示されたオブジェクトに対して所望の処理を実行するための指示操作において、操作手順を増やさずに誤操作を低減させる可能性があるユーザインターフェースを提供できる。
 1…情報処理装置、1A…認証装置、10…タッチパネル、10a…検出部、10b…表示部、11…取得部、12…処理実行部、13…表示制御部、14…記憶部、15…認証部、P1…情報処理プログラム、P10…メインモジュール、P11…取得モジュール、P12…処理実行モジュール、P13…表示制御モジュール。

Claims (10)

  1.  複数のオブジェクトを含む画面を表示手段に表示させる表示制御手段と、
     ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段と、
     前記検出手段によって前記ユーザの指示位置の一つが検出されている状態で、前記複数のオブジェクトのうちの一つのオブジェクトの位置に基づいて設定される判定領域内に該指示位置の一つが含まれている場合に、該指示位置の一つの移動に応じて該一つのオブジェクトを移動させる移動手段と、
     第1および第2のオブジェクトのそれぞれの前記判定領域内に前記指示位置の一つおよび他の一つが同時に含まれたタイミングにおける、前記第1および第2のオブジェクトの位置を初期位置としてそれぞれ取得する初期位置取得手段と、
     前記初期位置取得手段により前記第1及び第2のオブジェクトの初期位置が取得された時以後において、前記第1及び第2のオブジェクトの判定領域のそれぞれにおける前記検出手段による前記指示位置の一つ及び他の一つの検出が維持された状態で、前記移動手段により前記第1および第2のオブジェクトの少なくとも一方が移動された場合に、前記第1および第2のオブジェクトのそれぞれの位置を現在位置としてそれぞれ取得する現在位置取得手段と、
     前記第1および第2のオブジェクトの初期位置と、前記第1および第2のオブジェクトの現在位置と、が所定の位置関係になった場合に、前記第1および第2のオブジェクトに関する処理を実行する処理実行手段と、
     を備える情報処理装置。
  2.  前記処理実行手段は、前記第1のオブジェクトの初期位置から現在位置までの第1の距離が所定値未満であって、前記第2のオブジェクトの初期位置から現在位置までの第2の距離が所定値以上であって、前記第1のオブジェクトの現在位置及び前記第2のオブジェクトの現在位置の間の距離が所定値以下である場合に、前記第1及び第2のオブジェクトに関する第1の処理を実行する、
     請求項1に記載の情報処理装置。
  3.  前記処理実行手段は、前記第1のオブジェクトの初期位置から現在位置までの第1の距離が所定値以上であって、前記第2のオブジェクトの初期位置から現在位置までの第2の距離が所定値以上であって、前記第1のオブジェクトの初期位置と前記第2のオブジェクトの初期位置とを結ぶ線分が、前記第1のオブジェクトの現在位置と前記第2のオブジェクトの現在位置とを結ぶ線分と移動中心点において交差し、前記第1のオブジェクトの初期位置と前記移動中心点とを結ぶ線分と、前記第1のオブジェクトの現在位置と前記移動中心点とを結ぶ線分とが成す角であって、前記移動中心点を中心とする前記第1のオブジェクトの初期位置から現在位置に至る移動を示す回転角が所定の大きさ以上である場合に、前記第1及び第2のオブジェクトに関する第2の処理を実行する、
     請求項1または2に記載の情報処理装置。
  4.  前記処理実行手段は、前記移動中心点を中心とする前記第1のオブジェクトの初期位置から現在位置に至る移動が、時計回り及び反時計回りのいずれに該当するかを、前記第2の処理の実行の条件として有する、
     請求項3に記載の情報処理装置。
  5.  前記処理実行手段は、前記第1のオブジェクトの初期位置から現在位置までの第1の距離が第1の所定値以上であって、前記第2のオブジェクトの初期位置から現在位置までの第2の距離が前記第1の所定値とは異なる第2の所定値以上である場合に、前記第1及び第2のオブジェクトに関する第2の処理を実行する、
     請求項3または4に記載の情報処理装置。
  6.  前記処理実行手段は、
     前記第1のオブジェクトの初期位置から現在位置までの第1の距離が所定値以上であって、前記第2のオブジェクトの初期位置から現在位置までの第2の距離が所定値以上であって、前記第1のオブジェクトの現在位置及び前記第2のオブジェクトの現在位置の間の距離が所定値以下であって、
    前記第2のオブジェクトの初期位置から前記第1のオブジェクトの現在位置までの距離が、前記第2のオブジェクトの初期位置から前記第1のオブジェクトの初期位置までの距離より短く、前記第1のオブジェクトの初期位置から前記第2のオブジェクトの現在位置までの距離が、前記第1のオブジェクトの初期位置から前記第2のオブジェクトの初期位置までの距離より短い場合に、前記第1及び第2のオブジェクトに関する第3の処理を実行する、
     請求項1~5のいずれか1項に記載の情報処理装置。
  7.  請求項1~6のいずれか1項に記載の情報処理装置を含む認証装置であって、
     前記情報処理装置において、複数のオブジェクトに関する予め設定された処理が実行されたか否かを判定することにより、前記ユーザに関する認証処理を行う認証手段を備える、認証装置。
  8.  請求項3~5のいずれか1項に記載の情報処理装置を含む認証装置であって、
     前記第2の処理は、前記第1及び第2のオブジェクトの表示位置を互いに入れ替える入れ替え処理であり、
     前記情報処理装置において、予め設定された、複数のオブジェクトに対する所定の入れ替え処理が実行されたか否かを判定することにより、前記ユーザに関する認証処理を行う認証手段を備える、認証装置。
  9.  複数のオブジェクトを含む画面を表示手段に表示させる表示制御ステップと、
     ユーザによって指示された前記画面内の複数の位置を検出する検出ステップと、
     第1および第2のオブジェクトそれぞれの位置に基づいて設定される各判定領域内に、前記検出ステップにおいて検出された指示位置の一つおよび他の一つが同時に含まれたタイミングにおける、前記第1および第2のオブジェクトの位置を初期位置としてそれぞれ取得する初期位置取得ステップと、
     前記第1及び第2のオブジェクトの判定領域のそれぞれにおける前記指示位置の一つ及び他の一つの検出が維持された状態で、前記指示位置の一つ及び他の一つの少なくとも一方の移動に応じて、前記第1及び第2のオブジェクトの少なくとも一方を移動させる移動ステップと、
     前記移動ステップにおいて前記第1及び第2のオブジェクトの少なくとも一方が移動された後の前記第1および第2のオブジェクトのそれぞれの位置を現在位置としてそれぞれ取得する現在位置取得ステップと、
     前記第1および第2のオブジェクトの初期位置と、前記第1および第2のオブジェクトの現在位置と、が所定の位置関係になった場合に、前記第1および第2のオブジェクトに関する処理を実行する処理実行ステップと、
     を有する情報処理方法。
  10.  コンピュータに、
     複数のオブジェクトを含む画面を表示手段に表示させる表示制御機能と、
     ユーザによって指示された前記画面内の複数の位置を検出可能な検出機能と、
     前記検出機能によって前記ユーザの指示位置の一つが検出されている状態で、前記複数のオブジェクトのうちの一つのオブジェクトの位置に基づいて設定される判定領域内に該指示位置の一つが含まれている場合に、該指示位置の一つの移動に応じて該一つのオブジェクトを移動させる移動機能と、
     第1および第2のオブジェクトそれぞれの前記判定領域内に前記指示位置の一つおよび他の一つが同時に含まれたタイミングにおける、前記第1および第2のオブジェクトの位置を初期位置としてそれぞれ取得する初期位置取得機能と、
     前記初期位置取得機能により前記第1及び第2のオブジェクトの初期位置が取得された時以後において、前記検出機能による前記指示位置の一つ及び他の一つの検出が維持された状態で、前記移動機能により前記第1および第2のオブジェクトの少なくとも一方が移動された場合に、前記第1および第2のオブジェクトのそれぞれの位置を現在位置としてそれぞれ取得する現在位置取得機能と、
     前記第1および第2のオブジェクトの初期位置と、前記第1および第2のオブジェクトの現在位置と、が所定の位置関係になった場合に、前記第1および第2のオブジェクトに関する処理を実行する処理実行機能と、
     を実現させる情報処理プログラム。
PCT/JP2013/051430 2012-06-29 2013-01-24 情報処理装置、認証装置、情報処理方法及び情報処理プログラム WO2014002518A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/374,328 US10216401B2 (en) 2012-06-29 2013-01-24 Information processing device and method for multi-touch user interface

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012147137A JP5502943B2 (ja) 2012-06-29 2012-06-29 情報処理装置、認証装置、情報処理方法及び情報処理プログラム
JP2012-147137 2012-06-29

Publications (1)

Publication Number Publication Date
WO2014002518A1 true WO2014002518A1 (ja) 2014-01-03

Family

ID=49782702

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/051430 WO2014002518A1 (ja) 2012-06-29 2013-01-24 情報処理装置、認証装置、情報処理方法及び情報処理プログラム

Country Status (3)

Country Link
US (1) US10216401B2 (ja)
JP (1) JP5502943B2 (ja)
WO (1) WO2014002518A1 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6445777B2 (ja) * 2014-04-15 2018-12-26 キヤノン株式会社 オブジェクトを管理する情報処理装置およびその制御方法
CN104238877B (zh) * 2014-09-04 2018-03-13 华为技术有限公司 控制图标的方法和终端
USD789965S1 (en) 2016-06-03 2017-06-20 Teleport Med, LLC Display screen or portion thereof with graphical user interface
USD837261S1 (en) 2016-06-03 2019-01-01 Teleport Med, LLC Display screen or portion thereof with icon
USD789966S1 (en) * 2016-06-03 2017-06-20 Teleport Med, LLC Display screen or portion thereof with graphical user interface
USD789400S1 (en) 2016-06-03 2017-06-13 Teleport Med, LLC Display screen or portion thereof with graphical user interface
USD789967S1 (en) 2016-06-03 2017-06-20 Teleport Med, LLC Display screen or portion thereof with graphical user interface

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100083111A1 (en) * 2008-10-01 2010-04-01 Microsoft Corporation Manipulation of objects on multi-touch user interface
WO2010062348A2 (en) * 2008-10-28 2010-06-03 Cirque Corporation A method of recognizing a multi-touch area rotation gesture
JP2011216043A (ja) * 2010-04-02 2011-10-27 Sony Corp 表示装置、認証方法、およびプログラム

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1173271A (ja) * 1997-08-28 1999-03-16 Sharp Corp 指示装置、処理装置および記憶媒体
JP4542637B2 (ja) * 1998-11-25 2010-09-15 セイコーエプソン株式会社 携帯情報機器及び情報記憶媒体
US7370281B2 (en) * 2002-02-22 2008-05-06 Bea Systems, Inc. System and method for smart drag-and-drop functionality
US7650575B2 (en) * 2003-03-27 2010-01-19 Microsoft Corporation Rich drag drop user interface
US7434170B2 (en) * 2003-07-09 2008-10-07 Microsoft Corporation Drag and drop metadata editing
JP4701027B2 (ja) * 2004-09-02 2011-06-15 キヤノン株式会社 情報処理装置、制御方法及びプログラム
US7552399B2 (en) * 2005-12-27 2009-06-23 International Business Machines Corporation Extensible icons with multiple drop zones
US8793605B2 (en) * 2006-03-29 2014-07-29 Yahoo! Inc. Smart drag-and-drop
US8077153B2 (en) * 2006-04-19 2011-12-13 Microsoft Corporation Precise selection techniques for multi-touch screens
US8452978B2 (en) * 2006-09-15 2013-05-28 Identity Metrics, LLC System and method for user authentication and dynamic usability of touch-screen devices
US7877707B2 (en) * 2007-01-06 2011-01-25 Apple Inc. Detecting and interpreting real-world and security gestures on touch and hover sensitive devices
US8519964B2 (en) * 2007-01-07 2013-08-27 Apple Inc. Portable multifunction device, method, and graphical user interface supporting user navigations of graphical objects on a touch screen display
JP2009140368A (ja) * 2007-12-07 2009-06-25 Sony Corp 入力装置、表示装置、入力方法、表示方法及びプログラム
US20090327975A1 (en) * 2008-06-27 2009-12-31 Stedman Roy W Multi-Touch Sorting Gesture
US8390577B2 (en) * 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
TWI374382B (en) * 2008-09-01 2012-10-11 Htc Corp Icon operation method and icon operation module
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
US8466879B2 (en) * 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
US20130014041A1 (en) * 2008-12-09 2013-01-10 Denny Jaeger Using gesture objects to replace menus for computer control
US8762885B2 (en) * 2008-12-15 2014-06-24 Verizon Patent And Licensing Inc. Three dimensional icon stacks
US8219937B2 (en) * 2009-02-09 2012-07-10 Microsoft Corporation Manipulation of graphical elements on graphical user interface via multi-touch gestures
US9524085B2 (en) * 2009-05-21 2016-12-20 Sony Interactive Entertainment Inc. Hand-held device with ancillary touch activated transformation of active element
US8473862B1 (en) * 2009-05-21 2013-06-25 Perceptive Pixel Inc. Organizational tools on a multi-touch display device
KR101597553B1 (ko) * 2009-05-25 2016-02-25 엘지전자 주식회사 기능 실행 방법 및 그 장치
GB0910545D0 (en) * 2009-06-18 2009-07-29 Therefore Ltd Picturesafe
JP5552767B2 (ja) * 2009-07-27 2014-07-16 ソニー株式会社 表示処理装置、表示処理方法および表示処理プログラム
US8762886B2 (en) * 2009-07-30 2014-06-24 Lenovo (Singapore) Pte. Ltd. Emulating fundamental forces of physics on a virtual, touchable object
JP5291590B2 (ja) * 2009-10-02 2013-09-18 三菱電機株式会社 監視制御装置の端末装置
US8957918B2 (en) * 2009-11-03 2015-02-17 Qualcomm Incorporated Methods for implementing multi-touch gestures on a single-touch touch surface
US8786639B2 (en) * 2010-01-06 2014-07-22 Apple Inc. Device, method, and graphical user interface for manipulating a collection of objects
US8839150B2 (en) * 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input
JP2011227703A (ja) * 2010-04-20 2011-11-10 Rohm Co Ltd 2点検知可能なタッチパネル入力装置
US8386950B2 (en) * 2010-04-05 2013-02-26 Sony Ericsson Mobile Communications Ab Methods, systems and computer program products for arranging a plurality of icons on a touch sensitive display
US20110252349A1 (en) * 2010-04-07 2011-10-13 Imran Chaudhri Device, Method, and Graphical User Interface for Managing Folders
JP5533165B2 (ja) * 2010-04-09 2014-06-25 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
US8773470B2 (en) * 2010-05-07 2014-07-08 Apple Inc. Systems and methods for displaying visual information on a device
JP2012027846A (ja) * 2010-07-27 2012-02-09 Sony Corp 情報処理装置、情報表示方法及びコンピュータプログラム
KR20120012541A (ko) * 2010-08-02 2012-02-10 삼성전자주식회사 터치 디바이스에서 폴더 운용 방법 및 장치
KR101735614B1 (ko) * 2010-08-12 2017-05-15 엘지전자 주식회사 휴대 단말기 및 그 동작 제어방법
JP5625642B2 (ja) * 2010-09-06 2014-11-19 ソニー株式会社 情報処理装置、データ分割方法及びデータ分割プログラム
KR101711047B1 (ko) * 2010-10-07 2017-02-28 엘지전자 주식회사 전자 기기 및 전자 기기의 제어 방법
KR101726606B1 (ko) * 2010-11-18 2017-04-13 삼성전자주식회사 휴대 단말기의 정보 표시 방법 및 장치
KR101740436B1 (ko) * 2010-12-08 2017-05-26 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR101762611B1 (ko) * 2010-12-10 2017-07-28 삼성전자 주식회사 터치스크린을 구비한 휴대 단말기의 화면 표시 방법 및 장치
US10152192B2 (en) * 2011-02-21 2018-12-11 Apple Inc. Scaling application windows in one or more workspaces in a user interface
EP2492788B1 (en) * 2011-02-24 2015-07-15 ST-Ericsson SA Zooming method
US20120272171A1 (en) * 2011-04-21 2012-10-25 Panasonic Corporation Apparatus, Method and Computer-Implemented Program for Editable Categorization
JP5485220B2 (ja) * 2011-05-13 2014-05-07 株式会社Nttドコモ 表示装置、ユーザインタフェース方法及びプログラム
US8860675B2 (en) * 2011-07-12 2014-10-14 Autodesk, Inc. Drawing aid system for multi-touch devices
JP4943553B1 (ja) * 2011-08-31 2012-05-30 楽天株式会社 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体
CN102999286A (zh) * 2011-09-16 2013-03-27 腾讯科技(深圳)有限公司 一种快速创建文件夹的系统及方法
US8860762B2 (en) * 2011-10-28 2014-10-14 Sap Se Polar multi-selection
KR20130080179A (ko) * 2012-01-04 2013-07-12 삼성전자주식회사 휴대용 단말기에서 아이콘 관리 방법 및 장치
EP2772841B1 (de) * 2013-02-27 2018-10-17 Siemens Aktiengesellschaft Verfahren und Programm-Editor für das Erstellen und Bearbeiten eines Programms für eine industrielle Automatisierungsanordnung

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100083111A1 (en) * 2008-10-01 2010-04-01 Microsoft Corporation Manipulation of objects on multi-touch user interface
WO2010062348A2 (en) * 2008-10-28 2010-06-03 Cirque Corporation A method of recognizing a multi-touch area rotation gesture
JP2011216043A (ja) * 2010-04-02 2011-10-27 Sony Corp 表示装置、認証方法、およびプログラム

Also Published As

Publication number Publication date
US20150046861A1 (en) 2015-02-12
US10216401B2 (en) 2019-02-26
JP5502943B2 (ja) 2014-05-28
JP2014010649A (ja) 2014-01-20

Similar Documents

Publication Publication Date Title
JP5502943B2 (ja) 情報処理装置、認証装置、情報処理方法及び情報処理プログラム
JP5448370B2 (ja) 情報処理装置及びその制御方法、プログラム、記憶媒体
US9329775B2 (en) Figure drawing apparatus, figure drawing method and recording medium on which figure drawing programs are recorded
US9335899B2 (en) Method and apparatus for executing function executing command through gesture input
CN105359078B (zh) 信息处理装置、信息处理方法和计算机程序
US8963873B2 (en) Data processing device, data processing method, data processing program, and computer-readable recording medium which records program
JP5318924B2 (ja) 画像表示装置、画像表示方法、画像表示プログラム、及びそのプログラムを記録するコンピュータ読み取り可能な記録媒体
JP5861637B2 (ja) 情報端末装置及びタッチパネルの表示方法
JP2014191612A (ja) 情報端末、情報入力補助方法、及び情報入力補助プログラム
US9690464B2 (en) Terminal device and method for selecting object
JP2015022675A (ja) 電子機器、インターフェース制御方法、および、プログラム
JP5280568B1 (ja) 情報処理装置、情報処理方法及び情報処理プログラム
JP2018195025A (ja) 情報処理装置、情報処理システム、及び情報処理方法
JP5683764B1 (ja) データ入力システム、データ入力方法、データ入力プログラム及びデータ入力装置
US20160334922A1 (en) Information processing device, non-transitory computer-readable recording medium storing information processing program, and information processing method
JP2014186699A (ja) 入力装置、入力装置の制御方法、制御プログラムおよび記録媒体
US11216162B2 (en) Information processing device, information processing method, and recording medium storing program
JP2014153833A (ja) 電子機器、文字列操作方法、及びプログラム
JP5963663B2 (ja) オブジェクト選択装置、方法およびプログラム
US20160334971A1 (en) Object Manipulation System and Method
WO2015141091A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
JP6172337B2 (ja) 図形描画装置、図形描画方法およびプログラム
JP6194564B1 (ja) 操作処理装置、方法、及びコンピュータプログラム
JP6179353B2 (ja) ファイル管理装置及びプログラム
JP5983367B2 (ja) 情報処理装置、およびプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13809612

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14374328

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13809612

Country of ref document: EP

Kind code of ref document: A1