WO2013031373A1 - 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体 - Google Patents

情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体 Download PDF

Info

Publication number
WO2013031373A1
WO2013031373A1 PCT/JP2012/066807 JP2012066807W WO2013031373A1 WO 2013031373 A1 WO2013031373 A1 WO 2013031373A1 JP 2012066807 W JP2012066807 W JP 2012066807W WO 2013031373 A1 WO2013031373 A1 WO 2013031373A1
Authority
WO
WIPO (PCT)
Prior art keywords
designated position
objects
user
information
determination
Prior art date
Application number
PCT/JP2012/066807
Other languages
English (en)
French (fr)
Inventor
誠一 武田
Original Assignee
楽天株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 楽天株式会社 filed Critical 楽天株式会社
Priority to CN201280002497.XA priority Critical patent/CN103098013B/zh
Priority to US13/819,937 priority patent/US8952994B2/en
Priority to EP12824893.7A priority patent/EP2600234B1/en
Priority to ES12824893.7T priority patent/ES2545660T3/es
Publication of WO2013031373A1 publication Critical patent/WO2013031373A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/06Buying, selling or leasing transactions
    • G06Q30/0601Electronic shopping [e-shopping]
    • G06Q30/0623Item investigation
    • G06Q30/0625Directed, with specific intent or strategy
    • G06Q30/0629Directed, with specific intent or strategy for generating comparisons

Definitions

  • the present invention relates to an information processing apparatus, a control method for the information processing apparatus, a program, and an information storage medium.
  • Patent Document 1 discloses changing the display position of a scroll button displayed on a screen according to a user's dominant hand.
  • the present invention has been made in view of the above problems, and improves the convenience of the user who uses the information processing apparatus by considering the user's dominant hand, wrinkle, etc. Is to provide an information processing apparatus, a control method for the information processing apparatus, a program, and an information storage medium that can be realized without causing the user to perform the above.
  • an information processing apparatus is capable of detecting a plurality of positions in the screen instructed by a user, and a display control unit that displays a screen including a plurality of objects on a display unit.
  • a detection result acquisition unit configured to acquire a detection result of the detection unit; and a determination as to whether or not the user's designated position is included in a determination region set based on a position of any one of the plurality of objects
  • Determining means for determining whether the indicated position is included in a determination area set based on the position of any one of the plurality of objects, in accordance with the movement of the indicated position
  • Object moving means for moving the object, and one designated position of the user is based on a position of one of the plurality of objects.
  • the other designated position of the user is determined to be included in the determination area set based on the position of the other object among the plurality of objects.
  • a collision determination unit that determines whether or not the one object and the other object collide
  • a first process execution unit that executes a process related to the one object and the other object, and the one designated position are set based on the position of the one object.
  • control method of the information processing apparatus includes a display control step for displaying a screen including a plurality of objects on a display unit, and a detection unit capable of detecting a plurality of positions in the screen instructed by a user.
  • An object moving step to be performed, and one designated position of the user is a position of one of the plurality of objects It is determined that the position is included in a determination area set based on the user, and it is determined that the other designated position of the user is included in a determination area set based on the position of another object among the plurality of objects.
  • a collision determination step for determining whether or not the one object collides with the other object when at least one of the one object and the other object has moved in the object moving step;
  • a first process execution step for executing a process related to the one object and the other object based on a determination result in the collision determination step; and the one designated position is set based on the position of the one object.
  • the other designated position is included in the determination area, and the position of the other object A positional relationship between the one object or the one indicated position and the other object or the other indicated position when it is determined in the past that it is included in the determination region set based on And a second process execution step for executing a predetermined process based on the positional relationship information.
  • the program according to the present invention provides a display control unit that displays a screen including a plurality of objects on a display unit, and a detection unit that acquires a detection result of a detection unit that can detect a plurality of positions in the screen specified by a user.
  • a result obtaining unit a determination unit that determines whether or not the user's designated position is included in a determination region that is set based on a position of any one of the plurality of objects;
  • An object moving means for moving the object according to the movement of the designated position when it is determined that the designated position is included in a determination area set based on the position of any one of the objects, One designated position is included in a determination area set based on the position of one of the plurality of objects And when it is determined that the other designated position of the user is included in a determination area set based on the position of another object among the plurality of objects, the object moving unit
  • a collision determination unit that determines whether the one object and the other object collide with each other, based on a determination result of the collision determination unit
  • First processing execution means for executing processing relating to the one object and the other object, and the one designated position is included in a determination area set based on the position of the one object, In the past, it has been determined that another
  • the information storage medium acquires the detection result of the display control means for displaying a screen including a plurality of objects on the display means, and the detection means capable of detecting a plurality of positions in the screen instructed by the user.
  • a detection result acquisition means for determining, a determination means for determining whether or not the user's designated position is included in a determination area set based on a position of any one of the plurality of objects, the plurality of objects
  • An object moving means for moving the object according to the movement of the designated position when it is determined that the designated position is included in a determination area set based on the position of any one of the objects, One designated position of the user is included in the determination area set based on the position of one of the plurality of objects.
  • the object moving unit When at least one of one object and the other object moves, a collision determination unit that determines whether the one object and the other object collide with each other, based on a determination result of the collision determination unit First processing execution means for executing processing relating to the one object and the other object, and the one designated position is included in a determination area set based on the position of the one object,
  • a predetermined process is executed based on positional relationship information regarding a positional relationship between the one object or the one designated position and the other object or the other designated position when set.
  • 2 is a computer-readable information storage medium storing a program for causing a computer to function as the second processing execution means.
  • the positional relationship may be the one object or the one indicated position when the one object and the other object collide in the past, and the other It may be a positional relationship with the other object or the other indicated position.
  • the second processing execution unit performs a dominant hand determination process for determining a dominant hand of the user based on the positional relationship information, and determines a dominant hand of the user.
  • Judgment means may be included.
  • the positional relationship information is included in a determination area in which the one designated position is set based on the position of the one object, and the other designated position is the other object.
  • attribute information is associated with each of the plurality of objects
  • the display control unit includes a comparison unit that compares attribute information of two objects of the plurality of objects, Means for setting an initial display position of two objects whose comparison result by the comparison means is a predetermined result based on a determination result of the dominant hand determination means.
  • the information processing apparatus includes a storage unit that stores information on a combination of two objects determined in the past as having collided by the collision determination unit, and the display control unit stores the storage unit.
  • a means for setting an initial display position of two objects selected from the plurality of objects based on at least a part of the contents based on a determination result of the dominant hand determination means may be included.
  • it includes means for acquiring a list of information satisfying a search condition, and means for displaying a search result screen showing the list of information on the display means, wherein the search condition includes: It may be set based on the determination result of the dominant hand determination means.
  • the second processing execution unit may execute initial processing for setting the initial display positions of the plurality of objects based on the positional relationship information, thereby initializing the plurality of objects. You may make it include the initial display position setting means which sets a display position.
  • the positional relationship information is included in a determination area in which the one designated position is set based on the position of the one object, and the other designated position is the other object.
  • Each of the plurality of objects includes attribute information
  • the initial display position setting means includes a comparison means for comparing attribute information of two objects of the plurality of objects, and the comparison means. Based on the direction information, the direction from the initial display position of one of the two objects whose comparison result is a predetermined result to the other initial display position.
  • Means for setting you are, it may include a.
  • the positional relationship information is included in a determination area in which the one designated position is set based on the position of the one object, and the other designated position is the other object.
  • the one object or the one designated position and the other one object or the other designated position when it is determined in the past that it is included in the determination area set based on the position of Distance information relating to a distance between them, attribute information is associated with each of the plurality of objects, and the initial display position setting means includes comparison means for comparing attribute information of two objects of the plurality of objects; A means for setting a distance between the initial display positions of two objects whose comparison result by the comparison means is a predetermined result based on the distance information; It may be useless.
  • the positional relationship information is included in a determination area in which the one designated position is set based on the position of the one object, and the other designated position is the other object.
  • a direction related to a direction from the one object or the one designated position to the other object or the other designated position when it is determined in the past that it is included in the determination region set based on the position of Including information and the information processing apparatus includes means for storing in a storage means information relating to a combination of two objects determined in the past as having collided by the collision determination means, and the initial display position setting means includes the storage
  • the direction from the display position to the other of the initial display position may include means for setting, based on the direction information.
  • the positional relationship information is included in a determination area in which the one designated position is set based on the position of the one object, and the other designated position is the other object.
  • the one object or the one designated position and the other one object or the other designated position when it is determined in the past that it is included in the determination area set based on the position of
  • the information processing apparatus includes means for storing in a storage means information relating to a combination of two objects determined in the past as having collided by the collision determination means, and the initial display position setting
  • the means is an initial table of two objects selected from the plurality of objects based on at least a part of the storage contents of the storage means.
  • the distance between the positions may include means for setting, based on the distance information.
  • the present invention it is possible to improve the convenience of a user who uses an information processing apparatus by considering a user's dominant hand, a heel, and the like, without causing the user to input a dominant hand, a heel, etc. Is possible.
  • FIG. 11 is a diagram for describing processing executed by the information processing device. It is a figure which shows another example of log
  • FIG. 1 shows an example of the hardware configuration of the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 includes a control unit 11, a main storage unit 12, an auxiliary storage unit 13, an operation unit 14, a display unit 15, an audio output unit 16, an optical disc drive unit 17, and a communication interface 18. It has.
  • the control unit 11 includes, for example, one or a plurality of CPUs, and executes information processing according to an operation system or a program stored in the auxiliary storage unit 13.
  • the main storage unit 12 is, for example, a RAM
  • the auxiliary storage unit 13 is, for example, a hard disk or a solid state drive.
  • the operation unit 14 is for a user to perform an operation.
  • an instruction unit for the user to instruct a position in the screen displayed on the display unit 15 is provided as the operation unit 14. That is, for example, a pointing device such as a touch panel, a mouse, or a stick is provided as the operation unit 14.
  • a touch panel that is provided on the display unit 15.
  • the touch panel provided in the information processing apparatus 10 is a general touch panel, and can detect one or a plurality of positions touched by a user.
  • a capacitive touch panel is used as the touch panel.
  • one or a plurality of positions touched by the user are detected based on a change in charge generated when the surface of the touch panel is touched by the user.
  • the touch panel supplies information indicating one or more positions touched by the user.
  • the control unit 11 acquires one or a plurality of positions in contact with the user based on information supplied from the touch panel.
  • the display unit 15 is, for example, a liquid crystal display
  • the audio output unit 16 is, for example, a speaker.
  • the optical disk drive unit 17 reads programs and data stored on an optical disk (information storage medium).
  • the program and data are supplied to the auxiliary storage unit 13 via the optical disk. That is, an optical disc storing programs and data is loaded into the optical disc drive unit 17, and the programs and data stored in the optical disc are read out by the optical disc drive unit 17 and stored in the auxiliary storage unit 13.
  • the optical disk drive unit 17 is not an essential component.
  • a component for reading a program or data stored in an information storage medium (for example, a memory card) other than the optical disk may be included instead of the optical disk drive unit 17.
  • the program and data may be supplied to the auxiliary storage unit 13 via an information storage medium other than the optical disk.
  • the program and data may be supplied to the auxiliary storage unit 13 via the communication network 2 including the Internet.
  • the communication interface 18 is an interface for connecting the information processing apparatus 10 to the communication network 2.
  • the information processing apparatus 10 can access the server 4 via the communication network 2.
  • the server 4 executes processing based on the processing request received from the information processing apparatus 10. For example, a daemon program is activated on the server 4.
  • the server 4 accesses the database 6 as necessary, and returns a processing result corresponding to the processing request to the information processing apparatus 10.
  • the database 6 may be constructed in a server computer different from the server 4 or may be constructed in the server 4.
  • an electronic commerce site where a user can purchase a product via the communication network 2 is provided by the server 4, and an application program for using the electronic commerce site is executed in the information processing apparatus 10. Will be described.
  • FIG. 2 shows an example of the search result screen.
  • the search result screen is a screen showing a list of information satisfying the search conditions set based on the user input on the search screen (not shown).
  • the search result screen shown in FIG. 2 is a screen showing a list of products that satisfy the search condition among products that can be purchased on the electronic commerce site.
  • the information processing apparatus 10 acquires a list of products that satisfy the search condition set based on the user input on the search screen. For example, the information processing apparatus 10 (the above application program) transmits the search condition to the server 4. The server 4 that has received the search conditions accesses the database 6 and acquires a list of products that satisfy the search conditions. Then, the server 4 returns a list of acquired products to the information processing apparatus 10. In the information processing apparatus 10, a search result screen showing a list of products returned from the server 4 is displayed.
  • the search result screen shown in FIG. A list of products satisfying the search condition is displayed in the list area 20. Specifically, a product image 22 of each product that satisfies the search condition is displayed in the list area 20.
  • the product image 22 includes a thumbnail image of the product, and the product name and price are added to the product image 22.
  • the search result screen includes a favorite area 24.
  • the favorite area 24 is for registering a product among the products displayed in the list area 20 as a favorite.
  • the user registers the product “D” as a favorite.
  • the user touches the touch panel with the finger so as to point to the product image 22 of the product “D”.
  • the user slides his / her finger to the favorite area 24 on the touch panel.
  • the product image 22 of the product “D” moves to the favorite area 24 according to the movement of the finger, and as a result, the product “D” is registered as a favorite.
  • a favorite screen showing a list of products registered as favorites is displayed.
  • FIG. 3 shows an example of the favorite screen.
  • a product image 22 of a product registered as a favorite is displayed on the favorites screen.
  • FIG. 3 shows an example of a favorite screen when the products “A”, “B”, “C”, and “D” have been registered as favorite products.
  • product images 22A, 22B, 22C, and 22D of products “A”, “B”, “C”, and “D” are displayed.
  • the product images 22 are displayed in a scattered state, as in the product images 22A to 22D in FIG.
  • This favorite screen is also displayed when data is transmitted and received between the information processing apparatus 10 (the above application program) and the server 4. That is, when the product image 22 of any product is moved to the favorite area 24 on the search result screen, the application program sends the product ID of the product to the server 4 together with the user ID.
  • the database 6 stores a table showing products registered as favorites by the user, and the server 4 updates the table based on the user ID and the product ID received from the information processing apparatus 10.
  • the server 4 acquires information on the product registered as a favorite by the user from the database 6 and sends it back to the information processing apparatus 10.
  • the information returned from the server 4 is stored in the auxiliary storage unit 13 (see FIG. 7 described later), and a favorite screen is displayed based on this information.
  • FIG. 4 is a diagram for explaining the operation. Here, it is assumed that the product “B” and the product “C” are compared.
  • the user collides the product image 22B of the product “B” with the product image 22C of the product “C” by performing a “pinch operation”. That is, the user touches one finger (eg, thumb) of one hand (eg, right hand) on the touch panel so as to point to the product image 22B of the product “B”, and points to the product image 22C of the product “C”. Similarly, another finger (for example, index finger) is brought into contact with the touch panel. Thereafter, the user slides those fingers on the touch panel so as to approach each other. When such an operation is performed, the product image 22B of the product “B” and the product image 22C of the product “C” approach each other as indicated by arrows 30 and 32 according to the movement of the fingers. Move to.
  • FIG. 5 shows an example of the comparison screen in this case.
  • a comparison table 40 of various information (attribute information) of the product “B” and the product “C” is displayed on the comparison screen.
  • the purchaser of the product can evaluate the product with a perfect score of 5 points, for example.
  • evaluation value an average score of evaluation values registered by the purchaser of the product is displayed.
  • server 4 is notified to that effect, and the number of users who registered the product as a favorite is stored in the database 6. It has become.
  • “favorite” column in the comparison table 40 the number of users who registered the product as a favorite is displayed.
  • a link button 42 to the purchase screen for purchasing each product is displayed on the comparison screen.
  • a purchase screen (not shown) for purchasing a product is displayed.
  • a close button 44 is displayed on the comparison screen. When the close button 44 is selected, the comparison screen is closed and the favorite screen is displayed again.
  • a drag and drop operation may be adopted as an operation for instructing the information processing apparatus 10 to display a comparison screen of two products. That is, when the user moves a product image 22 by a drag operation and performs a drop operation with the product image 22 overlaid on another product image 22, a comparison screen of the two products may be displayed. It is done.
  • the user first selects both the product images 22 of the two products to be compared, and then moves and collides the product images 22.
  • the comparison screen of those products is displayed. For this reason, the inconvenience as described above hardly occurs. That is, even if a product image 22 other than the desired product image 22 is selected, if the product image 22 does not collide with the other product image 22, a comparison screen for those products is displayed. There is nothing. In this case, the user may remove the finger from the touch panel and select the product image 22 again.
  • the information processing apparatus 10 does not cause the above-described inconvenience. Even when the product image 22 other than the desired product image 22 has been selected, even if the finger is removed from the touch panel to reselect the product image 22, the user can select the product image 22 on the other product image 22. There is no need to pay particular attention to whether or not it is located. This is because, unless the product images 22 selected by the user collide with each other, even if those product images 22 are located on other product images 22, the product comparison screen is not displayed.
  • FIG. 6 is a functional block diagram showing functional blocks related to the present invention among the functional blocks realized in the information processing apparatus 10 according to the present embodiment.
  • the information processing apparatus 10 includes a storage unit 50, a display control unit 52, a detection result acquisition unit 54, a selection determination unit 56, an object movement unit 58, a collision determination unit 60, and a first process execution unit 62. , And a second processing execution unit 64.
  • the storage unit 50 is the main storage unit 12 and the auxiliary storage unit 13.
  • the display control unit 52, the detection result acquisition unit 54, the selection determination unit 56, the object movement unit 58, the collision determination unit 60, the first process execution unit 62, and the second process execution unit 64 are realized by the control unit 11. . That is, when the control unit 11 executes processing according to a program, the control unit 11 functions as these functional blocks.
  • the storage unit 50 will be described.
  • the storage unit 50 stores various data. 7 to 9 show examples of data stored in the storage unit 50.
  • FIG. 7 to 9 show examples of data stored in the storage unit 50.
  • FIG. 7 shows an example of a favorite table.
  • the favorite table is a table showing information on products registered as favorites. As described above, when the favorite screen is displayed, information on the products registered as favorites by the user is acquired from the server 4 (database 6). Then, this information acquired from the server 4 is registered as a favorite table.
  • the favorite table shown in FIG. 7 includes “product ID”, “product name”, “price”, “category”, “evaluation point”, “number of favorite registrants”, “image”, and “purchase page” fields. It is out. Identification information (product ID) for uniquely identifying a product is registered in the “product ID” field. In the “product name” and “price” fields, the name and price of the product are registered, respectively. The category of the product is registered in the “Category” field. In the “evaluation score” field, an average score of evaluation values given by the purchaser of the product is registered. In the “number of favorite registrants” field, the number of users who registered products as favorites is registered. In the “image” field, link information (URL) to the normal image and thumbnail image of the product is registered. In the “purchase page” field, link information (URL) to a product purchase page (purchase screen) is registered.
  • FIG. 8 shows an example of the object table.
  • the object table is a table for managing objects (product images 22) displayed on the favorite screen.
  • the object table includes “object ID”, “product ID”, and “position” fields.
  • object ID identification information (object ID) for uniquely identifying an object (product image 22) is registered.
  • product ID the product ID of the product associated with the object (product image 22) is registered.
  • the product ID of the product associated with the object is registered.
  • the product ID of the product “A” is registered in the “product ID” field.
  • the display position of the object (product image 22) is registered in the “position” field.
  • the screen coordinate value of the representative position (for example, the center position) of the object (product image 22) is registered in the “position” field.
  • the screen coordinate system is a coordinate system in which the upper left of the screen is the origin O, the right direction is the X axis positive direction, and the lower direction is the Y axis positive direction.
  • the display control unit 52 displays a screen including a plurality of objects on the display unit 15.
  • the display control unit 52 displays the favorite screen on the display unit 15. That is, in the present embodiment, the favorite screen corresponds to the “screen” described above, and the plurality of product images 22 displayed on the favorite screen correspond to the “multiple objects” described above.
  • the detection result acquisition unit 54 acquires detection results of a detection unit that can detect a plurality of positions in the screen instructed by the user.
  • a pointing device corresponds to the “detection unit”.
  • the touch panel corresponds to a “detection unit”, and the detection result acquisition unit 54 acquires the user's designated position detected by the touch panel.
  • the detection result acquisition unit 54 acquires indicated position data as shown in FIG. 9, for example. Note that the user's designated position is represented by coordinate values in the screen coordinate system.
  • the selection determination unit 56 determines whether or not the user's designated position is included in any of the plurality of determination areas set so as to correspond to the positions of the plurality of objects. When it is determined that the user's designated position is included in any of the determination areas, the selection determination unit 56 determines that the object corresponding to the determination area has been selected by the user.
  • the selection determination unit 56 determines whether or not the first designated position is included in any of the determination areas. .
  • the selection determining unit 56 includes the second designated position in the other determination region. It is determined whether or not.
  • the determination area is an area that is set to determine whether or not the user is pointing to an object.
  • the determination area is set based on the display position of the object, and the determination area moves as the object moves.
  • the area where the object is displayed is set as the determination area.
  • the determination area may not coincide with the area where the object is displayed.
  • an area that includes the entire area where the object is displayed and is wider than the area where the object is displayed may be set as the determination area.
  • a determination area having a relatively simple shape may be set.
  • FIG. 10 is a diagram for explaining the determination area when the favorite screen as shown in FIG. 3 is displayed.
  • reference numeral “70A” represents the first designated position of the user
  • reference numeral “70B” represents the second designated position of the user.
  • determination area 72 In the favorite screen shown in FIG. 3, product images 22A to 22D are displayed. For this reason, determination areas 72A to 72D are set in the example shown in FIG. Hereinafter, the determination areas 72A to 72D may be collectively referred to as “determination area 72”.
  • the determination area 72A is a determination area corresponding to the product image 22A of the product “A”, and an area where the product image 22A is displayed is set as the determination area 72A.
  • the determination area 72B is a determination area corresponding to the product image 22B of the product “B”, and the area where the product image 22B is displayed is set as the determination area 72B.
  • the determination area 72C is a determination area corresponding to the product image 22C of the product “C”, and the area where the product image 22C is displayed is set as the determination area 72C.
  • the determination area 72D is a determination area corresponding to the product image 22D of the product “D”, and an area where the product image 22D is displayed is set as the determination area 72D.
  • the selection determination unit 56 determines whether or not the first designated position 70A is included in any of the determination areas 72A to 72D.
  • the selection determination unit 56 determines that the first designated position 70A is included in the determination area 72B. Become.
  • the selection determining unit 56 determines that the product image 22B has been selected by the user.
  • the selection determining unit 56 determines whether or not the second designated position 70B is included in any of the determination areas 72A to 72D. In the example shown in FIG.
  • the selection determining unit 56 determines that the second designated position 70B is included in the determination area 72C. Become. As a result, the selection determining unit 56 determines that the product image 22C has been selected by the user.
  • the object moving unit 58 When it is determined that the user's designated position is included in the determination area corresponding to any object (that is, when it is determined that the object is selected by the user), the object moving unit 58 moves the designated position. In response, the object is moved.
  • the object moving unit 58 moves the first object in accordance with the movement of the first designated position.
  • the object moving unit 58 moves the second object according to the movement of the second designated position. Move.
  • the object moving unit 58 responds to the movement of the first designated position 70A. 22B is moved. That is, the object moving unit 58 moves the product image 22B according to the first designated position 70A.
  • the object moving unit 58 since the second designated position 70B is included in the determination region 72C corresponding to the product image 22C, the object moving unit 58 responds to the movement of the second designated position 70B. Move 22C. That is, the object moving unit 58 moves the product image 22C according to the second designated position 70B.
  • the collision determination unit 60 When it is determined that the first designated position is included in the determination area corresponding to the first object and the second designated position is included in the determination area corresponding to the second object, the object moving unit 58 When at least one of the first object and the second object moves, the collision determination unit 60 determines whether or not the first object and the second object have collided.
  • the collision determination unit 60 determines whether or not the distance between the first designated position and the second designated position is equal to or smaller than a threshold value, whereby the first object and the second object collide. Determine whether or not. When at least one of the first object and the second object is moved by the object moving unit 58, the collision occurs when the distance between the first designated position and the second designated position is less than or equal to the threshold value. The determination unit 60 determines that the first object and the second object have collided.
  • the first designated position 70A is included in the determination area 72B
  • the second designated position 70B is included in the determination area 72C.
  • the product image 22B is moved according to the movement of the first designated position 70A
  • the product image 22C is moved according to the movement of the second designated position 70B by the object moving unit 58.
  • the collision determination unit 60 acquires the distance (d) between the first designated position 70A and the second designated position 70B, and the distance (d) is less than or equal to the threshold value. By determining whether or not the product image 22B and the product image 22C collide with each other.
  • the collision determination unit 60 determines that the product image 22B and the product image 22C have collided.
  • the determination area 72B and the determination area 72C overlap (that is, the product image 22B and the product image 22C overlap), but the distance (d) must be equal to or less than the threshold value.
  • the collision determination unit 60 does not determine that the product image 22B and the product image 22C have collided.
  • the determination area 72C and the determination area 72D overlap (that is, the product image 22C and the product image 22D overlap), but the determination area 72D includes the user's designated position. Therefore, the collision determination unit 60 does not determine that the product image 22B and the product image 22D have collided.
  • the collision determination method of the object is not limited to the method described above.
  • the collision determination unit 60 determines whether or not the first object and the second object have collided by determining whether or not the first object and the second object overlap. Also good. Further, for example, the collision determination unit 60 determines whether the determination area corresponding to the first object and the determination area corresponding to the second object overlap with each other, thereby determining the first object and the second object. It may be determined whether or not a collision has occurred.
  • the first process execution unit 62 executes processes related to the first object and the second object based on the determination result of the collision determination unit 60. For example, when it is determined that the first object and the second object collide, the first process execution unit 62 associates the attribute information associated with the first object with the second object. A comparison screen for comparing the attribute information is displayed on the display unit 15.
  • the first process execution unit 62 executes processing related to the product image 22B and the product image 22C.
  • the first process execution unit 62 causes the display unit 15 to display a comparison screen as shown in FIG. That is, the first process execution unit 62 displays a comparison screen for comparing the information on the product “B” associated with the product image 22B with the information on the product “C” associated with the product image 22C. To display.
  • FIG. 12 is a flowchart illustrating an example of processing that is repeatedly executed by the information processing apparatus 10 every predetermined time (for example, 1/60 seconds) while the favorite screen is displayed. While the favorite screen is displayed, a process for moving the product image 22 in accordance with a change in the user's designated position is also executed, but is omitted in FIG.
  • FIG. 12 mainly shows processing for determining whether or not the product images 22 collide with each other.
  • the control unit 11 acquires the number (N) of user's designated positions detected by the detection unit (touch panel) (S101). And the control part 11 determines whether the acquired number (N) is two or more (S102). When the acquired number (N) is not 2 or more, the control unit 11 ends this process.
  • the control unit 11 When the acquired number (N) is 2 or more, the control unit 11 initializes the value of the variable i to 1 (S103). Then, the control unit 11 (selection determination unit 56) determines whether or not the i-th designated position is included in any of the determination regions 72 (S104). The “i-th designated position” indicates the i-th designated position among the designated positions detected by the detection unit (touch panel).
  • the control unit 11 selects the value of the variable j to i + 1 (S105), and the j-th designated position is the other. It is determined whether it is included in the determination area 72 (S106).
  • the “other determination area 72” means a determination area 72 other than the determination area 72 that is determined to include the i-th designated position in step S104.
  • the control unit 11 acquires the distance (d) between the i-th designated position and the j-th designated position (S107). And the control part 11 (collision determination part 60) determines whether distance (d) is below a threshold value (D) (S108). When the distance (d) is equal to or smaller than the threshold (D), the control unit 11 (first processing execution unit 62) determines that the product images 22 have collided with each other, and displays a comparison screen (FIG. 5) on the display unit 15. Let me.
  • a comparison screen with the product of the product image 22 is displayed. The comparison screen is displayed based on the favorite table shown in FIG.
  • step S104 If it is not determined in step S104 that the i-th designated position is included in any of the determination areas 72, the control unit 11 increments the value of the variable i (S112), and the variable i is detected. It is determined whether or not it is less than the number (N) of the designated user positions (S113). When it is determined that the variable i is less than the number (N) of the user's designated positions detected, the control unit 11 executes the process of step S104. On the other hand, when it is not determined that the variable i is less than the number (N) of the detected user's designated positions, the control unit 11 ends this process.
  • step S106 when it is not determined in step S106 that the j-th designated position is included in the other determination region 72, or in step S108, it is not determined that the distance (d) is equal to or less than the threshold value (D).
  • the control unit 11 increments the value of the variable j (S110), and determines whether or not the value of the variable j is equal to or less than the number (N) of the detected user's designated positions (S111).
  • the control unit 11 executes the process of step S106.
  • the control unit 11 executes the process of step S112. This is the end of the description of the processing illustrated in FIG.
  • the 2nd process execution part 64 is a functional block for improving a user's convenience in consideration of a user's dominant hand or a wrinkle.
  • one designated position of the user is included in a determination area corresponding to one object of the plurality of objects, and the other designated position of the user is the other of the plurality of objects.
  • the positional relationship between “the one object or the one indicated position” and “the other object or the other indicated position” when it is determined in the past that it is included in the determination area corresponding to the object A predetermined process is executed based on the positional relationship information.
  • positional information will be described.
  • the “positional relationship information” has been determined in the past that one designated position is included in a determination area corresponding to one object, and another designated position is included in a determination area corresponding to another object.
  • FIG. 13 shows an example of history data stored in the storage unit 50.
  • the history data shown in FIG. 13 shows a history of direction information indicating the direction from one object to the other object when it has been determined in the past that two objects have been selected by the user.
  • the direction information is, for example, a vector indicating the direction from the representative position (for example, the center position) of the object having the smaller X-axis coordinate value to the representative position (for example, the center position) of the other object, of the two collided objects.
  • Information is, for example, a vector indicating the direction from the representative position (for example, the center position) of the object having the smaller X-axis coordinate value to the representative position (for example, the center position) of the other object, of the two collided objects.
  • the direction information may be vector information indicating a direction from one designated position to the other designated position.
  • the direction information is vector information indicating the direction from the representative position of one object to the designated position corresponding to the other object (that is, the designated position determined to be included in the determination area corresponding to the other object).
  • it may be vector information indicating the direction from the designated position corresponding to one object to the representative position of the other object.
  • the direction information may be vector information indicating a direction from one object to the other object at a time other than the time when it is determined that two objects are selected by the user.
  • the direction information may be vector information indicating a direction from one object to the other object when it is determined that two objects collide.
  • the “predetermined process” is a process for improving user convenience.
  • the “predetermined process” includes a dominant hand determination process for determining a user's dominant hand. That is, in the case of the present embodiment, the second process execution unit 64 includes a dominant hand determination unit 66.
  • the dominant hand determination unit 66 determines the dominant hand of the user by executing the above-described dominant hand determination process based on the positional relationship information. For example, the dominant hand determination unit 66 determines the user's dominant hand based on the history data (FIG. 13).
  • a user whose right hand is the right hand can easily perform a pinch operation as shown in FIG. That is, a user whose dominant hand is the right hand can easily perform a pinch operation in which the thumb Fa and the index finger Fb are brought close to each other from a state where the thumb Fa and the index finger Fb are positioned on the upper right side of the thumb Fa. Conceivable. For this reason, it is considered that a user whose dominant hand is the right hand tends to collide two product images 22 having a positional relationship such that the other product image 22 is positioned on the upper right side of the one product image 22. .
  • a user whose dominant hand is the left hand can easily perform a pinch operation as shown in FIG. That is, a user whose dominant hand is the left hand can easily perform a pinch operation in which the thumb Fa and the index finger Fb are brought close to each other from a state where the thumb Fa is positioned on the lower right side of the index finger Fb. it is conceivable that. For this reason, the user whose dominant hand is the left hand thinks that there is a tendency to collide two product images 22 having a positional relationship such that the other product image 22 is positioned on the lower right side of the one product image 22. It is done.
  • the judgment of the user's dominant hand may be made based on the above tendency.
  • an example of a user's dominant hand determination process will be described.
  • the determination process of the dominant hand of the user is not limited to the method described below.
  • FIG. 16 is a flow chart showing an example of a judgment process for the user's dominant hand.
  • the control unit 11 executes the process illustrated in FIG. 16 according to the program, the control unit 11 functions as the dominant hand determination unit 66 (second process execution unit 64).
  • FIG. 17 is a diagram for explaining the processing shown in FIG.
  • the “reference direction A” in step S201 in FIG. 16 indicates the reference direction 80A shown in FIG.
  • the reference direction 80A is a reference direction corresponding to a pinch operation (FIG. 14) that can be easily performed by a user whose right hand is the right hand, and is, for example, a direction from the lower left vertex to the upper right vertex of the screen.
  • “reference direction B” in step S202 of FIG. 16 indicates the reference direction 80B shown in FIG.
  • the reference direction 80B is a reference direction corresponding to a pinch operation (FIG. 15) that can be easily performed by a user whose dominant hand is the left hand, and is, for example, a direction from the upper left vertex to the lower right vertex of the screen.
  • the control unit 11 (dominant hand determining unit 66) calculates the number (m1) of direction information corresponding to the reference direction 80A among the plurality of direction information included in the history data (FIG. 13).
  • the “direction information corresponding to the reference direction 80A” is, for example, direction information indicating a direction parallel or substantially parallel to the reference direction 80A.
  • the “direction information corresponding to the reference direction 80A” is, for example, direction information such that an angle formed by the direction indicated by the direction information and the reference direction 80A is equal to or smaller than the reference angle.
  • control unit 11 acquires the number (m2) of direction information corresponding to the reference direction 80B among the plurality of direction information included in the history data (FIG. 13) (S202).
  • the “direction information corresponding to the reference direction 80B” is, for example, direction information indicating a direction parallel or substantially parallel to the reference direction 80B.
  • direction information corresponding to the reference direction 80B is direction information such that an angle formed by the direction indicated by the direction information and the reference direction 80B is equal to or smaller than the reference angle.
  • the control unit 11 (dominant hand determining unit 66) compares the number (m1) and the number (m2), and determines the user's dominant hand based on the comparison result (S203 to S208).
  • control unit 11 determines whether or not the number (m1) is larger than the number (m2) (S203). When the number (m1) is larger than the number (m2), the control unit 11 determines that the difference between the number (m1) and the number (m2) is larger than the reference value (M). It is determined whether or not (S204). When the difference between the number (m1) and the number (m2) is larger than the reference value (M), the control unit 11 determines that the user's dominant hand is the right hand (S205).
  • step S204 may be omitted. In this manner, when it is determined that the number (m1) is larger than the number (m2), it may be determined that the user's dominant hand is the right hand.
  • step S203 When it is not determined in step S203 that the number (m1) is larger than the number (m2), or in step S204, the difference between the number (m1) and the number (m2) is a reference value.
  • the control unit 11 determines whether the number (m2) is greater than the number (m1) (S206).
  • the control unit 11 determines whether the difference between the number (m2) and the number (m1) is larger than the reference value (M). Is determined (S207). When the difference between the number (m2) and the number (m1) is larger than the reference value (M), the control unit 11 (dominant hand determination unit 66) determines that the user's dominant hand is the left hand ( S208).
  • step S207 may be omitted.
  • the processing in step S207 may be omitted.
  • the number (m2) is larger than the number (m1), it may be determined that the user's dominant hand is the left hand.
  • step S206 If it is not determined in step S206 that the number (m2) is greater than the number (m1), or in step S207, the difference between the number (m2) and the number (m1) is If it is not determined that the value is larger than the reference value (M), the control unit 11 ends this process without determining the user's dominant hand. This is the end of the description of the processing illustrated in FIG.
  • the information processing apparatus 10 determines from one product image 22 to the other product image 22 when it has been determined in the past that two product images 22 have been selected by the user. Based on the direction information regarding the direction of the user, the user's dominant hand is determined. That is, the user's dominant hand can be determined without requiring the user to input the dominant hand.
  • the distance information (positional relationship information) regarding the distance between the two product images 22 at the time when it has been determined in the past that the two product images 22 have been selected by the user is taken into consideration. It may be.
  • the distance information may be information regarding the distance between one designated position and the other designated position.
  • the distance information is information related to the distance between the representative position of one object and the pointing position corresponding to the other object (that is, the pointing position determined to be included in the determination area corresponding to the other object). It may be information about the distance between the designated position corresponding to one object and the representative position of the other object.
  • the user selects one product image 22 with the finger of the right hand.
  • the other product image 22 is selected with the finger of the left hand.
  • the dominant hand determination unit 66 may not use the direction information in such a case for determining the dominant hand of the user.
  • the direction information in the above case is not included in the history data (FIG. 13). Good.
  • history data as shown in FIG. 18 may be stored.
  • the history data shown in FIG. 18 is data obtained by associating the direction information with the distance information. Then, in steps S201 and S202 of FIG. 16, the direction information associated with the distance information indicating a distance larger than the reference distance may be ignored. In this way, it becomes possible to improve the accuracy of judgment of the user's dominant hand.
  • the dominant hand determination unit 66 When the user's dominant hand is determined by the dominant hand determination unit 66, data indicating the determination result is stored in the storage unit 50. Hereinafter, this data is referred to as “handedness data”. This dominant hand data is used for various processes.
  • dominant hand data is used when displaying a favorite screen.
  • the display control unit 52 sets the initial display positions of the plurality of product images 22 displayed on the favorite screen based on the dominant hand data.
  • the process for setting the initial display position of the product image 22 will be described.
  • the display control unit 52 acquires a combination of two product images 22 that the user is likely to collide with. That is, the display control unit 52 acquires a combination of two products that the user is likely to select as a comparison target.
  • the combination of two products that are likely to be selected as a comparison target by the user can be acquired based on, for example, product attribute information. For example, it is generally considered that the user is highly likely to select two products with high similarity in attribute information as comparison targets. Specifically, it is generally considered that the user is highly likely to select two products of the same type as a comparison target. Further, it is generally considered that the user is likely to select two products having the same price range as comparison targets.
  • the display control unit 52 determines the two product images 22 whose comparison results are predetermined results as a combination of the two product images 22 that are highly likely to collide with the user.
  • predetermined result means, for example, a comparison result that the category is the same or similar, or a comparison that the price is the same or similar (in other words, the price difference is below the reference value) The results.
  • a combination of two products that are likely to be selected as a comparison target by the user can be acquired based on, for example, a combination of two products that the user has selected as a comparison target in the past. For example, regarding a combination of products that have been frequently selected as a comparison target in the past, it can be generally considered that the user is highly likely to select as a comparison target.
  • the display control unit 52 may acquire a combination of two product images 22 that are highly likely to be collided by the user. For example, the display control unit 52 may acquire a combination of two product images 22 that are likely to cause the user to collide with a combination of product images 22 in which the number of collisions in the past is greater than the reference number.
  • the display control unit 52 sets the initial display position of the two product images 22 based on the dominant hand data.
  • initial display position data data that associates the dominant hand data (user's dominant hand) with the initial display position of the product image 22 is required.
  • this data is referred to as “initial display position data”.
  • 19 and 20 are diagrams for explaining the initial display position data.
  • a plurality of areas 90A, 90B, 90C, and 90D as shown in FIG. 19 are virtually set on the favorite screen.
  • four regions 90A, 90B, 90C, and 90D are virtually set in the favorite screen by dividing the favorite screen into two in the vertical and horizontal directions.
  • Area 90A is the upper left area in the favorite screen, and area 90B is the lower left area in the favorite screen.
  • An area 90C is an upper right area in the favorite screen, and an area 90D is a lower right area in the favorite screen.
  • the region 90A and the region 90D have a positional relationship that the region 90D is located on the lower right side of the region 90A, and the region 90B and the region 90C are located on the upper right side of the region 90B. Have a positional relationship.
  • reference numeral “92A” indicates a boundary line between the region 90A and the region 90B
  • reference numeral “92B” indicates a boundary line between the region 90B and the region 90D
  • reference numeral “92C” indicates a boundary line between the area 90A and the area 90C
  • reference numeral “92D” indicates a boundary line between the area 90C and the area 90D.
  • FIG. 20 shows an example of the initial display position data.
  • the user's dominant hand and the initial display position of the product image 22 are associated with each other.
  • regions A, B, C, and D shown in FIG. 20 correspond to regions 90A, 90B, 90C, and 90D, respectively, shown in FIG.
  • the areas 90 ⁇ / b> B and 90 ⁇ / b> C are associated with the dominant hand “right hand” as the initial display position of the product image 22.
  • the regions 90A and 90D are associated with the dominant hand “left hand” as the initial display position of the product image 22.
  • the display control unit 52 refers to the initial display position data, and the initial display position (regions 90B and 90C) associated with the dominant hand “right hand”. To get. In this case, the display control unit 52 sets one initial display position of the two product images 22 that the user is likely to select as a comparison target in the area 90B, and sets the other initial display position in the area 90C. To do.
  • the display control unit 52 refers to the initial display position data, and the initial display position (areas 90A and 90D) associated with the dominant hand “left hand”. To get. In this case, the display control unit 52 sets one initial display position of the two product images 22 that the user is likely to select as a comparison target in the area 90A, and sets the other initial display position in the area 90D. To do.
  • the product images 22A to 22D shown in FIG. 3 are displayed on the favorite screen.
  • the product images 22B and 22C have the same product category (socks) and similar prices. Therefore, the product images 22B and 22C are determined as the two product images 22 that are highly likely to be collided by the user.
  • one initial display position of the product images 22B and 22C is set in the area 90A.
  • the other initial display position is set in the area 90D.
  • one of the product images 22B and 22C is randomly selected as the product image 22 initially displayed in the region 90A.
  • the product image 22 that is not selected as the product image 22 to be initially displayed in the area 90A is selected as the product image 22 to be initially displayed in the area 90D.
  • the product image 22B is selected as the product image 22 initially displayed in the area 90A
  • the product image 22C is selected as the product image 22 initially displayed in the area 90D.
  • at which position in the area 90A the product image 22B is initially displayed is randomly determined.
  • the position where the product image 22C is initially displayed in the region 90D is also determined at random.
  • the orientations of the product images 22B and 22C are also determined randomly.
  • the initial display positions of the product images 22A and 22D that are not determined as the product images 22 that are likely to collide with the user are set in the regions 90B and 90C other than the regions 90A and 90D.
  • the positions in the regions 90B and 90C are randomly determined as the initial display positions of the product images 22A and 22D.
  • the orientation of the product images 22A and 22D is also determined randomly.
  • the dominant hand data indicates that the user's dominant hand is the right hand
  • one initial display position of the product images 22B and 22C is set in the area 90B, and the other initial display position is the area 90C. Set in.
  • the initial display positions of the product images 22A and 22D that are not determined as the product images 22 that are likely to collide with the user are set in the regions 90B and 90C other than the regions 90A and 90D.
  • the dominant hand judgment unit 66 at the time before the judgment by the dominant hand judgment unit 66 is completed (that is, when the dominant hand data indicating that the user's dominant hand is the right hand or the left hand is not stored in the storage unit 50), for example, the favorite shown in FIG.
  • one of the product images 22B and 22C likely to be collided by the user may be displayed in both the regions 90A and 90B, and the other may be displayed in both the regions 90C and 90D.
  • the dominant hand of the user is determined by the dominant hand determination unit 66, it is possible to assist the user in making it easy for the product image 22 to collide. That is, it is possible to assist the user to easily select two products to be compared.
  • the dominant hand data can be used not only when the favorite screen is displayed.
  • dominant hand data can also be used when searching for a product (information search).
  • a stationery may include a right-handed stationery and a left-handed stationery.
  • scissors include right-handed scissors and left-handed scissors.
  • the information processing apparatus 10 According to the information processing apparatus 10 according to the first embodiment described above, it is possible to improve the convenience of the user by considering the user's dominant hand, without causing the user to input the user's dominant hand in advance. Can be realized.
  • the information processing apparatus 10 according to the second embodiment has the same hardware configuration as the information processing apparatus 10 according to the first embodiment (see FIG. 1).
  • the electronic commerce site is provided by the server 4 and an application program for using the electronic commerce site is executed by the information processing apparatus 10. That is, also in the second embodiment, the search result screen shown in FIG. 2, the favorite screen shown in FIG. 3, and the comparison screen shown in FIG. 5 are displayed on the display unit 15.
  • the information processing apparatus 10 determines the user's dominant hand and sets the initial display position of the product image 22 displayed on the favorite screen based on the user's dominant hand.
  • the information processing apparatus 10 according to the embodiment is different from the first embodiment in that the initial display position of the product image 22 displayed on the favorite screen is set without determining the user's dominant hand.
  • FIG. 22 is a functional block diagram showing functional blocks related to the present invention among the functional blocks realized in the information processing apparatus 10 according to the second embodiment.
  • the information processing apparatus 10 according to the second embodiment includes a storage unit 50, a display control unit 52, a detection result acquisition unit 54, a selection determination unit 56, an object movement unit 58, a collision determination unit 60, 1 process execution part 62 and the 2nd process execution part 64 are included.
  • the information processing apparatus 10 according to the second embodiment is different from the first embodiment in that the initial display position setting unit 68 is included in the second processing execution unit 64 instead of the dominant hand determination unit 66. Therefore, in the following, the second processing execution unit 64 and the initial display position setting unit 68 will be mainly described. Since the functions of the other functional blocks are the same as those in the first embodiment, description thereof is omitted.
  • the second process execution unit 64 includes one user's designated position within a determination area corresponding to one object among a plurality of objects, and the user The one object or the one designated position and the other object or when the other designated position is determined in the past as being included in the determination region corresponding to one object of the plurality of objects. Predetermined processing is executed based on positional relationship information regarding the positional relationship between the other designated positions.
  • the “positional relationship information” is included in the determination area in which one designated position corresponds to one object, and the other designated position is in a determination area corresponding to another object. It is direction information regarding the direction from “the one object or the one designated position” to “the other object or the other designated position” when it is determined in the past that it is included. Also in the second embodiment, for example, the history data illustrated in FIG. 13 is stored in the storage unit 50.
  • the “predetermined process” is a process of setting initial display positions of a plurality of objects on the screen, for example.
  • the second process execution unit 64 includes an initial display position setting unit 68.
  • the initial display position setting unit 68 sets the initial display positions of the plurality of objects on the screen by executing processing for setting the initial display positions of the plurality of objects on the screen based on the positional relationship information.
  • the favorite screen corresponds to the “screen” and the plurality of product images 22 correspond to “plural objects”. 68 sets the initial display positions of the plurality of product images 22 displayed on the favorite screen based on the history data (FIG. 13).
  • initial display position data In order to set the initial display position of the product image 22 based on the history data (FIG. 13), data in which the history data and the initial display position of the product image 22 are associated with each other is required. Hereinafter, this data is referred to as “initial display position data”. 23 and 24 are diagrams for explaining the initial display position data.
  • a plurality of reference directions 80A, 80B, 80C, and 80D as shown in FIG. 23 are virtually set on the favorite screen.
  • the reference direction 80A is a direction from the lower left vertex to the upper right vertex of the favorite screen.
  • the reference direction 80B is a direction from the upper left vertex to the lower right vertex of the favorite screen.
  • the reference direction 80C is a direction from the left side to the right side of the favorite screen (that is, the X axis positive direction).
  • the reference direction 80D is the vertical direction of the favorite screen (that is, the Y axis positive direction or the Y axis negative direction). Note that although four reference directions 80A to 80D are set here, five or more reference directions may be set.
  • FIG. 24 shows an example of the initial position data.
  • the reference directions 80A to 80D and the initial display position of the product image 22 are associated with each other.
  • the reference directions A, B, C, and D shown in FIG. 24 correspond to the reference directions 80A, 80B, 80C, and 80D shown in FIG. 23, respectively.
  • the areas A, B, C, and D described in FIG. 24 correspond to the areas 90A, 90B, 90C, and 90D shown in FIG. 19, respectively.
  • the boundary lines A, B, C, and D described in FIG. 24 correspond to the boundary lines 92A, 92B, 92C, and 92D shown in FIG. 19, respectively.
  • the initial display position setting unit 68 acquires a combination of two product images 22 that the user is likely to collide with. That is, the initial display position setting unit 68 acquires a combination of two products that the user is likely to select as a comparison target.
  • a method for acquiring a combination of two product images 22 that are highly likely to be collided by the user is the same as in the first embodiment.
  • the initial display position setting unit 68 sets the initial display positions of the two product images 22 based on the history data (FIG. 13). That is, the initial display position setting unit 68 sets the direction from one initial display position of the two product images 22 to the other initial display position based on the direction information included in the history data (FIG. 13). . Specifically, the initial display position setting unit 68 determines the direction from one initial display position of the two product images 22 to the other initial display position based on the direction information included in the history data (FIG. 13). The initial display positions of these two product images 22 are set so as to be in the direction.
  • the initial display position setting unit 68 determines, for each of a plurality of direction information included in the history data (FIG. 13), whether the direction information corresponds to one of the reference directions 80A to 80D. To do.
  • the initial display position setting unit 68 determines whether or not the direction information corresponds to the reference direction by determining whether or not the angle formed by the direction indicated by the direction information and the reference direction is equal to or less than the reference angle. judge. For example, when the angle formed by the direction indicated by the direction information and the reference direction 80A is equal to or smaller than the reference angle, the initial display position setting unit 68 determines that the direction information corresponds to the reference direction 80A.
  • the initial display position setting unit 68 determines that the direction information is the reference direction 80A to 80D. It is determined that neither is supported.
  • the initial display position setting unit 68 acquires the number of direction information corresponding to the reference direction for each of the reference directions 80A to 80D. That is, the initial display position setting unit 68 acquires the number of direction information corresponding to the reference direction 80A among the plurality of direction information included in the history data (FIG. 13). In addition, the initial display position setting unit 68 acquires the number of direction information corresponding to the reference direction 80B among the plurality of direction information included in the history data (FIG. 13). Similarly, the initial display position setting unit 68 acquires the number of direction information corresponding to the reference direction 80C among the plurality of direction information included in the history data (FIG. 13).
  • the initial display position setting unit 68 acquires the number of direction information corresponding to the reference direction 80D among the plurality of direction information included in the history data (FIG. 13). Then, the initial display position setting unit 68 acquires the reference direction having the largest number of the above-described direction information among the reference directions 80A to 80D.
  • the initial display position setting unit 68 refers to the initial display position data (FIG. 24), and acquires the initial display position associated with the reference direction having the largest number of the direction information. For example, when the reference direction with the largest number of direction information is the reference direction 80B, the initial display position setting unit 68 acquires the regions 90A and 90D as the initial display positions. In this case, the initial display position setting unit 68 displays one of the two product images 22 that the user is likely to collide with in the region 90A, and displays the other in the region 90D.
  • the product images 22A to 22D shown in FIG. 3 are displayed on the favorite screen.
  • the product images 22B and 22C have the same product category (socks) and similar prices. Therefore, the product images 22B and 22C are determined as the two product images 22 that are highly likely to be collided by the user.
  • one initial display position of the product images 22B and 22C is set in the area 90A.
  • the other initial display position is set in the area 90D.
  • one of the product images 22B and 22C is randomly selected as the product image 22 initially displayed in the region 90A.
  • the product image 22 that is not selected as the product image 22 to be initially displayed in the area 90A is selected as the product image 22 to be initially displayed in the area 90D.
  • the product image 22B is selected as the product image 22 initially displayed in the area 90A
  • the product image 22C is selected as the product image 22 initially displayed in the area 90D.
  • at which position in the area 90A the product image 22B is initially displayed is randomly determined.
  • the position where the product image 22C is initially displayed in the region 90D is also determined at random.
  • the orientations of the product images 22B and 22C are also determined randomly.
  • the initial display positions of the product images 22A and 22D that are not determined as the product images 22 that are likely to collide with the user are set in the regions 90B and 90C other than the regions 90A and 90D.
  • the positions in the regions 90B and 90C are randomly determined as the initial display positions of the product images 22A and 22D.
  • the orientation of the product images 22A and 22D is also determined randomly.
  • the initial display position setting unit 68 acquires the boundary lines 92A and 92D as the initial display positions. In this case, the initial display position setting unit 68 displays one of the two product images 22 that are likely to collide with the user on the boundary line 92A, and displays the other on the region 92D.
  • the information processing apparatus 10 According to the information processing apparatus 10 according to the second embodiment described above, it is possible to improve the convenience of the user by considering the user's habit without causing the user to input the user's habit in advance. Can be realized.
  • distance information regarding the distance between the two product images 22 at the time when it was determined in the past that the two product images 22 were selected by the user.
  • Information may be information regarding the distance between one designated position and the other designated position.
  • the distance information is information related to the distance between the representative position of one object and the pointing position corresponding to the other object (that is, the pointing position determined to be included in the determination area corresponding to the other object). It may be information about the distance between the designated position corresponding to one object and the representative position of the other object.
  • the initial display position setting unit 68 is a functional block for setting the initial display position of the product image 22 so that the user can easily collide the two product images 22 by a pinch operation using two fingers of one hand. Therefore, it is not desirable to use the direction information in the above case for setting the initial display position of the product image 22. For this reason, the initial display position setting unit 68 may not use the direction information in the above case for setting the initial display position of the product image 22.
  • the direction information in the above case is not included in the history data (FIG. 13). What should I do?
  • the history data shown in FIG. 18 may be stored instead of the history data shown in FIG. In this case, when setting the initial display position of the product image 22, the direction information associated with the distance information indicating a distance larger than the reference distance may be ignored.
  • the initial display position setting unit 68 may use the direction information and the distance information when setting the initial display position of the product image 22. For example, when setting the initial display positions of two product images 22 that are highly likely to be collided by the user, the initial display position setting unit 68 sets the distance between the initial display positions of the two product images 22 as the distance. You may make it set based on information. Specifically, the initial display position setting unit 68 sets the initial display position of the two product images 22 such that the distance between the initial display positions of the two product images 22 is a distance based on the distance information. May be set.
  • history data as shown in FIG. 18 needs to be stored in the storage unit 50.
  • the direction information and the distance information need not be stored in association with each other, and the data indicating the history of the direction information and the data indicating the history of the distance information are stored as separate data. May be.
  • the initial display position setting unit 68 may calculate a statistical value (for example, an average value or an intermediate value) of distances indicated by a plurality of distance information included in the history data (FIG. 18).
  • the initial display position setting unit 68 may set the distance between the initial display positions of the two product images 22 that are highly likely to be collided by the user based on the statistical value.
  • the initial display position setting unit 68 sets the distance between the initial display positions of two product images 22 that are likely to be collided by the user to the above statistical values, and sets the initial values of the two product images 22.
  • the display position may be set.
  • the information to be searched is stored in the database 6
  • the information to be searched may be stored in the auxiliary storage unit 13 of the information processing apparatus 10.
  • the information processing apparatus 10 acquires a list of information satisfying the search condition from the auxiliary storage unit 13.
  • the present invention is applied to the information processing apparatus 10 in which a plurality of product images 22 are displayed on a screen (favorite screen) has been described.
  • the present invention can also be applied to an information processing apparatus in which an object other than the product image 22 is displayed on the screen.
  • the present invention can be applied to an information processing apparatus in which a plurality of icons (objects) associated with files or folders are displayed on a screen.
  • the files (folders) associated with the two icons may be integrated. Or you may make it display the difference of the file (folder) linked
  • image data is associated with an icon, image data obtained by combining image data associated with two conflicting icons may be displayed.
  • the present invention can also be applied to an information processing device (game device) in which a plurality of game characters (objects) are displayed on a game screen.
  • game device an information processing device
  • objects displayed on a game screen.
  • the information processing device in this case, when the user collides game characters with each other on the game screen, a comparison screen for comparing parameter information (attribute information) of the game characters is displayed. You may do it. Alternatively, the game characters may have a conversation. Alternatively, these game characters may fight. In addition, when making a user fight when game characters collide with each other, you may make it determine victory or defeat by comparing the parameter information (attribute information) of those game characters. . Then, the game character that is the winner may be left on the game screen, and the game character that is the loser may be deleted from the game screen. Note that the loser game character may be moved to the end of the game screen.
  • the present invention can be applied to an information processing apparatus in which a plurality of icons (objects) associated with a material (material) are displayed on a screen (recipe search screen).
  • the two objects can move while the user is pointing the two objects with two fingers. That is, it has been described that one object moves according to the movement of one finger and the other object moves according to the movement of the other finger.
  • only one object may be movable while the user is pointing to the two objects with two fingers.
  • only the object pointed to by the user may be movable. Only the object pointed later by the user may be movable.
  • the case shown in FIGS. it is assumed that only the product image 22 pointed to by the user can be moved.
  • the user if the user points the product image 22C before the product image 22B, the user can move only the product image 22C.
  • the user causes the product image 22C to collide with the product image 22B by moving the finger pointing to the product image 22C toward the finger pointing to the product image 22B.
  • the screen displayed on the display unit 15 may be generated using a three-dimensional computer graphics technique.
  • a screen showing a state where a three-dimensional space in which a plurality of objects are arranged is viewed from a virtual camera may be displayed on the display unit 15.
  • the instruction unit (operation unit 14) used for the user to instruct the position in the screen displayed on the display unit 15 may not be provided on the display unit 15. .
  • the instruction unit (operation unit 14) may be provided at a position away from the display unit 15.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • Human Computer Interaction (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 情報処理装置を使用するユーザの利便性をユーザの利き手や癖等を考慮することによって向上することを、ユーザの利き手や癖等を予め入力する手間をユーザにかけさせることなく実現することが可能な情報処理装置を提供する。オブジェクトに対応する判定領域内にユーザの指示位置が含まれると判定された場合に該指示位置の移動に応じて該オブジェクトが移動される。一のオブジェクト及び他のオブジェクトの少なくとも一方が移動した場合に、該オブジェクトの衝突判定の結果に基づいて該オブジェクトに関する処理が実行される。第2の処理実行部(64)は、一の指示位置が一のオブジェクトに対応する判定領域内に含まれ、他の指示位置が他のオブジェクトに対応する判定領域内に含まれると過去において判定された場合の一のオブジェクト又は一の指示位置と他のオブジェクト又は他の指示位置との間の位置関係に基づいて、所定の処理を実行する。

Description

情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体
 本発明は情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体に関する。
 情報処理装置を使用するユーザの利便性をユーザの利き手や癖等を考慮することによって向上する技術が知られている。このような技術としては、例えば、情報処理装置の表示部に表示される画面のレイアウトをユーザの利き手に応じて変更する技術が知られている。例えば特許文献1は、画面に表示されるスクロールボタンの表示位置をユーザの利き手に応じて変えることを開示している。
特開平5-66888号公報
 しかしながら、例えば特許文献1に記載の情報処理装置では、ユーザが自らの利き手を予め入力しなければならなかった。
 本発明は上記課題に鑑みてなされたものであって、情報処理装置を使用するユーザの利便性をユーザの利き手や癖等を考慮することによって向上することを、利き手や癖等を入力する手間をユーザにかけさせることなく実現することが可能な情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体を提供することにある。
 上記課題を解決するために、本発明に係る情報処理装置は、複数のオブジェクトを含む画面を表示手段に表示させる表示制御手段と、ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段の検出結果を取得する検出結果取得手段と、前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記ユーザの指示位置が含まれるか否かを判定する判定手段と、前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記指示位置が含まれると判定された場合に、該指示位置の移動に応じて該オブジェクトを移動させるオブジェクト移動手段と、前記ユーザの一の指示位置が前記複数のオブジェクトのうちの一のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定され、前記ユーザの他の指示位置が前記複数のオブジェクトのうちの他のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定された場合において、前記オブジェクト移動手段により前記一のオブジェクト及び前記他のオブジェクトの少なくとも一方が移動した場合に、前記一のオブジェクトと前記他のオブジェクトとが衝突したか否かを判定する衝突判定手段と、前記衝突判定手段の判定結果に基づいて、前記一のオブジェクト及び前記他のオブジェクトに関する処理を実行する第1の処理実行手段と、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する第2の処理実行手段と、を含むことを特徴とする。
 また、本発明に係る情報処理装置の制御方法は、複数のオブジェクトを含む画面を表示手段に表示させる表示制御ステップと、ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段の検出結果を取得する検出結果取得ステップと、前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記ユーザの指示位置が含まれるか否かを判定する判定ステップと、前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記指示位置が含まれると判定された場合に、該指示位置の移動に応じて該オブジェクトを移動させるオブジェクト移動ステップと、前記ユーザの一の指示位置が前記複数のオブジェクトのうちの一のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定され、前記ユーザの他の指示位置が前記複数のオブジェクトのうちの他のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定された場合において、前記オブジェクト移動ステップにより前記一のオブジェクト及び前記他のオブジェクトの少なくとも一方が移動した場合に、前記一のオブジェクトと前記他のオブジェクトとが衝突したか否かを判定する衝突判定ステップと、前記衝突判定ステップにおける判定結果に基づいて、前記一のオブジェクト及び前記他のオブジェクトに関する処理を実行する第1の処理実行ステップと、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する第2の処理実行ステップと、を含むことを特徴とする。
 また、本発明に係るプログラムは、複数のオブジェクトを含む画面を表示手段に表示させる表示制御手段、ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段の検出結果を取得する検出結果取得手段、前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記ユーザの指示位置が含まれるか否かを判定する判定手段、前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記指示位置が含まれると判定された場合に、該指示位置の移動に応じて該オブジェクトを移動させるオブジェクト移動手段、前記ユーザの一の指示位置が前記複数のオブジェクトのうちの一のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定され、前記ユーザの他の指示位置が前記複数のオブジェクトのうちの他のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定された場合において、前記オブジェクト移動手段により前記一のオブジェクト及び前記他のオブジェクトの少なくとも一方が移動した場合に、前記一のオブジェクトと前記他のオブジェクトとが衝突したか否かを判定する衝突判定手段、前記衝突判定手段の判定結果に基づいて、前記一のオブジェクト及び前記他のオブジェクトに関する処理を実行する第1の処理実行手段、及び、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する第2の処理実行手段、としてコンピュータを機能させるためのプログラムである。
 また、本発明に係る情報記憶媒体は、複数のオブジェクトを含む画面を表示手段に表示させる表示制御手段、ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段の検出結果を取得する検出結果取得手段、前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記ユーザの指示位置が含まれるか否かを判定する判定手段、前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記指示位置が含まれると判定された場合に、該指示位置の移動に応じて該オブジェクトを移動させるオブジェクト移動手段、前記ユーザの一の指示位置が前記複数のオブジェクトのうちの一のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定され、前記ユーザの他の指示位置が前記複数のオブジェクトのうちの他のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定された場合において、前記オブジェクト移動手段により前記一のオブジェクト及び前記他のオブジェクトの少なくとも一方が移動した場合に、前記一のオブジェクトと前記他のオブジェクトとが衝突したか否かを判定する衝突判定手段、前記衝突判定手段の判定結果に基づいて、前記一のオブジェクト及び前記他のオブジェクトに関する処理を実行する第1の処理実行手段、及び、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する第2の処理実行手段、としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体である。
 また、本発明の一態様では、前記位置関係は、前記一のオブジェクトと前記他のオブジェクトとが衝突したと過去において判定された際の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の位置関係であってもよい。
 また、本発明の一態様では、前記第2の処理実行手段は、前記ユーザの利き手を判断するための利き手判断処理を前記位置関係情報に基づいて実行することによって前記ユーザの利き手を判断する利き手判断手段を含むようにしてもよい。
 また、本発明の一態様では、前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置から、前記他のオブジェクト又は前記他の指示位置への方向に関する方向情報を含み、前記利き手判断手段は、前記ユーザの利き手を前記方向情報に基づいて判断するようにしてもよい。
 また、本発明の一態様では、前記複数のオブジェクトの各々には属性情報が関連付けられ、前記表示制御手段は、前記複数のオブジェクトのうちの二つのオブジェクトの属性情報を比較する比較手段と、前記比較手段による比較結果が所定の結果である二つのオブジェクトの初期表示位置を、前記利き手判断手段の判断結果に基づいて設定する手段と、を含むようにしてもよい。
 また、本発明の一態様では、前記衝突判定手段によって衝突したと過去において判定された二つのオブジェクトの組合せに関する情報を記憶手段に記憶させる手段を含み、前記表示制御手段は、前記記憶手段の記憶内容の少なくとも一部に基づいて前記複数のオブジェクトのうちから選出される二つのオブジェクトの初期表示位置を、前記利き手判断手段の判断結果に基づいて設定する手段を含むようにしてもよい。
 また、本発明の一態様では、検索条件を満足する情報の一覧を取得する手段と、前記情報の一覧を示す検索結果画面を前記表示手段に表示させる手段と、を含み、前記検索条件は、前記利き手判断手段の判断結果に基づいて設定されるようにしてもよい。
 また、本発明の一態様では、前記第2の処理実行手段は、前記複数のオブジェクトの初期表示位置を設定するための処理を前記位置関係情報に基づいて実行することによって前記複数のオブジェクトの初期表示位置を設定する初期表示位置設定手段を含むようにしてもよい。
 また、本発明の一態様では、前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置から、前記他のオブジェクト又は前記他の指示位置への方向に関する方向情報を含み、前記複数のオブジェクトの各々には属性情報が関連付けられ、前記初期表示位置設定手段は、前記複数のオブジェクトのうちの二つのオブジェクトの属性情報を比較する比較手段と、前記比較手段による比較結果が所定の結果である二つのオブジェクトのうちの一方の初期表示位置から他方の初期表示位置への方向を前記方向情報に基づいて設定する手段と、を含むようにしてもよい。
 また、本発明の一態様では、前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他の一のオブジェクト又は前記他の指示位置と、の間の距離に関する距離情報を含み、前記複数のオブジェクトの各々には属性情報が関連付けられ、前記初期表示位置設定手段は、前記複数のオブジェクトのうちの二つのオブジェクトの属性情報を比較する比較手段と、前記比較手段による比較結果が所定の結果である二つのオブジェクトの初期表示位置の間の距離を前記距離情報に基づいて設定する手段と、を含むようにしてもよい。
 また、本発明の一態様では、前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置から、前記他のオブジェクト又は前記他の指示位置への方向に関する方向情報を含み、前記情報処理装置は、前記衝突判定手段によって衝突したと過去において判定された二つのオブジェクトの組合せに関する情報を記憶手段に記憶させる手段を含み、前記初期表示位置設定手段は、前記記憶手段の記憶内容の少なくとも一部に基づいて前記複数のオブジェクトのうちから選出される二つのオブジェクトのうちの一方の初期表示位置から他方の初期表示位置への方向を前記方向情報に基づいて設定する手段を含むようにしてもよい。
 また、本発明の一態様では、前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他の一のオブジェクト又は前記他の指示位置と、の間の距離に関する距離情報を含み、前記情報処理装置は、前記衝突判定手段によって衝突したと過去において判定された二つのオブジェクトの組合せに関する情報を記憶手段に記憶させる手段を含み、前記初期表示位置設定手段は、前記記憶手段の記憶内容の少なくとも一部に基づいて前記複数のオブジェクトのうちから選出される二つのオブジェクトの初期表示位置の間の距離を前記距離情報に基づいて設定する手段を含むようにしてもよい。
 本発明によれば、情報処理装置を使用するユーザの利便性をユーザの利き手や癖等を考慮することによって向上することを、利き手や癖等を入力する手間をユーザにかけさせることなく実現することが可能になる。
本発明の実施形態に係る情報処理装置のハードウェア構成の一例を示す図である。 検索結果画面の一例を示す図である。 お気に入り画面の一例を示す図である。 二つの商品を比較するための操作について説明するための図である。 比較画面の一例を示す図である。 第1実施形態に係る情報処理装置の機能ブロック図である。 お気に入りテーブルの一例を示す図である。 オブジェクトテーブルの一例を示す図である。 指示位置データの一例を示す図である。 判定領域について説明するための図である。 衝突判定方法について説明するための図である。 情報処理装置で実行される処理の一例を示すフロー図である。 履歴データの一例を示す図である。 利き手が右手であるユーザが行い易いピンチ操作について説明するための図である。 利き手が左手であるユーザが行い易いピンチ操作について説明するための図である。 情報処理装置で実行される処理の一例を示すフロー図である。 情報処理装置で実行される処理について説明するための図である。 履歴データの他の一例を示す図である。 初期表示位置データについて説明するための図である。 初期表示位置データの一例を示す図である。 商品画像の初期表示位置の一例を示す図である。 第2実施形態に係る情報処理装置の機能ブロック図である。 初期表示位置データについて説明するための図である。 初期表示位置データの他の一例を示す図である。
 以下、本発明の実施形態の例について図面に基づき詳細に説明する。
[第1実施形態]
 まず、本発明の第1実施形態に係る情報処理装置について説明する。本実施形態に係る情報処理装置は、例えば携帯電話機、携帯情報端末、パーソナルコンピュータ、又はゲーム機等によって実現される。図1は、本実施形態に係る情報処理装置10のハードウェア構成の一例を示している。図1に示すように、情報処理装置10は、制御部11、主記憶部12、補助記憶部13、操作部14、表示部15、音声出力部16、及び光ディスクドライブ部17、及び通信インタフェース18を備えている。
 制御部11は例えば1又は複数のCPUを含み、補助記憶部13に記憶されたオペレーションシステム又はプログラムに従って情報処理を実行する。主記憶部12は例えばRAMであり、補助記憶部13は例えばハードディスク又はソリッドステートドライブである。
 操作部14はユーザが操作を行うためのものである。本実施形態の場合、表示部15に表示される画面内の位置をユーザが指示するための指示部が操作部14として備えられる。すなわち、例えば、タッチパネル、マウス、又はスティック等のポインティングデバイスが操作部14として備えられる。なお、以下では、表示部15の上に重ねて設けられるタッチパネルが情報処理装置10に備えられていることとして説明する。
 情報処理装置10に備えられるタッチパネルは一般的なタッチパネルであり、ユーザによって接触された1又は複数の位置を検出可能になっている。タッチパネルとしては、例えば静電容量方式のタッチパネルが用いられる。静電容量方式のタッチパネルでは、タッチパネルの表面がユーザによって接触された場合に生じる電荷の変化に基づいて、ユーザによって接触されている1又は複数の位置が検出される。タッチパネルは、ユーザによって接触された1又は複数の位置を示す情報を供給する。制御部11は、タッチパネルから供給される情報に基づいて、ユーザによって接触されている1又は複数の位置を取得する。
 表示部15は例えば液晶表示ディスプレイ等であり、音声出力部16は例えばスピーカ等である。光ディスクドライブ部17は、光ディスク(情報記憶媒体)に記憶されたプログラムやデータを読み取る。
 なお例えば、プログラムやデータは光ディスクを介して補助記憶部13に供給される。すなわち、プログラムやデータが記憶された光ディスクが光ディスクドライブ部17に装着され、光ディスクに記憶されたプログラムやデータが光ディスクドライブ部17によって読み出され、補助記憶部13に記憶される。なお、光ディスクドライブ部17は必須の構成要素ではない。光ディスク以外の情報記憶媒体(例えばメモリカード)に記憶されたプログラム又はデータを読み取るための構成要素が光ディスクドライブ部17の代わりに含まれるようにしてもよい。そして、光ディスク以外の情報記憶媒体を介してプログラムやデータが補助記憶部13に供給されるようにしてもよい。または、例えばインターネット等を含んで構成される通信ネットワーク2を介してプログラム及びデータが補助記憶部13に供給されるようにしてもよい。
 通信インタフェース18は情報処理装置10を通信ネットワーク2に接続するためのインタフェースである。情報処理装置10は通信ネットワーク2を介してサーバ4にアクセスできるようになっている。
 サーバ4は、情報処理装置10から受信した処理要求に基づく処理を実行する。例えば、サーバ4ではデーモンプログラムが起動されている。サーバ4は、情報処理装置10から処理要求を受信した場合、必要に応じてデータベース6にアクセスし、上記の処理要求に対応する処理結果を情報処理装置10に返信する。なお、データベース6はサーバ4とは別のサーバコンピュータ内に構築されていてもよいし、サーバ4に構築されていてもよい。
 なお以下では、ユーザが通信ネットワーク2を介して商品を購入可能な電子商取引サイトがサーバ4によって提供されており、この電子商取引サイトを利用するためのアプリケーションプログラムが情報処理装置10において実行される場合について説明する。
 まず、上記のアプリケーションプログラムについて説明する。ここでは、上記のアプリケーションプログラムが実行された場合に情報処理装置10の表示部15に表示される画面の例について説明する。
 図2は検索結果画面の一例を示している。検索結果画面は、検索画面(図示せず)におけるユーザの入力に基づいて設定された検索条件を満足する情報の一覧を示す画面である。図2に示す検索結果画面は、電子商取引サイトで購入可能な商品のうちの、検索条件を満足する商品の一覧を示す画面である。
 検索結果画面を表示するために、情報処理装置10は、検索画面におけるユーザの入力に基づいて設定された検索条件を満足する商品の一覧を取得する。例えば、情報処理装置10(上記のアプリケーションプログラム)は検索条件をサーバ4に送信する。検索条件を受信したサーバ4はデータベース6にアクセスし、検索条件を満足する商品の一覧を取得する。そして、サーバ4は取得された商品の一覧を情報処理装置10に返信する。情報処理装置10では、サーバ4から返信された商品の一覧を示す検索結果画面が表示される。
 図2に示す検索結果画面は一覧領域20を含んでいる。一覧領域20には検索条件を満足する商品の一覧が表示される。具体的には、検索条件を満足する各商品の商品画像22が一覧領域20に表示される。商品画像22は商品のサムネイル画像を含んでおり、さらに、商品の名称及び価格が商品画像22に付加されている。
 また、検索結果画面はお気に入り領域24を含んでいる。お気に入り領域24は、一覧領域20に表示される商品のうちの商品をお気に入りとして登録するためのものである。
 商品をお気に入りとして登録するための操作について説明する。ここでは、ユーザが商品「D」をお気に入りとして登録する場合を想定する。この場合、ユーザは、商品「D」の商品画像22を指し示すようにして、タッチパネル上に指を接触させる。そして、矢印26のように、ユーザはその指をタッチパネル上でお気に入り領域24までスライドさせる。このような操作が行われた場合、指の移動に応じて、商品「D」の商品画像22がお気に入り領域24まで移動し、その結果、商品「D」がお気に入りとして登録される。お気に入りの商品が新たに登録された場合、お気に入りとして登録済みの商品の一覧を示すお気に入り画面が表示される。
 図3はお気に入り画面の一例を示している。お気に入り画面には、お気に入りとして登録済み商品の商品画像22が表示される。図3は、商品「A」、「B」、「C」、及び「D」がお気に入りの商品として登録済みである場合のお気に入り画面の一例を示している。図3に示すお気に入り画面には、商品「A」、「B」、「C」、及び「D」の商品画像22A,22B,22C,22Dが表示されている。なお、お気に入り画面では、図3の商品画像22A~22Dのように、商品画像22が散らばった状態で表示される。
 このお気に入り画面も、情報処理装置10(上記のアプリケーションプログラム)とサーバ4との間でデータの送受信が行われることによって表示される。すなわち、検索結果画面においていずれかの商品の商品画像22がお気に入り領域24まで移動された場合、上記のアプリケーションプログラムは、その商品の商品IDをユーザIDとともにサーバ4に送信される。
 データベース6には、ユーザがお気に入りとして登録した商品を示すテーブルが記憶されており、サーバ4は、情報処理装置10から受信した上記のユーザID及び商品IDに基づいてそのテーブルを更新する。また、サーバ4は、ユーザがお気に入りとして登録済みの商品の情報をデータベース6から取得し、情報処理装置10に返信する。情報処理装置10では、サーバ4から返信された情報が補助記憶部13に保存され(後述の図7参照)、この情報に基づいてお気に入り画面が表示される。
 お気に入り画面では、ユーザが二つの商品を選択し、それら二つの商品を比較できるようになっている。ここで、二つの商品を比較するための操作について説明する。図4はその操作について説明するための図である。ここでは、商品「B」及び商品「C」を比較する場合を想定する。
 商品「B」及び商品「C」を比較する場合、ユーザは、例えば「ピンチ操作」を行うことによって商品「B」の商品画像22Bと商品「C」の商品画像22Cとを衝突させる。つまり、ユーザは、商品「B」の商品画像22Bを指し示すように、一方の手(例えば右手)の一の指(例えば親指)をタッチパネル上に接触させ、商品「C」の商品画像22Cを指し示すように、他の指(例えば人差し指)をタッチパネル上に接触させる。その後、ユーザはそれらの指を互いに近づけるようにタッチパネル上でスライドさせる。このような操作が行われた場合、それらの指の移動に応じて、矢印30,32のように、商品「B」の商品画像22Bと商品「C」の商品画像22Cとがお互いに近づくように移動する。
 そして、商品「B」の商品画像22Bと商品「C」の商品画像22Cとが衝突したと判定されると、商品「B」と商品「C」とを比較するための比較画面が表示される。図5はこの場合の比較画面の一例を示している。この場合の比較画面には商品「B」及び商品「C」の各種情報(属性情報)の比較表40が表示される。
 なお、電子商取引サイトでは、商品の購入者がその商品を例えば5点満点で評価できるようになっている。比較表40における「評価値」欄には、その商品の購入者によって登録された評価値の平均点が表示される。また、上述の検索結果画面で商品がお気に入りとして登録された場合、その旨がサーバ4に通知されるようになっており、商品をお気に入りとして登録したユーザの数がデータベース6に記憶されるようになっている。比較表40における「お気に入り」欄には、その商品をお気に入りとして登録したユーザの数が表示される。
 また、比較画面には、それぞれの商品を購入するための購入画面へのリンクボタン42が表示される。リンクボタン42が選択されると、商品を購入するための購入画面(図示せず)が表示される。また、比較画面には閉じるボタン44が表示されている。閉じるボタン44が選択されると、比較画面が閉じられ、お気に入り画面が再び表示される。
 上記のお気に入り画面では、二つの商品画像22を二本の指で指し示すことによって選択し、それら二本の指を移動させることによってそれら二つの商品画像22を移動させて衝突させるという直感的な操作によって、ユーザは二つの商品の比較画面を表示することを情報処理装置10に指示できるようになっている。
 ところで、二つの商品の比較画面を表示することを情報処理装置10に指示するための操作としては、ドラッグアンドドロップ操作を採用することも考えられる。すなわち、ユーザがドラッグ操作によって一の商品画像22を移動させて他の商品画像22に重ねた状態でドロップ操作を行った場合に、それら二つの商品の比較画面を表示させるようにすることも考えられる。
 しかしながら、上記のようなドラッグアンドドロップ操作を採用すると、例えば、ドラッグ操作によって一の商品画像22を移動させ、互いに密集する複数の商品画像22のうちの所望の商品画像22に重ねてドロップ操作を行おうとする場合に、ユーザが一の商品画像22を誤って所望の商品画像22以外の商品画像22に重ねてドロップ操作を行ってしまう場合がある。このような場合、ユーザが意図していない二つの商品の比較画面が表示されてしまうことになる。
 これに対し、本実施形態に係る情報処理装置10では、ユーザが、まず、比較したい2つの商品の商品画像22の両方を選択し、その後、それらの商品画像22を移動させて衝突させることによって、それらの商品の比較画面が表示されるようになっている。このため、上記のような不都合が生じ難くなる。すなわち、仮に、所望の商品画像22以外の商品画像22を選択してしまったとしても、その商品画像22をもう一方の商品画像22に衝突させなければ、それらの商品の比較画面が表示されることはない。この場合、ユーザは指をタッチパネルから離して商品画像22を選択し直せばよい。このように、本実施形態に係る情報処理装置10では、ユーザが意図していない二つの商品の比較画面が表示されてしまうことが起き難くなる。
 また、上記のようなドラッグアンドドロップ操作を採用すると、一の商品画像22を移動させる途中でドラッグ操作をやめる場合に、該一の商品画像22が他の商品画像22と重なっていると、それらの商品の比較画面が表示されてしまい、ユーザが意図していない二つの商品の比較画面が表示されてしまうことになる。このため、ユーザは、ドラッグ操作をやめる場合に、他の商品画像22と重なっていない位置まで該一の商品画像22を移動させてからドラッグ操作をやめる必要がある。
 これに対し、本実施形態に係る情報処理装置10では上記のような不都合が生じない。所望の商品画像22以外の商品画像22を選択してしまった場合に商品画像22を選択し直すべく指をタッチパネルから離す場合であっても、ユーザは、商品画像22が他の商品画像22上に位置しているか否かを特に留意する必要がない。ユーザが選択した商品画像22同士が衝突していない限り、それらの商品画像22が他の商品画像22上に位置していたとしても、商品の比較画面は表示されないからである。
 以下、上記のようなユーザインタフェース(お気に入り画面)を有する情報処理装置10において、ユーザの利き手又は癖等を考慮してユーザの利便性を向上させるための構成について説明する。以下では、特に、ユーザの利き手又は癖等を考慮してユーザの利便性を向上させることを、利き手や癖等を入力する手間をユーザにかけさせることなく実現するための構成について説明する。
 図6は、本実施形態に係る情報処理装置10において実現される機能ブロックのうち、本発明に関連する機能ブロックを示す機能ブロック図である。図6に示すように、情報処理装置10は、記憶部50、表示制御部52、検出結果取得部54、選択判定部56、オブジェクト移動部58、衝突判定部60、第1の処理実行部62、及び第2の処理実行部64を含んでいる。
 例えば、記憶部50は主記憶部12及び補助記憶部13である。表示制御部52、検出結果取得部54、選択判定部56、オブジェクト移動部58、衝突判定部60、第1の処理実行部62、及び第2の処理実行部64は制御部11によって実現される。すなわち、制御部11がプログラムに従って処理を実行することによって、制御部11がこれらの機能ブロックとしてとして機能するようになる。
 記憶部50について説明する。記憶部50は各種データを記憶する。図7~図9は記憶部50に記憶されるデータの一例を示している。
 図7はお気に入りテーブルの一例を示している。お気に入りテーブルは、お気に入りとして登録された商品の情報を示すテーブルである。上述したように、お気に入り画面が表示される際に、ユーザがお気に入りとして登録済みの商品の情報がサーバ4(データベース6)から取得される。そして、サーバ4から取得されたこの情報がお気に入りテーブルとして登録される。
 図7に示すお気に入りテーブルは、「商品ID」、「商品名」、「価格」、「カテゴリー」、「評価点」、「お気に入り登録者数」、「画像」、及び「購入ページ」フィールドを含んでいる。「商品ID」フィールドには、商品を一意に識別するための識別情報(商品ID)が登録される。「商品名」及び「価格」フィールドには、商品の名称及び価格がそれぞれ登録される。「カテゴリー」フィールドには商品のカテゴリーが登録される。「評価点」フィールドには、商品の購入者によってつけられた評価値の平均点が登録される。「お気に入り登録者数」フィールドには、商品をお気に入りとして登録したユーザの人数が登録される。「画像」フィールドには、商品の通常画像及びサムネイル画像へのリンク情報(URL)が登録される。「購入ページ」フィールドには、商品の購入ページ(購入画面)へのリンク情報(URL)が登録される。
 図8はオブジェクトテーブルの一例を示している。オブジェクトテーブルは、お気に入り画面に表示されるオブジェクト(商品画像22)を管理するためのテーブルである。オブジェクトテーブルは「オブジェクトID」、「商品ID」、及び「位置」フィールドを含んでいる。「オブジェクトID」フィールドには、オブジェクト(商品画像22)を一意に識別するための識別情報(オブジェクトID)が登録される。「商品ID」フィールドには、オブジェクト(商品画像22)に関連づけられる商品の商品IDが登録される。例えば、商品「A」の商品画像22の場合、商品「A」の商品IDが「商品ID」フィールドに登録される。「位置」フィールドにはオブジェクト(商品画像22)の表示位置が登録される。例えば、オブジェクト(商品画像22)の代表位置(例えば中心位置)のスクリーン座標値が「位置」フィールドに登録される。なお、スクリーン座標系とは、図2に示すように、画面の左上を原点Oとし、右方向をX軸正方向とし、下方向をY軸正方向とする座標系である。
 次に、表示制御部52について説明する。表示制御部52は、複数のオブジェクトを含む画面を表示部15に表示させる。本実施形態の場合、表示制御部52はお気に入り画面を表示部15に表示させる。すなわち、本実施形態の場合、お気に入り画面が上記の「画面」に相当しており、お気に入り画面に表示される複数の商品画像22が上記の「複数のオブジェクト」に相当している。
 次に、検出結果取得部54について説明する。検出結果取得部54は、ユーザによって指示された画面内の複数の位置を検出可能な検出部の検出結果を取得する。例えば、ポインティングデバイスが「検出部」に相当する。本実施形態の場合、タッチパネルが「検出部」に相当しており、検出結果取得部54は、タッチパネルによって検出されたユーザの指示位置を取得する。例えば、ユーザが画面内の二つの位置(第1の指示位置及び第2の指示位置)を指示している場合、タッチパネルによって第1の指示位置及び第2の指示位置を検出される。そして、検出結果取得部54は、タッチパネルによって検出された第1の指示位置及び第2の指示位置を取得する。この場合、検出結果取得部54は、例えば図9に示すような指示位置データを取得する。なお、ユーザの指示位置はスクリーン座標系の座標値によって表される。
 次に、選択判定部56について説明する。選択判定部56は、複数のオブジェクトの各々の位置に対応するようにして設定される複数の判定領域のいずれかにユーザの指示位置が含まれるか否かを判定する。いずれかの判定領域内にユーザの指示位置が含まれると判定された場合、選択判定部56は該判定領域に対応するオブジェクトがユーザによって選択されたと判定する。
 例えば、検出部によってユーザの第1の指示位置(一の指示位置)が検出された場合、選択判定部56は第1の指示位置がいずれかの判定領域内に含まれるか否かを判定する。また、検出部によって第1の指示位置の他にユーザの第2の指示位置(他の指示位置)が検出された場合、選択判定部56は第2の指示位置が他の判定領域内に含まれるか否かを判定する。
 ここで、「判定領域」について説明しておく。判定領域は、ユーザがオブジェクトを指し示しているか否かを判定するために設定される領域である。判定領域はオブジェクトの表示位置に基づいて設定され、オブジェクトの移動に従って判定領域も移動する。例えば、オブジェクトが表示された領域が判定領域として設定される。なお、判定領域は、オブジェクトが表示された領域と一致していなくてもよい。例えば、オブジェクトが表示された領域のすべてを含み、かつ、オブジェクトが表示された領域よりも広い領域を判定領域として設定するようにしてもよい。また例えば、オブジェクトの形状が比較的複雑な形状を有する場合には、比較的単純な形状を有する判定領域を設定するようにしてもよい。
 図10は、図3に示すようなお気に入り画面が表示されている場合における判定領域について説明するための図である。なお、図10において符号「70A」はユーザの第1の指示位置を示しており、符号「70B」はユーザの第2の指示位置を示している。
 図3に示すお気に入り画面では商品画像22A~22Dが表示されている。このため、図10に示す例では判定領域72A~72Dが設定されている。なお、以下では、判定領域72A~72Dのことを総称して「判定領域72」として記載する場合がある。
 判定領域72Aは、商品「A」の商品画像22Aに対応する判定領域であり、商品画像22Aが表示された領域が判定領域72Aとして設定されている。同様に、判定領域72Bは、商品「B」の商品画像22Bに対応する判定領域であり、商品画像22Bが表示された領域が判定領域72Bとして設定されている。また、判定領域72Cは、商品「C」の商品画像22Cに対応する判定領域であり、商品画像22Cが表示された領域が判定領域72Cとして設定されている。さらに、判定領域72Dは、商品「D」の商品画像22Dに対応する判定領域であり、商品画像22Dが表示された領域が判定領域72Dとして設定されている。
 例えば図10に示す例の場合、選択判定部56は、第1の指示位置70Aが判定領域72A~72Dのうちのいずれかに含まれるか否かを判定する。図10に示す例の場合、第1の指示位置70Aが判定領域72Bに含まれているため、選択判定部56は第1の指示位置70Aが判定領域72Bに含まれていると判定することになる。その結果、選択判定部56は商品画像22Bがユーザによって選択されたと判定する。また、選択判定部56は、第2の指示位置70Bが判定領域72A~72Dのうちのいずれかに含まれるか否かを判定する。図10に示す例の場合、第2の指示位置70Bが判定領域72Cに含まれているため、選択判定部56は第2の指示位置70Bが判定領域72Cに含まれていると判定することになる。その結果、選択判定部56は商品画像22Cがユーザによって選択されたと判定する。
 次に、オブジェクト移動部58について説明する。いずれかのオブジェクトに対応する判定領域内にユーザの指示位置が含まれると判定された場合(すなわち、オブジェクトがユーザによって選択されたと判定された場合)、オブジェクト移動部58は該指示位置の移動に応じて該オブジェクトを移動させる。
 例えば、第1のオブジェクトに対応する判定領域内に第1の指示位置が含まれていると判定された場合、オブジェクト移動部58は第1の指示位置の移動に応じて第1のオブジェクトを移動させる。また例えば、第2のオブジェクトに対応する判定領域内に第2の指示位置が含まれていると判定された場合、オブジェクト移動部58は第2の指示位置の移動に応じて第2のオブジェクトを移動させる。
 例えば図10に示す例の場合、第1の指示位置70Aが商品画像22Bに対応する判定領域72Bに含まれているため、オブジェクト移動部58は第1の指示位置70Aの移動に応じて商品画像22Bを移動させる。すなわち、オブジェクト移動部58は商品画像22Bを第1の指示位置70Aに従動させる。
 また図10に示す例の場合、第2の指示位置70Bが商品画像22Cに対応する判定領域72Cに含まれているため、オブジェクト移動部58は第2の指示位置70Bの移動に応じて商品画像22Cを移動させる。すなわち、オブジェクト移動部58は商品画像22Cを第2の指示位置70Bに従動させる。
 次に、衝突判定部60について説明する。第1のオブジェクトに対応する判定領域内に第1の指示位置が含まれ、第2のオブジェクトに対応する判定領域内に第2の指示位置が含まれると判定された場合において、オブジェクト移動部58によって第1のオブジェクト及び第2のオブジェクトの少なくとも一方が移動した場合、衝突判定部60は第1のオブジェクトと第2のオブジェクトとが衝突したか否かを判定する。
 例えば、衝突判定部60は、第1の指示位置と第2の指示位置との間の距離が閾値以下になったか否かを判定することによって、第1のオブジェクトと第2のオブジェクトとが衝突したか否かを判定する。オブジェクト移動部58によって第1のオブジェクトと第2のオブジェクトとの少なくとも一方が移動した場合において、第1の指示位置と第2の指示位置との間の距離が閾値以下になった場合に、衝突判定部60は第1のオブジェクトと第2のオブジェクトとが衝突したと判定する。
 例えば図10に示す例の場合、第1の指示位置70Aが判定領域72Bに含まれており、かつ、第2の指示位置70Bが判定領域72Cに含まれている。この場合、上述したように、オブジェクト移動部58によって、商品画像22Bは第1の指示位置70Aの移動に応じて移動し、商品画像22Cは第2の指示位置70Bの移動に応じて移動する。この場合、図11に示すように、衝突判定部60は、第1の指示位置70Aと第2の指示位置70Bとの間の距離(d)を取得し、該距離(d)が閾値以下になったか否かを判定することによって、商品画像22Bと商品画像22Cとが衝突したか否かを判定する。
 上記の距離(d)が閾値以下であると判定された場合、衝突判定部60は商品画像22Bと商品画像22Cとが衝突したと判定する。図11に示す例では、判定領域72Bと判定領域72Cとが重なっている(すなわち、商品画像22Bと商品画像22Cとが重なっている)が、上記の距離(d)が閾値以下になっていなければ、衝突判定部60は商品画像22Bと商品画像22Cとが衝突したと判定しない。
 ところで、図11に示す例では、判定領域72Cと判定領域72Dとが重なっている(すなわち、商品画像22Cと商品画像22Dとが重なっている)が、判定領域72Dにはユーザの指示位置が含まれていないため、衝突判定部60は商品画像22Bと商品画像22Dとが衝突したと判定しない。
 なお、オブジェクト(商品画像22)の衝突判定方法は上記に説明した方法に限られない。例えば、衝突判定部60は第1のオブジェクトと第2のオブジェクトとが重なったか否かを判定することによって、第1のオブジェクトと第2のオブジェクトとが衝突したか否かを判定するようにしてもよい。また例えば、衝突判定部60は、第1のオブジェクトに対応する判定領域と第2のオブジェクトに対応する判定領域とが重なったか否かを判定することによって、第1のオブジェクトと第2のオブジェクトとが衝突したか否かを判定するようにしてもよい。
 次に、第1の処理実行部62について説明する。第1の処理実行部62は、衝突判定部60の判定結果に基づいて、第1のオブジェクト及び第2のオブジェクトに関連する処理を実行する。例えば、第1の処理実行部62は、第1のオブジェクトと第2のオブジェクトとが衝突したと判定された場合に、第1のオブジェクトに関連づけられた属性情報と、第2のオブジェクトに関連づけられた属性情報と、を比較する比較画面を表示部15に表示させる。
 例えば、図11に示す例において商品画像22Bと商品画像22Cとが衝突したと判定された場合、第1の処理実行部62は、商品画像22B及び商品画像22Cに関連する処理を実行する。この場合、第1の処理実行部62は図5に示したような比較画面を表示部15に表示させる。すなわち、第1の処理実行部62は、商品画像22Bに関連づけられた商品「B」の情報と、商品画像22Cに関連づけられた商品「C」の情報と、を比較する比較画面を表示部15に表示させる。
 ここで、以上に説明した検出結果取得部54、選択判定部56、オブジェクト移動部58、衝突判定部60、及び第1の処理実行部62を実現するための処理について説明しておく。図12は、お気に入り画面が表示されている間に情報処理装置10で所定時間(例えば1/60秒)ごとに繰り返し実行される処理の一例を示すフロー図である。なお、お気に入り画面が表示されている間には、ユーザの指示位置の変化に応じて商品画像22を移動させるための処理も実行されるが、図12では省略している。図12では、商品画像22同士が衝突したか否かを判定するための処理について主に示している。制御部11がプログラムに従って、図12に示す処理を実行することによって、制御部11が検出結果取得部54、選択判定部56、オブジェクト移動部58、衝突判定部60、及び第1の処理実行部62として機能するようになる。
 図12に示すように、まず、制御部11(検出結果取得部54)は、検出部(タッチパネル)によって検出されているユーザの指示位置の数(N)を取得する(S101)。そして、制御部11は、取得した数(N)が2以上であるか否かを判定する(S102)。取得した数(N)が2以上でない場合、制御部11は本処理を終了する。
 取得した数(N)が2以上である場合、制御部11は変数iの値を1に初期化する(S103)。そして、制御部11(選択判定部56)は第iの指示位置がいずれかの判定領域72に含まれているか否かを判定する(S104)。なお、「第iの指示位置」とは、検出部(タッチパネル)によって検出された指示位置のうちの第i番目の指示位置のことを示している。
 第iの指示位置がいずれかの判定領域72に含まれている場合、制御部11(選択判定部56)は、変数jの値をi+1に初期化し(S105)、第jの指示位置が他の判定領域72に含まれているか否かを判定する(S106)。なお、「他の判定領域72」とは、ステップS104において、第iの指示位置が含まれると判定された判定領域72以外の判定領域72のことを意味している。
 第jの指示位置が他の判定領域72に含まれている場合、制御部11は、第iの指示位置と第jの指示位置との間の距離(d)を取得する(S107)。そして、制御部11(衝突判定部60)は距離(d)が閾値(D)以下であるか否かを判定する(S108)。距離(d)が閾値(D)以下である場合、制御部11(第1の処理実行部62)は商品画像22同士が衝突したと判定し、比較画面(図5)を表示部15に表示させる。この場合、ステップS104で第iの指示位置を含むと判定された判定領域72に対応する商品画像22の商品と、ステップS106で第jの指示位置を含むと判定された判定領域72に対応する商品画像22の商品と、の比較画面が表示される。比較画面は図7に示すお気に入りテーブルに基づいて表示される。
 なお、ステップS104において、第iの指示位置がいずれかの判定領域72に含まれていると判定されなかった場合、制御部11は変数iの値をインクリメントし(S112)、変数iが、検出されたユーザの指示位置の数(N)未満であるか否かを判定する(S113)。変数iが、検出されたユーザの指示位置の数(N)未満であると判定された場合、制御部11はステップS104の処理を実行する。一方、変数iが、検出されたユーザの指示位置の数(N)未満であると判定されなかった場合、制御部11は本処理を終了する。
 また、ステップS106において、第jの指示位置が他の判定領域72に含まれると判定されなかった場合、又は、ステップS108において、距離(d)が閾値(D)以下であると判定されなかった場合、制御部11は変数jの値をインクリメントし(S110)、変数jの値が、検出されたユーザの指示位置の数(N)以下であるか否かを判定する(S111)。変数jが、検出されたユーザの指示位置の数(N)以下であると判定された場合、制御部11はステップS106の処理を実行する。一方、変数jが、検出されたユーザの指示位置の数(N)以下であると判定されなかった場合、制御部11はステップS112の処理を実行する。以上で図12に示す処理の説明を終了する。
 次に、第2の処理実行部64について説明する。第2の処理実行部64は、ユーザの利き手又は癖等を考慮してユーザの利便性を向上させるための機能ブロックである。
 第2の処理実行部64は、ユーザの一の指示位置が複数のオブジェクトのうちの一のオブジェクトに対応する判定領域内に含まれ、ユーザの他の指示位置が複数のオブジェクトのうちの他のオブジェクトに対応する判定領域内に含まれると過去において判定された場合の「該一のオブジェクト又は該一の指示位置」と「該他のオブジェクト又は該他の指示位置と」の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する。
 ここで、上記の「位置関係情報」と「所定の処理」について説明する。
 まず、「位置関係情報」について説明する。例えば、「位置関係情報」は、一の指示位置が一のオブジェクトに対応する判定領域内に含まれ、他の指示位置が他のオブジェクトに対応する判定領域内に含まれると過去において判定された場合の「該一のオブジェクト又は該一の指示位置」から「該他のオブジェクト又は該他の指示位置」への方向に関する方向情報である。
 図13は記憶部50に記憶される履歴データの一例を示している。図13に示す履歴データは、二つのオブジェクトがユーザによって選択されたと過去に判定された時点における一方のオブジェクトから他方のオブジェクトへの方向を示す方向情報の履歴を示している。方向情報は、例えば、衝突した二つのオブジェクトのうちの、X軸座標値が小さい方のオブジェクトの代表位置(例えば中心位置)から他方のオブジェクトの代表位置(例えば中心位置)への方向を示すベクトル情報である。
 なお、方向情報は、一方の指示位置から他方の指示位置への方向を示すベクトル情報であってもよい。または、方向情報は、一方のオブジェクトの代表位置から他方のオブジェクトに対応する指示位置(すなわち、他方のオブジェクトに対応する判定領域内に含まれると判定された指示位置)への方向を示すベクトル情報であってもよいし、一方のオブジェクトに対応する指示位置から他方のオブジェクトの代表位置への方向を示すベクトル情報であってもよい。
 また、方向情報は、二つのオブジェクトがユーザによって選択されたと判定された時点以外の時点における一方のオブジェクトから他方のオブジェクトへの方向を示すベクトル情報であってもよい。例えば、方向情報は、二つのオブジェクトが衝突したと判定された時点における一方のオブジェクトから他方のオブジェクトへの方向を示すベクトル情報であってもよい。
 次に、「所定の処理」について説明する。「所定の処理」は、ユーザの利便性を向上させるための処理である。
 本実施形態の場合、「所定の処理」は、ユーザの利き手を判断するための利き手判断処理を含む。すなわち、本実施形態の場合、第2の処理実行部64は利き手判断部66を含む。利き手判断部66は上記の利き手判断処理を上記の位置関係情報に基づいて実行することによって、ユーザの利き手を判断する。例えば、利き手判断部66は上記の履歴データ(図13)に基づいてユーザの利き手を判断する。
 例えば、利き手が右手であるユーザは一般的に図14に示すようなピンチ操作を行い易いと考えられる。すなわち、利き手が右手であるユーザは、親指Faと人差し指Fbとが親指Faの右上側に人差し指Fbが位置しているような状態から親指Fa及び人差し指Fbを互いに近づけるようなピンチ操作を行い易いと考えられる。このため、利き手が右手であるユーザは、一方の商品画像22の右上側に他方の商品画像22が位置しているような位置関係を有する二つの商品画像22を衝突させる傾向があると考えられる。
 一方、利き手が左手であるユーザは一般的に図15に示すようなピンチ操作を行い易いと考えられる。すなわち、利き手が左手であるユーザは、親指Faと人差し指Fbとが人差し指Fbの右下側に親指Faが位置しているような状態から親指Fa及び人差し指Fbを互いに近づけるようなピンチ操作を行い易いと考えられる。このため、利き手が左手であるユーザは、一方の商品画像22の右下側に他方の商品画像22が位置しているような位置関係を有する二つの商品画像22を衝突させる傾向があると考えられる。
 ユーザの利き手の判断は上記の傾向を踏まえて行うようにすればよい。以下、ユーザの利き手の判断処理の一例について説明する。ただし、ユーザの利き手の判断処理は下記に説明する方法に限定されるわけではない。
 図16はユーザの利き手の判断処理の一例を示すフロー図である。制御部11が図16に示す処理をプログラムに従って実行することによって、制御部11が利き手判断部66(第2の処理実行部64)として機能するようになる。
 図17は、図16に示す処理について説明するための図である。図16のステップS201における「基準方向A」は、図17に示す基準方向80Aのことを示している。基準方向80Aは、利き手が右手であるユーザが行い易いピンチ操作(図14)に対応する基準方向であり、例えば、画面の左下頂点から右上頂点への方向である。また、図16のステップS202における「基準方向B」は、図17に示す基準方向80Bのことを示している。基準方向80Bは、利き手が左手であるユーザが行い易いピンチ操作(図15)に対応する基準方向であり、例えば、画面の左上頂点から右下頂点への方向である。
 図16に示すように、まず、制御部11(利き手判断部66)は、履歴データ(図13)に含まれる複数の方向情報のうち、基準方向80Aに対応する方向情報の数(m1)を取得する(S201)。ここで、「基準方向80Aに対応する方向情報」とは、例えば、基準方向80Aと平行又は略平行な方向を示す方向情報である。「基準方向80Aに対応する方向情報」とは、例えば、方向情報が示す方向と基準方向80Aとがなす角度が基準角度以下であるような方向情報である。
 また、制御部11(利き手判断部66)は、履歴データ(図13)に含まれる複数の方向情報のうち、基準方向80Bに対応する方向情報の数(m2)を取得する(S202)。ここで、「基準方向80Bに対応する方向情報」とは、例えば、基準方向80Bと平行又は略平行な方向を示す方向情報である。例えば、「基準方向80Bに対応する方向情報」とは、方向情報が示す方向と基準方向80Bとがなす角度が基準角度以下であるような方向情報である。
 そして、制御部11(利き手判断部66)は上記の数(m1)及び上記の数(m2)を比較し、その比較結果に基づいてユーザの利き手を判断する(S203~S208)。
 つまり、制御部11は上記の数(m1)が上記の数(m2)よりも大きいか否かを判定する(S203)。また、上記の数(m1)が上記の数(m2)よりも大きい場合、制御部11は、上記の数(m1)と上記の数(m2)との差が基準値(M)よりも大きいか否かを判定する(S204)。そして、上記の数(m1)と上記の数(m2)との差が基準値(M)よりも大きい場合、制御部11はユーザの利き手が右手であると判断する(S205)。
 なお、ステップS204の処理は省略するようにしてもよい。このようにして、上記の数(m1)が上記の数(m2)よりも大きいと判定された場合にユーザの利き手が右手であると判断するようにしてもよい。
 ステップS203において上記の数(m1)が上記の数(m2)よりも大きいと判定されなかった場合、又は、ステップS204において上記の数(m1)と上記の数(m2)との差が基準値(M)よりも大きいと判定されなかった場合、制御部11は上記の数(m2)が上記の数(m1)よりも大きいか否かを判定する(S206)。
 上記の数(m2)が上記の数(m1)よりも大きい場合、制御部11は、上記の数(m2)と上記の数(m1)との差が基準値(M)よりも大きいか否かを判定する(S207)。そして、上記の数(m2)と上記の数(m1)との差が基準値(M)よりも大きい場合、制御部11(利き手判断部66)はユーザの利き手が左手であると判断する(S208)。
 なお、ステップS207の処理は省略するようにしてもよい。このようにして、上記の数(m2)が上記の数(m1)よりも多いと判定された場合にユーザの利き手が左手であると判定するようにしてもよい。
 また、ステップS206において上記の数(m2)が上記の数(m1)よりも大きいと判定されなかった場合、又は、ステップS207において上記の数(m2)と上記の数(m1)との差が基準値(M)よりも大きいと判定されなかった場合、制御部11はユーザの利き手を判断することなく、本処理を終了する。以上で図16に示す処理の説明を終了する。
 以上に説明したように、本実施形態に係る情報処理装置10によれば、二つの商品画像22がユーザによって選択されたと過去に判定された時点の一方の商品画像22から他方の商品画像22への方向に関する方向情報に基づいて、ユーザの利き手が判断されるようになる。すなわち、利き手を入力する手間をユーザにかけさせることなく、ユーザの利き手を判断できるようになる。
 ところで、ユーザの利き手の判断においては、二つの商品画像22がユーザによって選択されたと過去に判定された時点におけるそれら二つの商品画像22の間の距離に関する距離情報(位置関係情報)を考慮するようにしてもよい。なお、この距離情報は、一方の指示位置と他方の指示位置との間の距離に関する情報であってもよい。または、距離情報は、一方のオブジェクトの代表位置と他方のオブジェクトに対応する指示位置(すなわち、他方のオブジェクトに対応する判定領域内に含まれると判定された指示位置)との間の距離に関する情報であってもよいし、一方のオブジェクトに対応する指示位置と他方のオブジェクトの代表位置との間の距離に関する情報であってもよい。
 例えば、二つの商品画像22がユーザによって選択されたと過去に判定された時点におけるそれら二つの商品画像22の間の距離が大きい場合には、ユーザが右手の指で一方の商品画像22を選択し、左手の指で他方の商品画像22を選択している可能性が高い。このような場合における上記方向情報(すなわち、一方の商品画像22から他方の商品画像22への方向に関する方向情報)をユーザの利き手の判断に用いることは望ましくない。このため、利き手判断部66は、このような場合における上記方向情報をユーザの利き手の判断に用いないようにしてもよい。
 上記のような場合における上記方向情報をユーザの利き手の判断に用いないようにするためには、例えば、上記のような場合における上記方向情報を履歴データ(図13)に含めないようにすればよい。あるいは、図13に示す履歴データの代わりに、例えば図18に示すような履歴データが記憶されるようにしてもよい。図18に示す履歴データは上記方向情報と上記距離情報とを対応づけてなるデータになっている。そして、図16のステップS201やS202では、基準距離よりも大きい距離を示す距離情報に対応づけられた方向情報を無視するようにしてもよい。このようにすれば、ユーザの利き手の判断の精度を向上できるようになる。
 利き手判断部66によってユーザの利き手が判断された場合、その判断結果を示すデータが記憶部50に保存される。以下、このデータのことを「利き手データ」と呼ぶ。この利き手データは各種処理に用いられる。
 例えば、お気に入り画面を表示する際に利き手データは用いられる。例えば、表示制御部52は、お気に入り画面に表示される複数の商品画像22の初期表示位置を利き手データに基づいて設定する。以下、商品画像22の初期表示位置の設定処理の一例について説明する。
 まず、表示制御部52は、ユーザが衝突させる可能性が高い二つの商品画像22の組合せを取得する。すなわち、表示制御部52は、ユーザが比較対象として選択する可能性が高い二つの商品の組合せを取得する。
 ユーザが比較対象として選択する可能性が高い二つの商品の組合せは、例えば、商品の属性情報に基づいて取得することが可能である。例えば、属性情報の類似度が高い二つの商品を比較対象としてユーザは選択する可能性が高いと一般的に考えられる。具体的には、同種類の二つの商品を比較対象としてユーザは選択する可能性が高いと一般的に考えられる。また、同じ価格帯の二つの商品を比較対象としてユーザは選択する可能性が高いと一般的に考えられる。
 したがって、ユーザが衝突させる可能性が高い二つの商品画像22の組合せを取得するために、表示制御部52(比較手段)は、お気に入り画面に表示される複数の商品画像22の各々について、該商品画像22に関連づけられた商品の属性情報と、他の商品画像22に関連づけられた商品の属性情報と、を比較する。そして、表示制御部52は、比較結果が所定の結果である二つの商品画像22を、ユーザが衝突させる可能性が高い二つの商品画像22の組合せとして判断する。ここで、「所定の結果」とは、例えば、カテゴリーが同一又は類似であるとの比較結果や、価格が同一又は類似である(言い換えれば、価格の差が基準値以下である)との比較結果等である。
 なお、ユーザが比較対象として選択する可能性が高い二つの商品の組合せは、例えば、ユーザが過去に比較対象として選択した二つ商品の組合せに基づいて取得することも可能である。例えば、過去に比較対象として選択された回数が多い商品の組合せに関しては、ユーザが比較対象として選択する可能性が高いと一般的に考えることができる。
 このため、ユーザが過去に衝突させた商品画像22の組合せ(すなわち、ユーザが過去に比較対象として選択した商品の組合せ)に関する情報を記憶部50に記憶させておくようにして、その情報に基づいて、表示制御部52は、ユーザが衝突させる可能性が高い二つの商品画像22の組合せを取得するようにしてもよい。例えば、表示制御部52は、過去における衝突回数が基準回数よりも多い商品画像22の組合せを、ユーザが衝突させる可能性が高い二つの商品画像22の組合せを取得するようにしてもよい。
 ユーザが衝突させる可能性が高い二つの商品画像22の組合せが取得された場合、表示制御部52はそれら二つの商品画像22の初期表示位置を利き手データに基づいて設定する。
 商品画像22の初期表示位置を利き手データに基づいて設定するためには、利き手データ(ユーザの利き手)と商品画像22の初期表示位置とを対応づけてなるデータが必要となる。以下では、このデータのことを「初期表示位置データ」と呼ぶ。図19及び図20は初期表示位置データについて説明するための図である。
 本実施形態の場合、例えば図19に示すような複数の領域90A,90B,90C,90Dがお気に入り画面に仮想的に設定される。図19に示す例では、お気に入り画面を縦及び横方向にそれぞれ2分割することによって、四つの領域90A,90B,90C,90Dがお気に入り画面に仮想的に設定されている。
 領域90Aはお気に入り画面内の左上領域であり、領域90Bはお気に入り画面内の左下領域である。領域90Cはお気に入り画面内の右上領域であり、領域90Dはお気に入り画面内の右下領域である。領域90Aと領域90Dとは、領域90Aの右下側に領域90Dが位置しているという位置関係を有しており、領域90Bと領域90Cとは、領域90Bの右上側に領域90Cが位置しているという位置関係を有している。
 なお、図19において、符号「92A」は領域90Aと領域90Bとの間の境界線を示しており、符号「92B」は領域90Bと領域90Dとの間の境界線を示している。また、符号「92C」は領域90Aと領域90Cとの間の境界線を示しており、符号「92D」は領域90Cと領域90Dとの間の境界線を示している。
 図20は初期表示位置データの一例を示している。図20に示す初期表示位置データでは、ユーザの利き手と、商品画像22の初期表示位置と、が対応づけられている。なお、図20に記載されている領域A,B,C,Dは、それぞれ、図19に示した領域90A,90B,90C,90Dにそれぞれ対応している。図20に示す初期表示位置データでは、商品画像22の初期表示位置として領域90B,90Cが利き手「右手」に対応づけられている。また、商品画像22の初期表示位置として領域90A,90Dが利き手「左手」に対応づけられている。
 例えば、ユーザの利き手が右手であることを利き手データが示している場合、表示制御部52は初期表示位置データを参照し、利き手「右手」に対応づけられた初期表示位置(領域90B,90C)を取得する。この場合、表示制御部52は、ユーザが比較対象として選択する可能性が高い二つの商品画像22の一方の初期表示位置を領域90B内に設定し、他方の初期表示位置を領域90C内に設定する。
 一方、ユーザの利き手が左手であることを利き手データが示している場合、表示制御部52は初期表示位置データを参照し、利き手「左手」に対応づけられた初期表示位置(領域90A,90D)を取得する。この場合、表示制御部52は、ユーザが比較対象として選択する可能性が高い二つの商品画像22の一方の初期表示位置を領域90A内に設定し、他方の初期表示位置を領域90D内に設定する。
 ここで、図3に示す商品画像22A~22Dをお気に入り画面に表示する場合を想定する。この場合、商品画像22B,22Cは商品のカテゴリー(靴下)が同じであり、かつ、価格も類似している。このため、商品画像22B,22Cは、ユーザが衝突させる可能性が高い二つの商品画像22と判断される。
 そして、例えば、ユーザの利き手が左手であることを利き手データが示している場合には、例えば図21に示すように、商品画像22B,22Cの一方の初期表示位置が領域90A内に設定され、他方の初期表示位置が領域90D内に設定される。この場合、例えば、領域90A内に初期表示する商品画像22として商品画像22B,22Cのいずれかがランダムに選択される。そして、領域90A内に初期表示する商品画像22として選択されなかった商品画像22が、領域90D内に初期表示する商品画像22として選択される。
 図21に示す例では、領域90A内に初期表示する商品画像22として商品画像22Bが選択されており、領域90D内に初期表示する商品画像22として商品画像22Cが選択されている。なお、この場合、商品画像22Bを領域90A内のどの位置に初期表示するのかはランダムに決定される。同様に、商品画像22Cを領域90D内のどの位置に初期表示するのかもランダムに決定される。また、商品画像22B,22Cの向きもランダムに決定される。
 なお、ユーザが衝突させる可能性が高い商品画像22と判断されなかった商品画像22A,22Dの初期表示位置は領域90A,90D以外の領域90B,90C内に設定される。この場合、商品画像22A,22Dの初期表示位置として、領域90B,90C内の位置がランダムに決定される。また、商品画像22A,22Dの向きもランダムに決定される。
 一方、例えば、ユーザの利き手が右手であることを利き手データが示している場合には、商品画像22B,22Cの一方の初期表示位置が領域90B内に設定され、他方の初期表示位置が領域90C内に設定される。また、この場合、ユーザが衝突させる可能性が高い商品画像22と判断されなかった商品画像22A,22Dの初期表示位置は領域90A,90D以外の領域90B,90C内に設定される。
 このようにすれば、ユーザの利き手を考慮してユーザが商品画像22を衝突させ易くなるように補助することが可能になる。すなわち、ユーザが比較対象とする二つの商品を選択し易くなるように補助することが可能になる。
 ところで、利き手判断部66による判断が完了する前の時点(すなわち、ユーザの利き手が右手又は左手であることを示す利き手データが記憶部50に記憶されていない時点)では、例えば図21に示すお気に入り画面において、ユーザが衝突させる可能性が高い商品画像22B,22Cのうちの一方を領域90A,90Bの両方にそれぞれ表示し、他方を領域90C,90Dの両方にそれぞれ表示するようにしてもよい。このようにすれば、利き手判断部66によってユーザの利き手が判断される前においても、ユーザが商品画像22を衝突させ易くなるように補助することが可能になる。すなわち、ユーザが比較対象とする二つの商品を選択し易くなるように補助することが可能になる。
 なお、以上では、お気に入り画面を表示する際に利き手データを用いる場合について説明したが、利き手データを用いることができるのはお気に入り画面を表示する際に限られない。例えば、商品の検索(情報の検索)を行う際にも利き手データを用いることができる。
 例えば、商品の種類によっては右利き用の商品と左利き用の商品とが存在する場合がある。例えば、文房具には右利き用の文房具と左利き用の文房具とが存在する場合がある。具体的には、はさみには右利き用のはさみと左利き用のはさみとが存在する。このため、例えば、検索画面においてユーザが特定の商品カテゴリー(例えば文房具)を検索条件として指定した場合には、利き手データに基づいて、ユーザの利き手が検索条件の一部として自動的に追加されるようにしてもよい。このようにすれば、ユーザの利き手を考慮した検索が行われるようになる。
 以上に説明した第1実施形態に係る情報処理装置10によれば、ユーザの利き手を考慮することによってユーザの利便性を向上することを、ユーザの利き手を予め入力する手間をユーザにかけさせることなく実現することが可能になる。
[第2実施形態]
 本発明の第2実施形態に係る情報処理装置について説明する。第2実施形態に係る情報処理装置10は第1実施形態に係る情報処理装置10と同様のハードウェア構成を備えている(図1参照)。
 第2実施形態においても、電子商取引サイトがサーバ4によって提供されており、上記の電子商取引サイトを利用するためのアプリケーションプログラムが情報処理装置10で実行されることとする。すなわち、第2実施形態においても、図2に示す検索結果画面、図3に示すお気に入り画面、及び図5に示す比較画面が表示部15に表示されることとする。
 第1実施形態に係る情報処理装置10は、ユーザの利き手を判断し、お気に入り画面に表示される商品画像22の初期表示位置をユーザの利き手に基づいて設定するようになっていたが、第2実施形態に係る情報処理装置10は、ユーザの利き手を判断することなく、お気に入り画面に表示される商品画像22の初期表示位置を設定する点で第1実施形態とは異なる。
 図22は、第2実施形態に係る情報処理装置10において実現される機能ブロックのうち、本発明に関連する機能ブロックを示す機能ブロック図である。図22に示すように、第2実施形態に係る情報処理装置10は、記憶部50、表示制御部52、検出結果取得部54、選択判定部56、オブジェクト移動部58、衝突判定部60、第1の処理実行部62、及び第2の処理実行部64を含んでいる。
 第2実施形態に係る情報処理装置10は、初期表示位置設定部68が利き手判断部66の代わりに第2の処理実行部64に含まれる点で第1実施形態と異なっている。このため、以下では、第2の処理実行部64及び初期表示位置設定部68について主に説明する。なお、他の機能ブロックの機能は第1実施形態と同様であるため、説明を省略する。
 第1実施形態と同様、第2実施形態においても、第2の処理実行部64は、ユーザの一の指示位置が複数のオブジェクトのうちの一のオブジェクトに対応する判定領域内に含まれ、ユーザの他の指示位置が複数のオブジェクトのうちの一のオブジェクトに対応する判定領域内に含まれると過去において判定された場合の、該一のオブジェクト又は該一の指示位置と、該他のオブジェクト又は該他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する。
 ここで、「位置関係情報」は、第1実施形態と同様、一の指示位置が一のオブジェクトに対応する判定領域内に含まれ、他の指示位置が他のオブジェクトに対応する判定領域内に含まれると過去において判定された場合の「該一のオブジェクト又は該一の指示位置」から「該他のオブジェクト又は該他の指示位置」への方向に関する方向情報である。第2実施形態においても、例えば図13に示した履歴データが記憶部50に記憶される。
 一方、「所定処理」は、例えば、画面における複数のオブジェクトの初期表示位置を設定する処理である。すなわち、第2の処理実行部64は初期表示位置設定部68を含む。初期表示位置設定部68は、画面における複数のオブジェクトの初期表示位置を設定する処理を上記の位置関係情報に基づいて実行することによって、画面における複数のオブジェクトの初期表示位置を設定する。第2実施形態においても、第1実施形態と同様に、お気に入り画面が上記の「画面」に相当し、複数の商品画像22が「複数のオブジェクト」に相当しているため、初期表示位置設定部68は、お気に入り画面に表示される複数の商品画像22の初期表示位置を履歴データ(図13)に基づいて設定する。
 商品画像22の初期表示位置を履歴データ(図13)に基づいて設定するためには、履歴データと商品画像22の初期表示位置とを関連づけてなるデータが必要となる。以下では、このデータのことを「初期表示位置データ」と呼ぶ。図23及び図24は初期表示位置データについて説明するための図である。
 本実施形態では、例えば図23に示すような複数の基準方向80A,80B,80C,80Dがお気に入り画面に仮想的に設定される。基準方向80Aはお気に入り画面の左下頂点から右上頂点への方向である。基準方向80Bはお気に入り画面の左上頂点から右下頂点への方向である。基準方向80Cはお気に入り画面の左側から右側への方向(すなわち、X軸正方向)である。基準方向80Dはお気に入り画面の上下方向(すなわち、Y軸正方向又はY軸負方向)である。なお、ここでは4つの基準方向80A~80Dが設定されることとして説明するが、5つ以上の基準方向が設定されるようにしてもよい。
 図24は初期位置データの一例を示している。図24に示す初期位置データでは、基準方向80A~80Dと、商品画像22の初期表示位置と、が対応づけられている。なお、図24に記載されている基準方向A,B,C,Dは、それぞれ、図23に示した基準方向80A,80B,80C,80Dに対応している。また、図24に記載されている領域A,B,C,Dは、それぞれ、図19に示した領域90A,90B,90C,90Dに対応している。さらに、図24に記載されている境界線A,B,C,Dは、それぞれ、図19に示した境界線92A,92B,92C,92Dに対応している。
 まず、初期表示位置設定部68は、ユーザが衝突させる可能性が高い二つの商品画像22の組合せを取得する。すなわち、初期表示位置設定部68は、ユーザが比較対象として選択する可能性が高い二つの商品の組合せを取得する。ユーザが衝突させる可能性が高い二つの商品画像22の組合せを取得する方法は第1実施形態の場合と同様である。
 ユーザが衝突させる可能性が高い二つの商品画像22が取得された場合、初期表示位置設定部68はそれらの二つの商品画像22の初期表示位置を履歴データ(図13)に基づいて設定する。すなわち、初期表示位置設定部68は、それらの二つの商品画像22の一方の初期表示位置から他方の初期表示位置への方向を、履歴データ(図13)に含まれる方向情報に基づいて設定する。具体的には、初期表示位置設定部68は、それらの二つの商品画像22の一方の初期表示位置から他方の初期表示位置への方向が、履歴データ(図13)に含まれる方向情報に基づく方向となるようにして、それらの二つの商品画像22の初期表示位置を設定する。
 例えば、初期表示位置設定部68は、履歴データ(図13)に含まれる複数の方向情報の各々について、該方向情報が基準方向80A~80Dのうちのいずれかに対応しているか否かを判定する。初期表示位置設定部68は、方向情報が示す方向と基準方向とがなす角度が基準角度以下であるか否かを判定することによって、該方向情報が該基準方向に対応しているか否かを判定する。例えば、方向情報が示す方向と基準方向80Aとがなす角度が基準角度以下である場合、初期表示位置設定部68は該方向情報が基準方向80Aに対応していると判定する。なお、方向情報が示す方向と、基準方向80A~80Dの各々と、のなす角度がいずれも基準角度以下でない場合、初期表示位置設定部68は、該方向情報が基準方向80A~80Dのうちのいずれにも対応していないと判定する。
 初期表示位置設定部68は、基準方向80A~80Dの各々について、該基準方向に対応する方向情報の数を取得する。すなわち、初期表示位置設定部68は、履歴データ(図13)に含まれる複数の方向情報のうちで、基準方向80Aに対応する方向情報の数を取得する。また、初期表示位置設定部68は、履歴データ(図13)に含まれる複数の方向情報のうちで、基準方向80Bに対応する方向情報の数を取得する。同様に、初期表示位置設定部68は、履歴データ(図13)に含まれる複数の方向情報のうちで、基準方向80Cに対応する方向情報の数を取得する。さらに、初期表示位置設定部68は、履歴データ(図13)に含まれる複数の方向情報のうちで、基準方向80Dに対応する方向情報の数を取得する。そして、初期表示位置設定部68は、基準方向80A~80Dのうちで、上記の方向情報の数が最も多い基準方向を取得する。
 そして、初期表示位置設定部68は初期表示位置データ(図24)を参照し、上記の方向情報の数が最も多い基準方向に対応づけられた初期表示位置を取得する。例えば、上記の方向情報の数が最も多い基準方向が基準方向80Bであった場合、初期表示位置設定部68は初期表示位置として領域90A,90Dを取得する。この場合、初期表示位置設定部68は、ユーザが衝突させる可能性が高い二つの商品画像22の一方を領域90A内に表示し、他方を領域90D内に表示する。
 ここで、図3に示す商品画像22A~22Dをお気に入り画面に表示する場合を想定する。この場合、商品画像22B,22Cは商品のカテゴリー(靴下)が同じであり、かつ、価格も類似している。このため、商品画像22B,22Cは、ユーザが衝突させる可能性が高い二つの商品画像22と判断される。
 そして、例えば、上記の方向情報の数が最も多い基準方向が基準方向80Bであった場合、例えば図21に示すように、商品画像22B,22Cの一方の初期表示位置が領域90A内に設定され、他方の初期表示位置が領域90D内に設定される。この場合、例えば、領域90A内に初期表示する商品画像22として商品画像22B,22Cのいずれかがランダムに選択される。そして、領域90A内に初期表示する商品画像22として選択されなかった商品画像22が、領域90D内に初期表示する商品画像22として選択される。
 図21に示す例では、領域90A内に初期表示する商品画像22として商品画像22Bが選択されており、領域90D内に初期表示する商品画像22として商品画像22Cが選択されている。なお、この場合、商品画像22Bを領域90A内のどの位置に初期表示するのかはランダムに決定される。同様に、商品画像22Cを領域90D内のどの位置に初期表示するのかもランダムに決定される。また、商品画像22B,22Cの向きもランダムに決定される。
 なお、ユーザが衝突させる可能性が高い商品画像22と判断されなかった商品画像22A,22Dの初期表示位置は領域90A,90D以外の領域90B,90C内に設定される。この場合、商品画像22A,22Dの初期表示位置として、領域90B,90C内の位置がランダムに決定される。また、商品画像22A,22Dの向きもランダムに決定される。
 なお、例えば、上記の方向情報の数が最も多い基準方向が基準方向80Cであった場合、初期表示位置設定部68は初期表示位置として境界線92A,92Dを取得する。この場合、初期表示位置設定部68は、ユーザが衝突させる可能性が高い二つの商品画像22の一方を境界線92A上に表示し、他方を領域92D上に表示する。
 このようにすれば、ユーザの癖を考慮してユーザが商品画像22を衝突させ易くなるように補助することが可能になる。すなわち、ユーザが比較対象とする二つの商品を選択し易くなるように補助することが可能になる。
 以上に説明した第2実施形態に係る情報処理装置10によれば、ユーザの癖を考慮することによってユーザの利便性を向上することを、ユーザの癖を予め入力する手間をユーザにかけさせることなく実現することが可能になる。
 ところで、商品画像22の初期表示位置を設定する場合には、二つの商品画像22がユーザによって選択されたと過去に判定された時点におけるそれら二つの商品画像22の間の距離に関する距離情報(位置関係情報)を考慮するようにしてもよい。なお、この距離情報は、一方の指示位置と他方の指示位置との間の距離に関する情報であってもよい。または、距離情報は、一方のオブジェクトの代表位置と他方のオブジェクトに対応する指示位置(すなわち、他方のオブジェクトに対応する判定領域内に含まれると判定された指示位置)との間の距離に関する情報であってもよいし、一方のオブジェクトに対応する指示位置と他方のオブジェクトの代表位置との間の距離に関する情報であってもよい。
 以下、上記の距離情報を考慮して商品画像22の初期表示位置を設定する例について説明する。以下では二つの例について説明する。
 まず、一つ目の例について説明する。例えば、二つの商品画像22がユーザによって選択されたと過去に判定された時点におけるそれら二つの商品画像22の間の距離が大きい場合には、ユーザが右手の指で一の商品画像22を選択し、左手の指で他の商品画像22を選択している可能性が高い。初期表示位置設定部68は、ユーザが一方の手の二本の指を用いたピンチ操作によって二つの商品画像22を衝突させ易くなるように商品画像22の初期表示位置を設定するための機能ブロックであるため、上記のような場合における上記方向情報を商品画像22の初期表示位置の設定に用いるのは望ましくない。このため、初期表示位置設定部68は、上記のような場合における上記方向情報を商品画像22の初期表示位置の設定に用いないようにしてもよい。
 上記のような場合における上記方向情報を商品画像22の初期表示位置の設定に用いないようにするためには、例えば、上記のような場合における上記方向情報を履歴データ(図13)に含めないようにすればよい。あるいは、図13に示す履歴データの代わりに、図18に示す履歴データが記憶されるようにしてもよい。この場合、商品画像22の初期表示位置を設定する際には、基準距離よりも大きい距離を示す距離情報に対応づけられた方向情報を無視するようにしてもよい。
 二つ目の例について説明する。初期表示位置設定部68は、商品画像22の初期表示位置を設定する場合に上記方向情報と上記距離情報とを用いるようにしてもよい。例えば、ユーザによって衝突される可能性が高い二つの商品画像22の初期表示位置を設定する場合、初期表示位置設定部68は、それら二つの商品画像22の初期表示位置の間の距離を上記距離情報に基づいて設定するようにしてもよい。具体的には、初期表示位置設定部68は、それら二つの商品画像22の初期表示位置の間の距離が上記距離情報に基づく距離になるようにして、それら二つの商品画像22の初期表示位置を設定するようにしてもよい。
 このような初期表示位置設定部68の動作を実現するためには、例えば図18に示したような履歴データが記憶部50に記憶されている必要がある。なお、この場合、方向情報と距離情報とは対応づけて記憶されている必要はなく、方向情報の履歴を示すデータと距離情報の履歴を示すデータとが別体のデータとして記憶されるようにしてもよい。
 そして、初期表示位置設定部68は、履歴データ(図18)に含まれる複数の距離情報が示す距離の統計値(例えば平均値又は中間値等)を算出するようにしてもよい。また、初期表示位置設定部68は、ユーザによって衝突される可能性が高い二つの商品画像22の初期表示位置の間の距離を上記統計値に基づいて設定するようにしてもよい。例えば、初期表示位置設定部68は、ユーザによって衝突される可能性が高い二つの商品画像22の初期表示位置の間の距離が上記統計値となるようにして、それら二つの商品画像22の初期表示位置を設定するようにしてもよい。
 なお、本発明は以上に説明した第1実施形態及び第2実施形態に限定されるものではない。
 [1]例えば、以上では、商品を検索するためのアプリケーションプログラムが情報処理装置10で実行される場合について説明したが、商品以外の情報を検索するためのアプリケーションプログラムが情報処理装置10で実行されるようにしてもよい。
 また、以上では、検索対象となる情報がデータベース6に記憶されている場合について説明したが、検索対象となる情報は情報処理装置10の補助記憶部13に記憶されていてもよい。この場合、情報処理装置10は検索条件を満足する情報の一覧を補助記憶部13から取得することになる。
 [2]また例えば、以上では、複数の商品画像22が画面(お気に入り画面)に表示されるような情報処理装置10に本発明を適用した場合の例について説明した。しかしながら、商品画像22以外のオブジェクトが画面に表示されるような情報処理装置にも本発明は適用することができる。
 [2-1]例えば、ファイル又はフォルダが関連づけられた複数のアイコン(オブジェクト)が画面に表示されるような情報処理装置にも本発明は適用することができる。
 なお、この場合の情報処理装置では、ユーザがアイコン同士を衝突させた場合に、それら二つのアイコンに関連づけられたファイル(フォルダ)を統合するようにしてもよい。または、それら二つのアイコンに関連づけられたファイル(フォルダ)の差分を表示するようにしてもよい。あるいは、一方のアイコンに関連づけられたファイル(フォルダ)を他方のアイコンに関連づけられたファイル(フォルダ)で上書きするようにしてもよい。または、それら二つのアイコンに関連づけられたファイル(フォルダ)を消去するようにしてもよい。また、アイコンに画像データが関連づけられているような場合には、衝突した二つのアイコンに関連づけられた画像データを合成した画像データを表示するようにしてもよい。
 [2ー2]また例えば、複数のゲームキャラクタ(オブジェクト)がゲーム画面に表示されるような情報処理装置(ゲーム装置)にも本発明を適用することができる。
 なお、この場合の情報処理装置(ゲーム装置)では、ゲーム画面においてユーザがゲームキャラクタ同士を衝突させた場合、それらのゲームキャラクタのパラメータ情報(属性情報)を比較するための比較画面が表示されるようにしてもよい。または、それらのゲームキャラクタが会話するようにしてもよい。あるいは、それらのゲームキャラクタが戦うようにしてもよい。なお、ユーザがゲームキャラクタ同士を衝突させた場合にそれらのゲームキャラクタ同士が戦うようにする場合、それらのゲームキャラクタのパラメータ情報(属性情報)を比較することによって勝敗を決定するようにしてもよい。そして、勝者であるゲームキャラクタをゲーム画面に残し、敗者であるゲームキャラクタをゲーム画面から消去するようにしてもよい。なお、敗者であるゲームキャラクタをゲーム画面の端まで移動させるようにしてもよい。
 [2-3]また例えば、素材(材料)が関連づけられたアイコン(オブジェクト)が画面(レシピ検索画面)に複数表示されるような情報処理装置にも本発明は適用することができる。
 なお、このレシピ検索画面においてユーザがアイコン同士を衝突させた場合、それらのアイコンに関連づけられた素材を使って作ることができる料理が検索されるようにすればよい。そして、その料理のレシピが表示されるようにすればよい。
 [3]また例えば、以上では、ユーザが二本の指で二つのオブジェクトを指し示している状態においてそれら二つのオブジェクトが移動可能になることとして説明した。すなわち、一方の指の移動に応じて一方のオブジェクトが移動し、他方の指の移動に応じて他方のオブジェクトが移動することとして説明した。
 しかしながら、ユーザが二本の指で二つのオブジェクトを指し示している状態で一方のオブジェクトのみが移動可能になるようにしてもよい。この場合、例えば、ユーザが先に指し示したオブジェクトのみが移動可能になるようにしてもよいし。ユーザが後で指し示したオブジェクトのみが移動可能になるようにしてもよい。
 ここで、例えば図4,10,11に示す例の場合を想定する。また、ユーザが先に指し示した商品画像22のみが移動可能になる場合を想定する。この場合、ユーザが商品画像22Cを商品画像22Bよりも先に指し示したのであれば、ユーザは、商品画像22Cのみを移動させることができる。この場合、ユーザは、商品画像22Cを指し示している指を、商品画像22Bを指し示している指に向けて移動させることによって、商品画像22Cを商品画像22Bに衝突させることになる。
 [4]また例えば、表示部15に表示される画面は3次元コンピュータグラフィックス技術を用いて生成されたものであってもよい。例えば、複数のオブジェクトが配置された3次元空間を仮想カメラから見た様子を示す画面が表示部15に表示されるようにしてもよい。
 [5]また例えば、表示部15に表示される画面内の位置をユーザが指示するために用いられる指示部(操作部14)は、表示部15の上に重ねて設けられていなくてもよい。指示部(操作部14)は表示部15とは離れた位置に設けられていてもよい。

Claims (15)

  1.  複数のオブジェクトを含む画面を表示手段に表示させる表示制御手段と、
     ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段の検出結果を取得する検出結果取得手段と、
     前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記ユーザの指示位置が含まれるか否かを判定する判定手段と、
     前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記指示位置が含まれると判定された場合に、該指示位置の移動に応じて該オブジェクトを移動させるオブジェクト移動手段と、
     前記ユーザの一の指示位置が前記複数のオブジェクトのうちの一のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定され、前記ユーザの他の指示位置が前記複数のオブジェクトのうちの他のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定された場合において、前記オブジェクト移動手段により前記一のオブジェクト及び前記他のオブジェクトの少なくとも一方が移動した場合に、前記一のオブジェクトと前記他のオブジェクトとが衝突したか否かを判定する衝突判定手段と、
     前記衝突判定手段の判定結果に基づいて、前記一のオブジェクト及び前記他のオブジェクトに関する処理を実行する第1の処理実行手段と、
     前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する第2の処理実行手段と、
     を含むことを特徴とする情報処理装置。
  2.  請求項1に記載の情報処理装置において、
     前記位置関係は、前記一のオブジェクトと前記他のオブジェクトとが衝突したと過去において判定された際の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の位置関係であることを特徴とする情報処理装置。
  3.  請求項1又は2に記載の情報処理装置において、
     前記第2の処理実行手段は、前記ユーザの利き手を判断するための利き手判断処理を前記位置関係情報に基づいて実行することによって前記ユーザの利き手を判断する利き手判断手段を含むことを特徴とする情報処理装置。
  4.  請求項3に記載の情報処理装置において、
     前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置から、前記他のオブジェクト又は前記他の指示位置への方向に関する方向情報を含み、
     前記利き手判断手段は、前記ユーザの利き手を前記方向情報に基づいて判断する、
     ことを特徴とする情報処理装置。
  5.  請求項3又は4に記載の情報処理装置において、
     前記複数のオブジェクトの各々には属性情報が関連付けられ、
     前記表示制御手段は、
     前記複数のオブジェクトのうちの二つのオブジェクトの属性情報を比較する比較手段と、
     前記比較手段による比較結果が所定の結果である二つのオブジェクトの初期表示位置を、前記利き手判断手段の判断結果に基づいて設定する手段と、を含む、
     ことを特徴とする情報処理装置。
  6.  請求項3乃至5のいずれかに記載の情報処理装置において、
     前記衝突判定手段によって衝突したと過去において判定された二つのオブジェクトの組合せに関する情報を記憶手段に記憶させる手段を含み、
     前記表示制御手段は、前記記憶手段の記憶内容の少なくとも一部に基づいて前記複数のオブジェクトのうちから選出される二つのオブジェクトの初期表示位置を、前記利き手判断手段の判断結果に基づいて設定する手段を含む、
     ことを特徴とする情報処理装置。
  7.  請求項3乃至6のいずれかに記載の情報処理装置において、
     検索条件を満足する情報の一覧を取得する手段と、
     前記情報の一覧を示す検索結果画面を前記表示手段に表示させる手段と、を含み、
     前記検索条件は、前記利き手判断手段の判断結果に基づいて設定される、
     ことを特徴とする情報処理装置。
  8.  請求項1又は2に記載の情報処理装置において、
     前記第2の処理実行手段は、前記複数のオブジェクトの初期表示位置を設定するための処理を前記位置関係情報に基づいて実行することによって前記複数のオブジェクトの初期表示位置を設定する初期表示位置設定手段を含むことを特徴とする情報処理装置。
  9.  請求項8に記載の情報処理装置において、
     前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置から、前記他のオブジェクト又は前記他の指示位置への方向に関する方向情報を含み、
     前記複数のオブジェクトの各々には属性情報が関連付けられ、
     前記初期表示位置設定手段は、
     前記複数のオブジェクトのうちの二つのオブジェクトの属性情報を比較する比較手段と、
     前記比較手段による比較結果が所定の結果である二つのオブジェクトのうちの一方の初期表示位置から他方の初期表示位置への方向を前記方向情報に基づいて設定する手段と、を含む、
     ことを特徴とする情報処理装置。
  10.  請求項8又は9に記載の情報処理装置において、
     前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他の一のオブジェクト又は前記他の指示位置と、の間の距離に関する距離情報を含み、
     前記複数のオブジェクトの各々には属性情報が関連付けられ、
     前記初期表示位置設定手段は、
     前記複数のオブジェクトのうちの二つのオブジェクトの属性情報を比較する比較手段と、
     前記比較手段による比較結果が所定の結果である二つのオブジェクトの初期表示位置の間の距離を前記距離情報に基づいて設定する手段と、を含む、
     ことを特徴とする情報処理装置。
  11.  請求項8に記載の情報処理装置において、
     前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置から、前記他のオブジェクト又は前記他の指示位置への方向に関する方向情報を含み、
     前記情報処理装置は、前記衝突判定手段によって衝突したと過去において判定された二つのオブジェクトの組合せに関する情報を記憶手段に記憶させる手段を含み、
     前記初期表示位置設定手段は、前記記憶手段の記憶内容の少なくとも一部に基づいて前記複数のオブジェクトのうちから選出される二つのオブジェクトのうちの一方の初期表示位置から他方の初期表示位置への方向を前記方向情報に基づいて設定する手段を含む、
     ことを特徴とする情報処理装置。
  12.  請求項8又は11に記載の情報処理装置において、
     前記位置関係情報は、前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他の一のオブジェクト又は前記他の指示位置と、の間の距離に関する距離情報を含み、
     前記情報処理装置は、前記衝突判定手段によって衝突したと過去において判定された二つのオブジェクトの組合せに関する情報を記憶手段に記憶させる手段を含み、
     前記初期表示位置設定手段は、前記記憶手段の記憶内容の少なくとも一部に基づいて前記複数のオブジェクトのうちから選出される二つのオブジェクトの初期表示位置の間の距離を前記距離情報に基づいて設定する手段を含む、
     ことを特徴とする情報処理装置。
  13.  複数のオブジェクトを含む画面を表示手段に表示させる表示制御ステップと、
     ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段の検出結果を取得する検出結果取得ステップと、
     前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記ユーザの指示位置が含まれるか否かを判定する判定ステップと、
     前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記指示位置が含まれると判定された場合に、該指示位置の移動に応じて該オブジェクトを移動させるオブジェクト移動ステップと、
     前記ユーザの一の指示位置が前記複数のオブジェクトのうちの一のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定され、前記ユーザの他の指示位置が前記複数のオブジェクトのうちの他のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定された場合において、前記オブジェクト移動ステップにより前記一のオブジェクト及び前記他のオブジェクトの少なくとも一方が移動した場合に、前記一のオブジェクトと前記他のオブジェクトとが衝突したか否かを判定する衝突判定ステップと、
     前記衝突判定ステップにおける判定結果に基づいて、前記一のオブジェクト及び前記他のオブジェクトに関する処理を実行する第1の処理実行ステップと、
     前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する第2の処理実行ステップと、
     を含むことを特徴とする情報処理装置の制御方法。
  14.  複数のオブジェクトを含む画面を表示手段に表示させる表示制御手段、
     ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段の検出結果を取得する検出結果取得手段、
     前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記ユーザの指示位置が含まれるか否かを判定する判定手段、
     前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記指示位置が含まれると判定された場合に、該指示位置の移動に応じて該オブジェクトを移動させるオブジェクト移動手段、
     前記ユーザの一の指示位置が前記複数のオブジェクトのうちの一のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定され、前記ユーザの他の指示位置が前記複数のオブジェクトのうちの他のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定された場合において、前記オブジェクト移動手段により前記一のオブジェクト及び前記他のオブジェクトの少なくとも一方が移動した場合に、前記一のオブジェクトと前記他のオブジェクトとが衝突したか否かを判定する衝突判定手段、
     前記衝突判定手段の判定結果に基づいて、前記一のオブジェクト及び前記他のオブジェクトに関する処理を実行する第1の処理実行手段、及び、
     前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する第2の処理実行手段、
     としてコンピュータを機能させるためのプログラム。
  15.  複数のオブジェクトを含む画面を表示手段に表示させる表示制御手段、
     ユーザによって指示された前記画面内の複数の位置を検出可能な検出手段の検出結果を取得する検出結果取得手段、
     前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記ユーザの指示位置が含まれるか否かを判定する判定手段、
     前記複数のオブジェクトのうちのいずれかのオブジェクトの位置に基づいて設定される判定領域内に前記指示位置が含まれると判定された場合に、該指示位置の移動に応じて該オブジェクトを移動させるオブジェクト移動手段、
     前記ユーザの一の指示位置が前記複数のオブジェクトのうちの一のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定され、前記ユーザの他の指示位置が前記複数のオブジェクトのうちの他のオブジェクトの位置に基づいて設定される判定領域内に含まれると判定された場合において、前記オブジェクト移動手段により前記一のオブジェクト及び前記他のオブジェクトの少なくとも一方が移動した場合に、前記一のオブジェクトと前記他のオブジェクトとが衝突したか否かを判定する衝突判定手段、
     前記衝突判定手段の判定結果に基づいて、前記一のオブジェクト及び前記他のオブジェクトに関する処理を実行する第1の処理実行手段、及び、
     前記一の指示位置が前記一のオブジェクトの位置に基づいて設定される判定領域内に含まれ、前記他の指示位置が前記他のオブジェクトの位置に基づいて設定される判定領域内に含まれると過去において判定された場合の、前記一のオブジェクト又は前記一の指示位置と、前記他のオブジェクト又は前記他の指示位置と、の間の位置関係に関する位置関係情報に基づいて、所定の処理を実行する第2の処理実行手段、
     としてコンピュータを機能させるためのプログラムを記録したコンピュータ読み取り可能な情報記憶媒体。
PCT/JP2012/066807 2011-08-31 2012-06-29 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体 WO2013031373A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201280002497.XA CN103098013B (zh) 2011-08-31 2012-06-29 信息处理装置、信息处理装置的控制方法
US13/819,937 US8952994B2 (en) 2011-08-31 2012-06-29 Information processing device, control method for information processing device, program, and information storage medium
EP12824893.7A EP2600234B1 (en) 2011-08-31 2012-06-29 Information processing device, method for controlling information processing device, program, and information storage medium
ES12824893.7T ES2545660T3 (es) 2011-08-31 2012-06-29 Dispositivo de procesamiento de información, método para controlar un dispositivo de procesamiento de información, programa y soporte de almacenamiento de información

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-190121 2011-08-31
JP2011190121A JP4929414B1 (ja) 2011-08-31 2011-08-31 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体

Publications (1)

Publication Number Publication Date
WO2013031373A1 true WO2013031373A1 (ja) 2013-03-07

Family

ID=46261532

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/066807 WO2013031373A1 (ja) 2011-08-31 2012-06-29 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体

Country Status (7)

Country Link
US (1) US8952994B2 (ja)
EP (1) EP2600234B1 (ja)
JP (1) JP4929414B1 (ja)
CN (1) CN103098013B (ja)
ES (1) ES2545660T3 (ja)
TW (1) TWI416376B (ja)
WO (1) WO2013031373A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015005148A1 (ja) * 2013-07-12 2015-01-15 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014186366A (ja) * 2013-03-21 2014-10-02 Toshiba Corp 商品比較装置、方法、及びプログラム
JP7019967B2 (ja) 2017-05-29 2022-02-16 富士通株式会社 表示制御プログラム、表示制御方法及び表示制御装置
US10643362B2 (en) * 2018-03-26 2020-05-05 Lenovo (Singapore) Pte Ltd Message location based on limb location
JP7322406B2 (ja) * 2019-01-11 2023-08-08 富士フイルムビジネスイノベーション株式会社 情報処理装置及び情報処理プログラム
CN109871176A (zh) * 2019-01-31 2019-06-11 维沃移动通信有限公司 一种对象显示方法及终端设备
US11270367B2 (en) * 2019-04-19 2022-03-08 Apple Inc. Product comparison techniques using augmented reality

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0566888A (ja) 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd タツチパネル装置
JPH05189484A (ja) * 1991-07-12 1993-07-30 Toshiba Corp 情報検索装置
JPH09128208A (ja) * 1995-09-14 1997-05-16 Internatl Business Mach Corp <Ibm> グラフィカル・ユーザ・インタフェースに表示される限定機能へのビジュアル・アクセス
JP2009123208A (ja) * 2007-11-12 2009-06-04 Research In Motion Ltd タッチスクリーンデバイス用のユーザインタフェース
JP2011028534A (ja) * 2009-07-27 2011-02-10 Sony Corp 表示処理装置、表示処理方法および表示処理プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2003031005A2 (en) * 2001-10-09 2003-04-17 Massachusetts Institute Of Technology Methods and apparatus for detecting and correcting penetration between objects
TWI256006B (en) * 2004-12-27 2006-06-01 Ind Tech Res Inst Shopping assistant method and system
US9063647B2 (en) * 2006-05-12 2015-06-23 Microsoft Technology Licensing, Llc Multi-touch uses, gestures, and implementation
EP2282254A1 (en) * 2008-05-12 2011-02-09 Sharp Kabushiki Kaisha Display device and control method
TWM364233U (en) * 2008-06-25 2009-09-01 Kuo Min Yun System for promoting commodity
JP4632102B2 (ja) * 2008-07-17 2011-02-16 ソニー株式会社 情報処理装置、情報処理方法及び情報処理プログラム
JP4979659B2 (ja) * 2008-09-02 2012-07-18 任天堂株式会社 ゲームプログラム、ゲーム装置、ゲームシステムおよびゲーム処理方法
KR101586627B1 (ko) * 2008-10-06 2016-01-19 삼성전자주식회사 멀티 터치를 이용한 리스트 관리 방법 및 장치
KR20110014040A (ko) * 2009-08-04 2011-02-10 엘지전자 주식회사 이동 단말기 및 그의 아이콘 충돌 제어방법
WO2011102406A1 (ja) * 2010-02-18 2011-08-25 ローム株式会社 タッチパネル入力装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05189484A (ja) * 1991-07-12 1993-07-30 Toshiba Corp 情報検索装置
JPH0566888A (ja) 1991-09-09 1993-03-19 Matsushita Electric Ind Co Ltd タツチパネル装置
JPH09128208A (ja) * 1995-09-14 1997-05-16 Internatl Business Mach Corp <Ibm> グラフィカル・ユーザ・インタフェースに表示される限定機能へのビジュアル・アクセス
JP2009123208A (ja) * 2007-11-12 2009-06-04 Research In Motion Ltd タッチスクリーンデバイス用のユーザインタフェース
JP2011028534A (ja) * 2009-07-27 2011-02-10 Sony Corp 表示処理装置、表示処理方法および表示処理プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2600234A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015005148A1 (ja) * 2013-07-12 2015-01-15 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
US10705702B2 (en) 2013-07-12 2020-07-07 Sony Corporation Information processing device, information processing method, and computer program

Also Published As

Publication number Publication date
EP2600234A1 (en) 2013-06-05
CN103098013A (zh) 2013-05-08
TW201303646A (zh) 2013-01-16
ES2545660T3 (es) 2015-09-14
EP2600234B1 (en) 2015-06-03
EP2600234A4 (en) 2013-07-10
JP2013054405A (ja) 2013-03-21
US20130241957A1 (en) 2013-09-19
US8952994B2 (en) 2015-02-10
CN103098013B (zh) 2016-08-31
TWI416376B (zh) 2013-11-21
JP4929414B1 (ja) 2012-05-09

Similar Documents

Publication Publication Date Title
JP4929414B1 (ja) 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体
Roth et al. Bezel swipe: conflict-free scrolling and multiple selection on mobile touch screen devices
JP6665180B2 (ja) ページ情報を操作する方法、装置、及び電子デバイス
EP2252926B1 (en) Interpreting ambiguous inputs on a touch-screen
JP4943553B1 (ja) 情報処理装置、情報処理装置の制御方法、プログラム、及び情報記憶媒体
US20160378251A1 (en) Selective pointer offset for touch-sensitive display device
KR20190035938A (ko) 핸드헬드형 기기 상의 사용자 조작 모드를 식별하는 방법 및 핸드헬드형 기기
US20100039449A1 (en) Menu controlling method
US20130290884A1 (en) Computer-readable non-transitory storage medium having stored therein information processing program, information processing apparatus, information processing system, and information processing control method
KR102186548B1 (ko) 스크롤 실행의 화면 표시 방법, 장치 및 기록매체
US20120179963A1 (en) Multi-touch electronic device, graphic display interface thereof and object selection method of multi-touch display
JP5461030B2 (ja) 入力装置
KR101635978B1 (ko) 대형화면을 갖는 휴대단말기에서 쇼핑용 어플리케이션의 제어방법
CN103885673B (zh) 对象选择设备和对象选择方法
JP6213120B2 (ja) ファイル表示装置及びプログラム
KR101750253B1 (ko) 대형화면을 갖는 휴대단말기에서 쇼핑용 어플리케이션의 제어방법
CN117654045A (zh) 虚拟物品的操作控制方法、装置和电子设备
CN104580743B (zh) 一种模拟按键输入检测方法和装置
CN112767090A (zh) 一种物品展示方法、装置和电子设备

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201280002497.X

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 13819937

Country of ref document: US

Ref document number: 2012824893

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12824893

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE