WO2014080678A1 - 情報処理装置、システム、情報処理方法およびプログラム - Google Patents

情報処理装置、システム、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2014080678A1
WO2014080678A1 PCT/JP2013/074152 JP2013074152W WO2014080678A1 WO 2014080678 A1 WO2014080678 A1 WO 2014080678A1 JP 2013074152 W JP2013074152 W JP 2013074152W WO 2014080678 A1 WO2014080678 A1 WO 2014080678A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
attribute
unit
information
attribute score
Prior art date
Application number
PCT/JP2013/074152
Other languages
English (en)
French (fr)
Inventor
めぐみ 菊池
利彦 河合
淳 栗林
丹下 明
重文 田村
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP13856838.1A priority Critical patent/EP2924659A4/en
Priority to US14/428,069 priority patent/US10037342B2/en
Priority to JP2014548484A priority patent/JP6102939B2/ja
Priority to CN201380054406.1A priority patent/CN104737209A/zh
Publication of WO2014080678A1 publication Critical patent/WO2014080678A1/ja
Priority to US16/033,559 priority patent/US11080310B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/29Geographical information databases
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • A63F13/35Details of game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • A63F13/58Controlling game characters or game objects based on the game progress by computing conditions of game characters, e.g. stamina, strength, motivation or energy level
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/61Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor using advertising information
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2457Query processing with adaptation to user needs
    • G06F16/24578Query processing with adaptation to user needs using ranking
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/556Player lists, e.g. online players, buddy list, black list
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/60Methods for processing data by generating or executing the game program
    • A63F2300/61Score computation

Definitions

  • the present disclosure relates to an information processing apparatus, a system, an information processing method, and a program.
  • an avatar indicating a user is often displayed together with a text indicating a remark.
  • the avatar facilitates communication between users in the virtual space, for example, by giving a visual image to the presence of the user in the virtual space and approaching the presence in the real space.
  • Patent Literature 1 describes a technique for changing an avatar's facial expression and movement so that emotions corresponding to changes in the user's biological information and facial expressions are expressed.
  • Japanese Patent Application Laid-Open No. 2004-228561 describes a technique for expressing the familiarity with other users and the activity state of other users by the display position of an object that displays each user.
  • the avatar itself is arbitrarily set by the user, although the expression and movement of the avatar change according to the user's state. Therefore, a situation in which the avatar deviates from becoming an actual person of the user can occur. For example, when a middle-aged man who is a user sets a girl as his avatar, the user's state can be expressed by a change in facial expression, etc., but the avatar itself is still separated from the user's actual person. ing.
  • the present disclosure proposes a new and improved information processing apparatus, system, information processing method, and program that make it possible to represent a user by an object reflecting the person of the user.
  • an action history acquisition unit that acquires user action history information accumulated in a predetermined period, and one or more attributes of the attribute group, the user attribute score based on the action history information
  • a server that includes an attribute score calculation unit that calculates an object, and an object generation unit that generates an object representing the user based on the attribute score.
  • a sensing unit that senses a user's behavior, the result of the sensing is transmitted to a server, and the user's behavior history information generated based on information including the sensing result is stored in a predetermined manner.
  • a communication unit that receives, from the server, information on an object representing the user generated based on an attribute score calculated for one or more attributes of the attribute group based on what has been accumulated for a period;
  • a client including a display control unit to be displayed on a display unit is provided.
  • the client includes a client and a server, and the client transmits a sensing unit that senses a user's behavior and the sensing result to the server, and receives information on the object representing the user from the server.
  • a communication unit that receives the display unit, and a display control unit that displays the object on the display unit, and the server generates the user's information generated based on information accumulated in a predetermined period and including the sensing result.
  • the attribute score calculation unit that calculates the attribute score of the user based on the behavior history information for one or more attributes in the attribute group, and the attribute score
  • a system having an object generation unit for generating the object is provided.
  • the user's action history information accumulated for a predetermined period is acquired, and the attribute score of the user based on the action history information is obtained for one or more attributes of the attribute group.
  • An information processing method including calculating and generating an object representing the user based on the attribute score is provided.
  • the user's attribute score based on the behavior history information is obtained for the function of acquiring the user's behavior history information accumulated in a predetermined period and one or more attributes of the attribute group.
  • a program for causing a computer to realize a function to calculate and a function to generate an object representing the user based on the attribute score is provided.
  • the user's behavior history information accumulated in a predetermined period reflects the user's life in that period.
  • an index representing the user's person can be obtained. If an object is generated based on the attribute score which is the index, the user is reflected in the generated object.
  • a user can be represented by an object reflecting the person of the user.
  • FIG. 2 is a block diagram illustrating a schematic functional configuration of a system according to a first embodiment of the present disclosure.
  • FIG. It is a figure which shows the example of the display of the object implement
  • FIG. 1 is a block diagram illustrating a schematic functional configuration of a system according to the first embodiment of the present disclosure.
  • the system 10 includes a client 100 and a server 150.
  • the client 100 and the server 150 are connected to each other through various wired or wireless networks, and communicate as necessary.
  • the configurations of the client 100 and the server 150 will be further described.
  • the client 100 includes a sensing unit 102, an input unit 104, a display control unit 106, a display unit 108, and a communication unit 110.
  • the client 100 is realized by various information processing devices used by a user, for example, a mobile phone (smart phone), various PCs (Personal Computer), a media player, a game machine, and the like.
  • the information processing apparatus is realized by, for example, a hardware configuration described later.
  • the client 100 may be realized by a single device or may be realized by a plurality of devices.
  • the sensing unit 102 is preferably realized by a device carried by the user such as a mobile phone (smart phone) in order to sense the user's behavior.
  • the input unit 104, the display control unit 106, and the display unit 108 do not necessarily have to be carried by the user, they may be realized by the same device as the sensing unit 102. It may be realized by a different apparatus, for example, a stationary apparatus such as a desktop PC.
  • a stationary apparatus such as a desktop PC.
  • the sensing unit 102 senses the behavior of the user who uses the client 100.
  • the sensing unit 102 is realized by, for example, various sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, a sound sensor, and / or a GPS (Global Positioning System) receiver. Sensing.
  • the sensing unit 102 transmits the sensing result to the server 150 via the communication unit 110.
  • the input unit 104 accepts user input related to filtering conditions at the time of object generation in the server 150.
  • the server 150 may have a function of selecting an action history range to be acquired, an attribute score to be emphasized, and the like when generating an object representing the user.
  • the user can reflect a certain degree of desire in the generation of the object by inputting information regarding selection via the input unit 104.
  • the input unit 104 is realized by an input device such as a touch panel, a keyboard, and a mouse, and transmits the received input to the server 150 via the communication unit 110.
  • the display control unit 106 receives the object information generated by the server 150 via the communication unit 110 and causes the display unit 108 to display the object.
  • the object is an object that represents the user, such as an avatar.
  • the object displayed using the received information may be an object generated for a user whose behavior is sensed by the sensing unit 102 or an object generated for another user. Both of them may be used.
  • the display control unit 106 may display the object alone or may display the object in a screen of another application.
  • the display control unit 106 also displays an image of a user corresponding to the object (for example, a captured image provided by an AR (Augmented Reality) application) or an image of a real space that is seen through the see-through display unit 108. ) May be displayed in a superimposed manner.
  • the display control unit 106 is realized by, for example, a CPU (Central Processing unit) operating according to a program stored in a memory.
  • the display unit 108 displays various information for the user according to the control of the display control unit 106. As described for the display control unit 106, the information displayed on the display unit 108 includes the object representing the user.
  • the display unit 108 is realized by various displays, for example.
  • the display may be, for example, a flat type or a head mount type.
  • the display may be, for example, a non-transmissive type or a transmissive type.
  • the communication unit 110 transmits and receives various types of information exchanged between the client 100 and the server 150.
  • the communication unit 110 is realized by various communication interfaces connected to a network, for example.
  • the server 150 includes an action recognition unit 152, an action history DB 154, an action history acquisition unit 156, an attribute score calculation unit 158, an attribute DB 160, an object generation unit 162, an object DB 164, a user DB 166, and a communication unit 168. Server 150 may further include one or both of period selection unit 170 and attribute selection unit 172.
  • the server 150 is realized by the cooperation of a single information processing apparatus or a plurality of information processing apparatuses connected to each other by various wired or wireless networks.
  • the information processing apparatus is realized by, for example, a hardware configuration described later. Hereinafter, each functional configuration will be described.
  • each part except DB and a communication part is implement
  • the DB is realized by a storage device, for example.
  • the behavior recognition unit 152 recognizes the behavior of the user of the client 100 based on the sensing result received from the sensing unit 102 of the client 100 via the communication unit 168, and stores the recognition result in the behavior history DB 154.
  • the behavior recognition unit 152 may further acquire other information from another server and recognize the user's behavior based on the information.
  • the other information may be, for example, a purchase log at a store, a history of operating a terminal installed at a specific location, or the like.
  • the behavior recognition unit 152 may further use registration information such as the user's address and work location for behavior recognition. Note that details of the behavior recognition technology are introduced in many documents such as Japanese Patent Application Laid-Open No. 2012-8771, and the behavior recognition unit 152 recognizes user behavior using these technologies as appropriate.
  • the result of recognition by the action recognition unit 152 is accumulated in the action history DB 154 as a user action history.
  • the information accumulated in the behavior history DB 154 may be, for example, a user's position history, purchase history, operation history, or the like, or a behavior pattern history or behavior type history reflecting the recognition result by the behavior recognition unit 152. May be. As non-limiting examples of such information, the following can be accumulated, for example. Whether the terminal device is charging or operating. Whether the user is stationary, sitting, walking, running or jumping. Whether the user is moving and its location. Whether the user is on a train, car, or elevator. Whether the user is at work or shopping. User behavior estimated from the tone of the text log entered by the user. By referring to the information stored in the action history DB 154 as described above, it is possible to specify what action the user has performed at a certain point in the past.
  • the behavior history acquisition unit 156 acquires the behavior history information of the user accumulated for a predetermined period from the behavior history DB 154.
  • the action history acquisition unit 156 may designate the most recent specific period (for example, the past year) as the predetermined period, or all periods in which action history information exists (that is, the user acquires the action history). May be specified from the start of using the service to the present.
  • the period selection unit 170 is additionally provided, if the period selection unit 170 selects a period, the action history acquisition unit 156 acquires the action history information for the selected period. If there is no selection, the action history acquisition unit 156 acquires action history information as in the case where the period selection unit 170 is not provided.
  • the attribute score calculation unit 158 calculates an attribute score for one or more attributes in the attribute group based on the user's behavior history information acquired by the behavior history acquisition unit 156.
  • the attribute is an attribute indicating the person of the user, and may be related to work, shopping, meals, and the like, for example. Attributes are registered in the attribute DB 160 in advance as attribute groups.
  • the attribute score calculation unit 158 may calculate attribute scores for all attributes in the attribute group, or may calculate attribute scores for some of them. When calculating an attribute score for a plurality of attributes, the attribute score calculation unit 158 may normalize each score, and compare the magnitudes of the scores between different attributes. In addition, the attribute score calculation unit 158 may store the attribute score once calculated in the attribute DB 160 in association with the user, and update it periodically.
  • the attribute score calculation unit 158 may calculate the attribute score by limiting to the attribute selected by the attribute selection unit 172 or weighting the selected attribute.
  • the attribute score calculation unit 158 calculates the attribute score for one or more attributes in the attribute group and stores them in the attribute DB 160 regardless of the selection of the attribute selection unit 172.
  • recalculation such as weighting may be executed. Since attributes and attribute scores are related to the generation of objects described later, specific examples thereof will be described together with examples of objects.
  • the attribute DB 160 stores information related to the attribute score calculated by the attribute score calculation unit 158.
  • the attribute DB 160 stores information defining an attribute group that is a target of attribute score calculation.
  • the attribute score calculated by the attribute score calculation unit 158 may be stored in the attribute DB 160 in association with the user, and may be periodically updated by the attribute score calculation unit 158.
  • the definition information of each attribute included in the attribute group includes, for example, information defining the relationship between the action history and the attribute score. For example, in the case of the attribute “work”, a rule such as “add attribute score according to the time the user stayed at work” may be defined.
  • the attribute definition information stored in the attribute DB 160 and the object information stored in the object DB 164 correspond to each other. For example, if the attribute “work” is defined in the attribute DB 160, the object DB 164 defines an object to be selected according to the attribute score of “work”.
  • the object generation unit 162 generates an object representing the user based on the attribute score provided from the attribute score calculation unit 158.
  • the object is, for example, an image displayed as representing the user toward the user who has been provided with behavior history information and / or another user. For example, if the object is an image of some specific object (for example, a person, an animal, a robot, etc.), it can be said that the object is a user's avatar (incarnation).
  • the object may be an abstract image such as a figure. Again, the object represents the user by its shape, size, color, etc. A specific example of the object will be described later.
  • the object generation unit 162 transmits the generated object to the client 100 via the communication unit, and provides the display to the display unit 108 by the display control unit 106. Further, the object generation unit 162 may store the generated object in the user DB 166 in association with the user, and read it when there is a request for providing the object again thereafter.
  • the object generation unit 162 refers to information registered in the object DB 164 in advance, and generates an object based on the attribute score. More specifically, the object generation unit 162 searches for information registered in the object DB 164 using the attribute score, and extracts information on an object suitable for representing the user. For example, when the attribute score is calculated for a plurality of attributes by the attribute score calculation unit 158, the object generation unit 162 may extract information on the object set for the attribute having the highest attribute score. Or the object production
  • the object generation unit 162 may generate an object with reference to user registration information stored in the user DB 166.
  • the object generation unit 162 may select an appropriate object from a plurality of objects prepared for the same attribute score according to the gender, age, occupation, etc. of the user. For example, different objects may be generated for objects having the same “work” attribute depending on whether the user is male or female, young or senior, office worker or factory worker, and the like. In this way, by generating an object with reference to user information, it is possible to more appropriately represent the person of the user by the object.
  • the object is an abstract image or an image of a concrete object that does not have attributes such as gender or age
  • the object generation unit 162 does not necessarily refer to the user DB 166. Good.
  • the gender and age that appear in the object may be freely set by the user.
  • the object DB 164 stores object information used for object generation by the object generation unit 162.
  • the object is set corresponding to the attribute defined in the attribute DB 160.
  • the object DB 164 stores information on at least one object corresponding to the attribute “work”.
  • a plurality of objects may be set according to the attribute score. For example, for an attribute “work”, an object score is set such that the attribute score is low, medium, or high, and expresses how hard the user is working. It may be possible.
  • the object DB 164 may store data for each object that enables the object to be displayed in various postures and sizes. In this case, the object generation unit 162 or the display control unit 106 of the client 100 determines the posture and size of the displayed object.
  • the user DB 166 stores information about users.
  • the information about the user can include registration information such as a user ID, sex, age, address, occupation, and work place.
  • the user registration information stored in the user DB 166 may be used for object generation in the object generation unit 162.
  • the registration information can be referred to not only from the object generation unit 162 but also from various parts of the server 150 such as the behavior recognition unit 152.
  • the user DB 166 stores the object information generated by the object generation unit 162 in association with the user, and may be read when there is an object display request.
  • the communication unit 168 transmits and receives various types of information exchanged between the server 150 and the client 100.
  • the communication unit 168 is realized by various communication interfaces connected to a network, for example.
  • the period selection unit 170 is additionally provided.
  • the period selection unit 170 selects a period to be emphasized in the object generation by the object generation unit 162 based on the information received via the communication unit 168 from the input unit 104 that has acquired the user operation by the client 100.
  • the period may be selected according to a periodic period such as “summer”, “weekday”, “weekend”, “daytime”, “off time”, “time at home”, for example, “10 years ago” May be selected according to a non-periodic period such as “up to”, “last 1 year”, “after 10 years”, etc.
  • the action history acquisition unit 156 may acquire the action history information limited to the selected period.
  • the attribute score calculation unit 158 may calculate the attribute score by assigning a greater weight to the action history information of the selected period than the action history information of the other period.
  • the behavior history acquisition unit 156 acquires past behavior history information of a relatively close user, and the attribute score calculation unit 158 continues the same behavior as that behavior history.
  • the estimated value of the attribute score of the user in the selected future period is calculated.
  • an object generated by selecting a future period for a user who does not exercise much at present may be an obese person object.
  • the period selection unit 170 can be said to be one of condition setting units for setting object generation conditions in that a condition for a period during which action history information that is the basis of an attribute score is acquired is set.
  • Attribute selection unit 172 is additionally provided.
  • the attribute selection unit 172 selects an attribute score to be emphasized in the object generation in the object generation unit 162 based on the information received via the communication unit 168 from the input unit 104 that has acquired the user operation in the client 100. .
  • the attribute score calculation unit 158 calculates an attribute score limited to the selected attribute. (Other attribute scores are 0), the attribute score of the selected attribute may be given a higher weight than other attribute scores.
  • the attribute score is already calculated by the attribute score calculation unit 158 and stored in the attribute DB 160, recalculation of the weight for the attribute score of the selected attribute among the attribute scores read out when the object is generated May be executed.
  • the number of selectable attribute scores may be set in advance.
  • the attribute may be selected according to a preset pattern. For example, when an attribute is selected in a pattern of “daily activities”, one or more attributes related to “work”, “how to spend at home”, “how to move”, and the like are selected.
  • the attribute selection by the attribute selection unit 172 and the period selection by the period selection unit 170 may affect each other. For example, when the “weekend” period is selected by the period selection unit 170, the attribute selection unit 172 selects attributes related to “weekend” behavior such as “shopping place” and “how to spend leisure time”. Also good.
  • the period selection unit 170 may select the “weekday” period during which “work” will be performed.
  • the attribute selection unit 172 can also be said to be one of condition setting units for setting object generation conditions in that an attribute score used for generating an object is selected.
  • the period selection unit 170 and the attribute selection unit 172 which are condition setting units, set object generation conditions in accordance with user operations.
  • the user can select what kind of attribute and what kind of attribute are reflected in the object representing himself / herself.
  • the user can produce a certain degree of “I want to show”. For example, if a user who is busy with work on weekdays also enjoys sports on the weekend, an object of “self who likes sports” is generated by selecting the “weekend” period via the period selection unit 170. Can be made. However, the user does not create “self who wants to see” beyond the range indicated by the action history.
  • the object of “self who likes sports” is not generated in any way.
  • the object generated by the object generation unit 162 reflects more or less the person of the user.
  • an object reflecting the person's person more realistically may be generated without providing the condition setting unit.
  • the period selection unit 170 and the attribute selection unit 172 that are condition setting units may set the generation conditions according to the situation in which the object generated by the object generation unit 162 is displayed.
  • the condition setting unit may set an object generation condition according to the attribute of the community site where the object is displayed.
  • an attribute score relating to “sports” may be automatically selected by the attribute selection unit 172.
  • the period selection unit 170 when the object is displayed on a community site of a school alumni association, the period during which the user was enrolled in the school may be automatically selected by the period selection unit 170. This makes it possible to display an object suitable for the nature of each communication place in the virtual space.
  • FIG. 2 is a diagram illustrating an example of object display realized by the system according to the first embodiment of the present disclosure.
  • FIG. 2 shows a situation where user A and user B are talking in a virtual space.
  • an avatar 1101 and a dialog 1103 are displayed.
  • the avatar 1101 includes a user A's avatar 1101a and a user B's avatar 1101b
  • the dialog 1103 includes a user A's dialog 1103a and a user B's dialog 1103b.
  • the avatar 1101 is an object generated in the object generation unit 162 of the server 150 described above.
  • the avatar 1101a of the user A is generated based on the attribute score of “work” and represents a user wearing a suit and holding a bag. From this, the user B who is a conversation partner can recognize that the user A is a person who mainly works.
  • the avatar 1101b of the user B is generated based on the attribute score of “housework” and represents a user cooking at home. From this, the user A can recognize that the user B is a person mainly doing housework. Therefore, in both conversations, topics such as “It seems to be difficult to work” and “Housework is also difficult” are easily derived, and it is expected that the conversation will become more natural and smooth.
  • FIG. 3 is a flowchart showing an example of processing for realizing the display as shown in FIG.
  • the attribute score calculation unit 158 periodically updates the user's attribute score stored in the attribute DB 160 based on the behavior history acquired by the behavior history acquisition unit 156 (step S101).
  • the server 150 executes processing for object generation.
  • the attribute score calculation unit 158 reads an attribute score stored in the attribute DB 160 and there is an attribute selection by the attribute selection unit 172 (step S105), the attribute score calculation unit 158 selects an attribute score to be used in accordance with the selection (step S105). Step S107). Note that the selection of the attribute here may be based on, for example, a user operation or a situation in which an object is displayed (a situation in which a conversation as illustrated in FIG. 2 is performed). If no attribute is selected, all calculated attribute scores are used.
  • the object generation unit 162 generates an object based on the attribute score read from the attribute DB 160 (step S109). Then, the object generation unit 162 transmits object information to the client 100 via the communication unit 168 (S111). At this time, the object generation unit 162 may transmit object information as a part of data for displaying the screen 1100 shown in FIG. 2, for example. Through the processing as described above, an image including an object representing the user is formed on the client 100.
  • FIG. 4 is a diagram illustrating an example of data used in the first embodiment of the present disclosure.
  • an example of data used for generating objects for six users A to F is shown.
  • “sex” and “occupation” are registration information of the user, and are stored in the user DB 166, for example.
  • “Workplace” and “Home” are attributes set for the location history of the user, and attribute scores are calculated according to the length of time spent at each location.
  • “Sit”, “walk”, “run”, “meal”, and “shopping” are attributes that are set with respect to the user's behavioral state, and the attribute score depends on the length of time that each behavior has been performed. Calculated.
  • each attribute score is normalized and can be compared with each other.
  • “department store”, “supermarket”, and “bookstore” are attributes that further subdivide the attribute “shopping”, and the attribute score is calculated according to the number of times or the amount of shopping at each type of store. .
  • the attributes may have a hierarchical structure.
  • the object generation unit 162 Based on the above data, the object generation unit 162 generates an object representing the user. When the generation condition is not set, the object generation unit 162 can generate an object with reference to all the calculated attribute scores. In this case, for example, the object generation unit 162 compares the attribute scores of the attributes and generates an object for the highest attribute.
  • the object generation unit 162 selects object information corresponding to the attribute “workplace” from the object information stored in the object DB 164. Furthermore, when a plurality of pieces of information on the object are prepared according to gender, occupation, etc., the object generation unit 162 obtains information on the object corresponding to the sex and occupation of the user A and the user B, that is, the male office worker. select. As a result of such processing, for example, a male avatar 1101c wearing a suit and holding a bag is generated as an object.
  • another avatar for example, a male avatar wearing a straw hat and holding a bag. Can be generated.
  • the attribute score of “workplace” is the highest, but since user C and user D are women, object generation unit 162 objects female avatar 1101d wearing a suit. To generate.
  • the object generation unit 162 selects object information corresponding to the attribute “house” from the object information stored in the object DB 164. Moreover, since the user E and the user F are women, the object production
  • the object generation unit 162 generates an object based on the attribute having the highest attribute score, but the embodiment of the present disclosure is not limited to such an example. For example, for a plurality of attributes having a relatively high attribute score, the object generation unit 162 acquires object information corresponding to these attributes from the object DB 164, and combines the acquired information according to each attribute score to generate an object. It may be generated.
  • the object generation unit 162 generates a male or female avatar walking with a suit as an object so that the difference is reflected in the object.
  • a male or female avatar sitting in a suit may be generated as an object.
  • FIG. 5 is a diagram illustrating a first example when the object generation condition is set in the first embodiment of the present disclosure.
  • a generation condition that can be called a “motion filter” is set when generating an object based on the same data as in FIG. 4.
  • the attribute selection unit 172 selects “sitting”, “walking”, and “running” attribute scores related to the user's exercise status as the attribute scores emphasized in the generation of the object.
  • the object generation unit 162 generates an object by emphasizing the selected attribute score. Therefore, in the illustrated example, a fat male avatar 1101f is generated as an object for the user A who is estimated to have a high “sitting” attribute score and many actions with low calorie consumption. On the other hand, for user B who has a relatively high attribute score of “walking” or “running” and is presumed to have many actions with high calorie consumption, a smart male avatar 1101g is generated as an object.
  • an attribute score not selected by the filter may be reflected to some extent in the generation of the object.
  • the avatars 1101f and 1101g do not necessarily have to wear training wear.
  • the highest attribute score not selected is the “workplace” attribute score. You may wear a suit based on.
  • FIG. 6 is a diagram illustrating a second example when the object generation condition is set in the first embodiment of the present disclosure.
  • a generation condition that can be called a “shopping filter” is set when generating an object based on the same data as in FIG. 4.
  • the attribute selection unit 172 selects the attribute scores of “department store”, “supermarket”, and “bookstore” related to the user's way of shopping as the attribute score emphasized in the generation of the object. .
  • the object generation unit 162 generates an object based on the selected attribute score. Therefore, in the illustrated example, for user E who has a high attribute score of “department”, a female avatar 1101h with a department store shopping bag and dressed is generated as an object. On the other hand, for user F who has a high attribute score of “super”, a female avatar 1101i with a plastic bag protruding from a leek in everyday wear is set as an object.
  • FIG. 7 is a diagram illustrating a third example when the object generation condition is set in the first embodiment of the present disclosure.
  • a generation condition that can be called a “weekend filter” is set when generating an object based on the same data as in FIG. 4. More specifically, the period selection unit 170 selects “weekend” as the period during which the action history is emphasized in the generation of the object.
  • attribute scores of “house”, “movement”, and “location other than home” calculated for “weekend” are shown. These attribute scores are calculated according to, for example, the length of time that the user's position information satisfies the conditions of each attribute. These scores are also normalized and can be compared with each other.
  • the object generation unit 162 generates an object based on the attribute score calculated based on the action history information of the selected period.
  • a female avatar 1101j with a travel bag is generated as an object.
  • a female avatar 1101k drinking tea at home is generated as an object.
  • FIG. 8 is a diagram showing a modification of the example of FIG.
  • the attribute score calculated by setting the condition for the period as in the example of FIG. 7 and the condition for the period as in the example of FIG. 4 are not set or different conditions are set.
  • the attribute scores calculated in this way may be compared with each other.
  • the object generating unit 162 has the highest “work” among the attribute scores calculated for the user D shown in the examples of FIGS. 4 and 7 without setting the period condition.
  • the attribute score (55) is compared with the attribute score (80) of the highest “house” among the attribute scores calculated by limiting the period to “weekend”, and an object is generated according to the higher attribute score is doing.
  • avatar 1101k is generated as an object based on the attribute score of “house” calculated for “weekend”.
  • the most characteristic one of the user attribute scores calculated by changing the target period can be selected. For example, if the user D has no particular feature in the way of spending weekends, but is a user who is working twice a weekday, even if the “weekend filter” is set, The avatar 1101d generated based on the attribute score may be selected. On the other hand, if the user D is a user who works as usual on weekdays but spends more time at home on weekends, the avatar 1101k generated based on the attribute score of “home” on the weekend is selected. sell.
  • Such a comparison may be executed in accordance with conditions set by the period selection unit 170 and the attribute selection unit 172, for example.
  • the attribute score calculation unit 158 searches for a generation condition that can best reflect the person of the user in the object by trying to calculate the attribute score in various periods and attribute filtering patterns. Good. This generation condition may be different for each user, for example.
  • FIG. 9 is a diagram illustrating an example of stepwise setting of an object according to the first embodiment of the present disclosure.
  • FIG. 9 shows an example of information that can be stored in the object DB 164 in the present embodiment.
  • the object DB 164 stores information on a plurality of objects set according to the attribute score for the same attribute, and the object generation unit 162 selects an appropriate one from these according to the user attribute score.
  • Object information may be selected. Thus, for example, it can be expressed to what extent the user applies to the matter represented by the attribute. Note that the example shown in FIG. 9 has no correlation with the examples of FIGS.
  • object information is set step by step in accordance with the attribute score for the three attributes “work”, “shopping”, and “train trip”.
  • attribute score for example, an attribute score is set according to the time spent at work
  • the attribute score is 50 to 59
  • the avatar wears a tie.
  • the attribute score reaches 60-69
  • the avatar wears a suit.
  • the attribute score is 70-99
  • the avatar sweats to express that he is a very enthusiastic person.
  • the attribute score is 100, in order to express that it is a great person who is eager to work. Avatar shines behind.
  • the object information set for each stage of the attribute score is not limited to one. For example, information of a plurality of objects may be set in each stage of the attribute score. In this case, which of the objects at the attribute score level the user selects may be determined based on, for example, a user input operation.
  • the attribute DB 160 defines an attribute indicating whether or not the user has achieved a predetermined event.
  • the attribute score calculation unit 158 displays the action history. Based on the information, it is determined whether or not the user has achieved the event. For example, if the event is achieved, 1 is set as the attribute score, and if not, 0 is set as the attribute score. Furthermore, even if the object generation unit 162 generates a special object indicating that the event has been achieved based on the information stored in the object DB 164 for the user whose attribute score of the above attribute is set to 1. Good.
  • Examples of events include: “The daily travel distance is exactly 30 km”, “I go to work first in the morning for 3 consecutive days”, “Shop more than 100 times in a store”, “During opening hours of a store , “Pass through the store more than once a day”, “perform a specific action at a specific date and time (eg, at 12:12 on December 12, 2012)”, “ A store often came over a year ago but hasn't come a year recently.
  • Such an event and an object corresponding to the event may be set purely for the enjoyment of the user, or may be used for marketing in combination with an embodiment of displaying an object on a map described later. Good.
  • FIG. 10 is a block diagram illustrating a first modification example of the functional configuration according to the first embodiment of the present disclosure.
  • the system 20 includes a client 100, an action recognition server 240, and an object server 250.
  • the client 100, the action recognition server 240, and the object server 250 are connected to each other through various wired or wireless networks, and communicate as necessary.
  • the client 100 includes the same functional configuration as the client 100 in the system 10 described above.
  • the behavior recognition server 240 includes a behavior recognition unit 152, a behavior history DB 154, and a communication unit 268 (similar to the communication unit 168 described with reference to FIG. 1).
  • the object server 250 includes an action history acquisition unit 156, an attribute score calculation unit 158, an attribute DB 160, an object generation unit 162, an object DB 164, a user DB 166, and a communication unit 168.
  • the period selection unit 170 and the attribute selection unit 172 are included. One or both of.
  • the action recognition server 240 and the object server 250 are two servers that realize the functions of the server 150 in the above example of FIG. 1 in a distributed manner.
  • the server 150 is realized by the cooperation of a single information processing apparatus or a plurality of information processing apparatuses
  • the action recognition server 240 and the object server 250 are the cooperation of a plurality of information processing apparatuses. It can also be said to be an example of the server 150 realized by.
  • the action recognition server 240 and the object server 250 may also be realized by cooperation of a plurality of information processing apparatuses.
  • the servers 150 may be realized by a plurality of information processing apparatuses in a distributed manner different from the form shown in FIG.
  • FIG. 11 is a block diagram illustrating a second modification example of the functional configuration according to the first embodiment of the present disclosure.
  • the system 30 includes a client 300 and an object server 250.
  • the client 300 and the object server 250 are connected to each other through various wired or wireless networks, and communicate as necessary.
  • the client 300 includes an action recognition unit 152 and an action history DB 154 in addition to the functional configuration of the client 100 in the system 10 described above.
  • the object server 250 includes a functional configuration similar to that of the object server 250 described with reference to FIG.
  • the action recognition unit 152 and the action history DB 154 are incorporated on the client side.
  • the client 300 may recognize the user's behavior by the behavior recognition unit 152 based on a sensing result such as an acceleration sensor included in the sensing unit 102 and accumulate the result in the behavior history DB 154.
  • the object server 250 accesses the action history DB 154 of the client 300 to acquire action history information for a predetermined period, for example, periodically or when the client 300 requests generation of an object representing the user. To do.
  • the functional configuration of the system according to the present embodiment can be arranged in any element on the network regardless of the server or the client.
  • various modifications other than the two modifications described above can be realized.
  • the action history acquisition unit 156 of the object server 250 can acquire the action history information from the external action history DB 154 as in the above two modifications
  • the provider providing the object server 250 It is also possible to obtain the action history information from another company that provides the action recognition service by the action recognition server 240 or the client 300.
  • action history information acquired by a plurality of action recognition services may be merged and used.
  • a provider that provides the object server 250 also provides an action recognition service (the object server 250 may have a functional configuration similar to that of the server 150 shown in FIG. 1). You may acquire the action history information acquired by the action recognition service, and may use it for calculation of an attribute score and generation of an object.
  • the second embodiment is different from the first embodiment in that the object representing the user is an object to be superimposed and displayed on the actual image of the user. Since other parts such as the functional configuration are the same as those in the first embodiment, a detailed description thereof is omitted.
  • FIG. 12 is a diagram illustrating a first display example according to the second embodiment of the present disclosure.
  • the object 2101 generated by the object generation unit 162 of the server 150 is displayed so as to be superimposed on the actual image 2103 of the user.
  • a male user wearing a suit is displayed as an actual image 2103
  • a straw hat object 2101 is displayed in a superimposed manner.
  • Object 2101 may represent, for example, that the user is currently working in a suit but is spending a lot of time in the kitchen garden on the weekend.
  • the object is not limited to an avatar displayed in the virtual space, and may be an object such as clothes, accessories, a hairstyle, and a pet displayed together with an actual user image.
  • the actual image 2103 of the user is visually recognized as, for example, a captured image of a real space provided by an AR application or the like, or an image of a real space that is seen through a see-through display unit.
  • the object generation unit 162 or the display control unit 106 of the client 100 recognizes the actual position and orientation of the user's actual image 2103 and displays the object 2101 accordingly.
  • a user who is a target of object generation and a user who observes the displayed object can be different users.
  • FIG. 13 is a diagram illustrating a second display example according to the second embodiment of the present disclosure.
  • a male user wearing a suit is displayed as an actual image 2103 as in the example of FIG.
  • the object 2105 is, for example, an environmental object that displays the background of the actual image, and hides the actual image 2103 of the user by being displayed.
  • Such an object 2105 can be generated when the user is shown not to meet a particular condition based on the attribute score. For example, when the user viewing the image sets a condition such as “person who improves sports”, a user whose attribute score indicates that he / she does not play much sports is displayed with the object 2105 superimposed. This disappears from the field of view of the user viewing the image.
  • such a display identifies which user meets the desired condition when searching for a person to call, and after calling It is effective to facilitate communication. Also in this case, it can be said that the object 2105 is an object reflecting the person of the user that the specific condition is not satisfied.
  • the third embodiment is different from the first embodiment in that an object representing a user is displayed on a map and a certain function can be executed for the display. Since other parts are the same as those in the first embodiment, a detailed description thereof is omitted.
  • FIG. 14 is a block diagram illustrating a schematic functional configuration of a system according to the third embodiment of the present disclosure.
  • the system 40 includes a client 400 and a server 450.
  • the client 400 and the server 450 are connected to each other via various wired or wireless networks, and communicate as necessary.
  • the configurations of the client 400 and the server 450 will be further described.
  • the client 400 is different from the client 100 described with reference to FIG. 1 in that it does not include the sensing unit 102, but is the same as the client 100 in other points.
  • the client 400 is used by a user who does not transmit the sensing result to the server, but exclusively observes an image including an object generated for another user.
  • the client 400 includes an input unit 104, a display control unit 106, and a display unit 108. Since the details of these functional configurations are the same as those of the client 100 described above, detailed description thereof is omitted.
  • the server 450 is different from the server 150 described with reference to FIG. 1 in that it includes an operation acquisition unit 474 and a message transmission unit 476, but is otherwise the same as the server 150.
  • the server 450 may include one or both of the period selection unit 170 and the attribute selection unit 172.
  • the action recognition unit 152 of the server 450 uses a user who uses these clients based on information from another client different from the client 400. Recognize the behavior. Accordingly, the action history information stored in the action history DB 154 is action history information of a user different from the client 400, and is generated through the processes of the action history acquisition unit 156, the attribute score calculation unit 158, and the object generation unit 162. The object also represents a user different from the user of the client 400.
  • the system 40 is a system for displaying an object generated for another user in the server 450 on the client 400 and allowing the user of the client 400 to perform some operation on the display.
  • functions of the operation acquisition unit 474 and the message transmission unit 476 included in the server 450 in the system 40 will be further described. Note that both the operation acquisition unit 474 and the message transmission unit 476 are realized by the CPU operating according to a program stored in the memory, for example.
  • the operation acquisition unit 474 receives information via the communication unit 168 from the input unit 104 that has acquired the user's operation with the client 400.
  • the information received here is information indicating an operation for designating at least a part of the objects (objects generated by the object generation unit 162) displayed on the map, as in an example described later, for example. sell.
  • the type of object to be specified may be further specified.
  • the operation acquisition unit 474 provides the acquired information to the message transmission unit 476.
  • the operation acquisition unit 474 may acquire a request for displaying an object on a map. This request may include, for example, the type of object to be displayed, position information of the client 400, and the like. These pieces of information can be provided to the object generation unit 162.
  • the message transmission unit 476 is an example of a functional unit that executes a predetermined function according to the information acquired from the operation acquisition unit 474.
  • the message transmission unit 476 transmits a message to the user corresponding to the object on the map specified by the operation information acquired by the operation acquisition unit 474.
  • the message transmission destination may be at least a part of the clients that provide the behavior recognition unit 152 with information for recognizing the behavior.
  • the message transmission unit 476 may refer to the user DB 166 in order to acquire information on a message transmission destination.
  • FIG. 15 is a diagram illustrating an example of data used in the third embodiment of the present disclosure.
  • the illustrated data can be stored in the user DB 166 by the server 450, for example.
  • This data includes items of “object type”, “current position”, and “E-mail” for each user (user A to user D).
  • object type the type of an object generated by the object generation unit 162 and associated with each user is recorded.
  • current position position information of each user detected by using GPS or the like is recorded, for example, by latitude and longitude.
  • E-mail for example, an e-mail address registered by each user for using the service is recorded.
  • “salesman” for example, a type of object generated for a user having a relatively high attribute score related to work
  • “gorgeous” for example, related to shopping for a luxury item
  • “Sportsman” for user C for example, object types generated for users with a relatively high attribute score related to sports
  • these object types may be determined based on, for example, all attribute scores related to the user, or may be determined as a result of the user setting some condition by the period selection unit 170, the attribute selection unit 172, or the like. Good.
  • FIG. 16 is a flowchart illustrating an example of processing according to the third embodiment of the present disclosure.
  • the object generation unit 162 periodically updates the user object information stored in the user DB 166 based on the attribute score calculated by the attribute score calculation unit 158 (step S201). Thereby, for example, the item of “object type” shown in FIG. 15 is also updated. If there is an object display request from the client 400 (step S203), the server 450 executes a process for displaying the object.
  • an object is generated in advance by the object generation unit 162, and the object information is stored in the user DB 166. Therefore, when the object type to be displayed is selected in the display request (step S205), the object generation unit 162 performs processing for displaying the object based on the object type information stored in the user DB 166. It starts from the process of selecting whether to display the object (step S207).
  • the attribute score calculation unit 158 may perform a process of calculating or reading the attribute score
  • the action history acquisition unit 156 may store the action history. Processing to acquire may be performed.
  • the object generation unit 162 extracts an object to be displayed based on the position information of the client 400 included in the display request (step S209).
  • the objects extracted at this time are limited to the target types of objects when the type of the object is selected in step S207. Otherwise, the object is extracted regardless of the type.
  • the object generation unit 162 maps the extracted object to a map based on the corresponding user position information stored in the user DB 166 (step S211), and maps the map information on which the object is mapped to the client 400. Transmit (step S213).
  • the map to which the object is mapped is set based on the position information of the client 400 included in the display request.
  • FIG. 17 is a diagram illustrating a first display example according to the third embodiment of the present disclosure.
  • an object 3101 indicating a user is displayed on the map 3100 on the display unit 108 of the client 400.
  • the color of the object 3101 changes according to the user's attribute score. That is, the user object 3101a (object type “walk” object) for which the “walk” score is calculated as the attribute score indicating the current action and the user object 3101b (object for which the “train” score is also calculated)
  • the object of the type “train”) and the user object 3101c object of the object type “car”
  • the object generated in this example is an abstract figure called a circle, but even in such a case, for example, by changing the color according to the attribute score, the user's Information about the person can be displayed (in this case, by what means the person is moving).
  • FIG. 18 is a diagram illustrating a second display example according to the third embodiment of the present disclosure.
  • the range designation figure 3103 is input using the touch panel included in the input unit 104.
  • a selection check box 3105 is displayed in the legend portion of the object in order to specify the target object type, and selection using the input unit 104 is possible.
  • the user who is located near the center of the map 3100 is designated by the range designation figure 3103 and the target is limited to the user who is displayed with the object type “walking” by the check box 3105.
  • an operation such as delivering a limited message to a user who has a specified attribute and is located in a specified area.
  • the operation acquisition unit 474 acquires user operation information indicated by the drawing of the range designation figure 3103 and the selection of the check box 3105, and the message transmission unit 476 executes a function such as message transmission.
  • the message transmitting unit 476 compares the “current position” of the data shown in FIG. 15 with the area indicated by the range designating figure 3103 on the map 3100 to identify users who satisfy the position condition. Extract. Further, the message transmission unit 476 extracts the user who satisfies the object type by comparing the “object type” with the object type specified by the check box 3105, and sets the extracted user as “E-mail”. Send a message to the indicated address.
  • an operation such as extracting a user having a certain attribute (represented by an object type) and sending a message among users in a specific place is intuitive and easy.
  • Two or more attributes may be set.
  • the entire user displaying the object is limited to “company employee” (limited by the first attribute)
  • the area around the station is further specified (position information)
  • the advertisement for lunch at a restaurant is limited to users who are estimated to be in demand.
  • FIG. 19 is a block diagram illustrating a schematic functional configuration of a system according to a modified example of the third embodiment of the present disclosure.
  • the system 42 includes a client 400 and a server 450.
  • the configuration of the system 42 is basically the same as that of the system 40 according to the present embodiment described with reference to FIG. 14, but a posting reception unit 478 is provided as a functional unit of the server 450 instead of the message transmission unit 476. Is different.
  • the posting acceptance unit 478 is an example of a functional unit that executes a predetermined function in accordance with information acquired from the operation acquisition unit 474.
  • the posting reception unit 478 receives a posting from the user based on the operation information acquired by the operation acquisition unit 474, and the user is eligible for posting by referring to the object information stored in the user DB 166. It is determined whether or not.
  • the posting receiving unit 478 transmits an input screen for posting to the client 400 via the communication unit 168.
  • Post accepting unit 478 is realized, for example, when the CPU operates according to a program stored in a memory.
  • FIG. 20 is a flowchart illustrating a modification of the third embodiment of the present disclosure.
  • the object generation unit 162 periodically updates the user object information stored in the user DB 166 based on the attribute score calculated by the attribute score calculation unit 158 (step S301). Thereby, for example, the item of “object type” shown in FIG. 15 is also updated.
  • the server 450 executes a process for determination based on the object type.
  • the review is information such as an evaluation provided by a user using a restaurant or the like for the store.
  • the posting acceptance unit 478 determines whether the user who transmitted the review posting request is associated with a predetermined object type (step S305). The determination here may be made based on object information stored in the user DB 166 for an object generated in advance by the object generation unit 162, for example. Alternatively, at the time of determination, the object generation unit 162 may generate an object based on the attribute score, and the determination may be made according to the type of the object.
  • the predetermined object type is set in advance for each store to be reviewed and for each community where reviews are displayed.
  • step S305 when the user is associated with the predetermined object attribute, the posting reception unit 478 refers to the user DB 166 and the location information of the user is around the store that is the subject of the review posting. It is determined whether or not there is (step S307).
  • the posting reception unit 478 transmits a review posting screen to the client 400 via the communication unit 168 (step S309).
  • the posting acceptance unit 478 sends a message (posting NG message) indicating that the posting of the review cannot be accepted to the client 400 via the communication unit 168. Transmit (step S311).
  • a user who submits a review about a store can be limited to users having specific attributes (for example, limited to women, limited to working adults, etc.). For example, such a limitation may be effective when a customer target set by the store is set or when a review is published in a community targeting users having specific attributes. Further, by limiting the user's position to the vicinity of the store, it is possible to accept only the review immediately after use of the user who actually uses the store. For example, such a limitation may be effective when it is desired to exclude cherry blossoms or when importance is attached to the freshness of reviews.
  • the fourth embodiment is different from the second embodiment described above with respect to display and sharing of generated objects. Since other parts such as the functional configuration are the same as those in the second embodiment, a detailed description thereof is omitted.
  • FIG. 21 is a diagram illustrating a first display example according to the fourth embodiment of the present disclosure.
  • an object that is superimposed and displayed on an actual image of a user is shared among a plurality of users. That is, the action history acquisition unit 156 of the server 150 acquires action history information for a plurality of users, the attribute score calculation unit 158 calculates an attribute score for the plurality of users, and the object generation unit 162 has a plurality of users. Generate objects that are visible to each other.
  • each user is wearing an HMD (Head Mounted Display) that can visually recognize the outside as disclosed in, for example, Japanese Patent Application Laid-Open No. 2008-83290, and meets other users.
  • an object may be displayed superimposed with the user.
  • an unhealthy male object 4101 is superimposed and displayed on a place where a male user who looks fine is displayed as an actual image 4103.
  • the object 4101 can represent, for example, that this user is living in an unnatural life. By displaying the object 4101, other users know that this user is living unattended.
  • the object can function as an avatar (alternate) indicating the state of the user that does not appear to the eye.
  • an avatar alternative
  • motivation to improve the actual user's behavior such as practicing a healthy life can be obtained.
  • communication between users may be activated by allowing the display of avatars by restricting the users or by transmitting evaluations such as comments about the avatars.
  • the avatar is made visible to the user himself, the user can feel like walking with an avatar virtually, and it may be enjoyed without necessarily sharing the avatar display with other users. .
  • the displayed avatar may be literally “alternate” of the same gender and age as the user, may be different in gender, or may be an animal instead of a human being.
  • a male user may take a female avatar as a virtual girlfriend, or may take an animal avatar like a pet.
  • the user's own behavior is reflected in the appearance of the avatar.
  • the avatar reflects the user's person, and for example, motivation to improve behavior is obtained, or the friendliness is easy to use Can be obtained.
  • FIG. 22 is a diagram illustrating an example of processing in the case where the display of an object is shared at the time of friend registration between users in the fourth embodiment of the present disclosure.
  • a friend request is transmitted at the terminal A used by the user A (step S401).
  • the terminal B used by the user B receives this friend request (step S403), and determines whether to approve, for example, based on the operation of the user B (step S405).
  • a non-approval response is returned to the terminal A (step S407), and the process ends.
  • the terminal B transmits an approval response (step S409).
  • the object information of user A is transmitted to terminal B (step S413).
  • the object information transmitted here is, for example, generated in the object generation unit 162 of the server 150 and transmitted to the terminal A in the same manner as in the second embodiment.
  • the object information received from the server 150 is stored, and the stored object information is transmitted in step S413.
  • the terminal B receives and stores the object information of the user A (step S415).
  • terminal B transmits object information of user B to terminal A (step S417).
  • Terminal A receives and stores object information of user B (step S419).
  • both the terminal A and the terminal B share each other's object information.
  • the terminal A can superimpose the user B object on the actual user B image (step S421), and the terminal B can superimpose the user A object on the actual user A image (step S423). become.
  • the terminal A and the terminal B can recognize the faces of the user A and the user B based on information exchanged in advance.
  • the object transmission (step S413 or step S417) can be executed again.
  • FIG. 23 is a diagram illustrating a second display example according to the fourth embodiment of the present disclosure.
  • an object corresponding to each user battles as a substitute for the user.
  • the object 5101a is a user A's avatar
  • the object 5101b is a user B's avatar.
  • On the screen 5100a of the user A an image of these objects 5101 standing on the notebook PC that looks like a ring is viewed from the object 5101a side, and the same as the screen 5100b of one user B
  • An image of the situation viewed from the object 5101b side is displayed.
  • the object 5101 is not superimposed on the user image. For example, there may be such an effect that an avatar that is usually on the user's shoulder comes down and fights against the opponent when the battle is started, as in the example of FIG.
  • an object (avatar) generated in the object generation unit 162 of the server 150 may be set with a parameter (matching parameter) for such a fighting function.
  • the battle parameter may be set based on an attribute score common to both users.
  • the battle parameter may be set according to the “motion filter” in the example of FIG.
  • a user who has more actions with high calorie consumption has higher battle parameters such as intelligence, physical strength, judgment, concentration, and luck. Therefore, a user who has trained himself on a daily basis can be more advantageous in a battle using an avatar.
  • the battle parameter may be set based on an attribute score set by the user using a filter or the like.
  • an avatar can be generated after a user specifies a filter of his / her best attributes, and can be played.
  • the user A may set the battle parameter according to the “exercise filter”
  • the user B may set the battle parameter according to the “shopping filter”.
  • the user's avatar with strong arms does not necessarily win the battle, and a user having an attribute score that protrudes with some attribute may win.
  • the battle parameters may or may not be reflected in the appearance of the avatar.
  • the generation condition used for generating the appearance of the avatar and the generation condition used for generating the battle parameter set for the avatar may be different.
  • an avatar of a professional baseball player who is a hobby of fishing does not seem to be so strong because a filter of “how to spend leisure time” is set for appearance, but “motion filter” for a battle parameter The game is enhanced by the gap between appearance and strength, such as extremely strong because of the setting.
  • FIG. 24 is a flowchart showing an example of processing for realizing the display as shown in FIG.
  • terminal A and terminal B are terminals used by user A and user B, respectively.
  • the server may be a server having a function of generating an object like the server 150 in the above example, or may be another server prepared for a battle game.
  • the server has a component that controls the battle game as a functional unit that executes a predetermined function, for example, like the message transmission unit 476 of the third embodiment.
  • the server acquires object information generated by the object generation unit 162 from the server 150 in advance.
  • the server sets battle parameters based on the object information of each user (step S501).
  • terminal A and terminal B execute transmission of an attack command (step S503) and transmission of a defense command (step S505), respectively.
  • the server generates a battle 3D graphic image based on the transmitted attack and defense command (step S507).
  • a captured image indicating the position of the camera of the terminal, the three-dimensional direction, the zoom rate, and the like is transmitted from each of the terminal A and the terminal B (steps S509 and S511).
  • the server that has received this compares the captured images and identifies a reference point at the approximate center of the screen among the corresponding feature points (step S513).
  • the server generates a 3D graphic image in consideration of the positional relationship of each camera on a plane centered on the reference point (step S515), and distributes a different 3D graphic image to terminal A and terminal B, respectively. (Step S517).
  • the terminal A and the terminal B display the distributed 3D graphic images (steps S519 and S521).
  • the processes in steps S509 to S521 are repeated.
  • the terminal A transmits a defense command (step S523), and the terminal B transmits an attack command (step S525). Thereafter, the same processing is repeated.
  • the above processing is an example, and various other battle games are possible as embodiments of the present disclosure.
  • the image of the battle game does not necessarily have to be 3D, and does not have to be a game that progresses with an attack command and a defense command.
  • a game is not restricted to a battle
  • the avatar may be displayed on a screen of an arbitrary application in other embodiments. Therefore, the battle game (or other game) does not necessarily have to superimpose an avatar on the actual space, and the user's avatar becomes a player character on a screen similar to a normal 2D or 3D game screen. It can be a thing.
  • FIG. 25 is a block diagram for explaining a hardware configuration of the information processing apparatus.
  • the illustrated information processing apparatus 900 can realize, for example, various servers and clients in the above-described embodiment.
  • the information processing apparatus 900 includes a CPU (Central Processing unit) 901, a ROM (Read Only Memory) 903, and a RAM (Random Access Memory) 905.
  • the information processing apparatus 900 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925.
  • the information processing apparatus 900 may include an imaging device 933 and a sensor 935 as necessary.
  • the information processing apparatus 900 may include a processing circuit such as a DSP (Digital Signal Processor) instead of or in addition to the CPU 901.
  • DSP Digital Signal Processor
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the information processing device 900 according to various programs recorded in the ROM 903, the RAM 905, the storage device 919, or the removable recording medium 927.
  • the ROM 903 stores programs and calculation parameters used by the CPU 901.
  • the RAM 905 primarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • the CPU 901, the ROM 903, and the RAM 905 are connected to each other by a host bus 907 configured by an internal bus such as a CPU bus. Further, the host bus 907 is connected to an external bus 911 such as a PCI (Peripheral Component Interconnect / Interface) bus via a bridge 909.
  • PCI Peripheral Component Interconnect / Interface
  • the input device 915 is a device operated by the user, such as a mouse, a keyboard, a touch panel, a button, a switch, and a lever.
  • the input device 915 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that supports the operation of the information processing device 900.
  • the input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs the input signal to the CPU 901. The user operates the input device 915 to input various data and instruct processing operations to the information processing device 900.
  • the output device 917 is a device that can notify the user of the acquired information visually or audibly.
  • the output device 917 is, for example, a display device such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro-Luminescence) display (may be a see-through type or a head mounted type), a speaker, and a headphone.
  • a display device such as an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), an organic EL (Electro-Luminescence) display (may be a see-through type or a head mounted type), a speaker, and a headphone.
  • the output device 917 outputs the result obtained by the processing of the information processing device 900 as video such as text or an image, or outputs it as audio such as voice or sound.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900.
  • the storage device 919 includes, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or a magneto-optical storage device.
  • the storage device 919 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the drive 921 is a reader / writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built in or externally attached to the information processing apparatus 900.
  • the drive 921 reads information recorded on the attached removable recording medium 927 and outputs the information to the RAM 905.
  • the drive 921 writes a record in the attached removable recording medium 927.
  • the connection port 923 is a port for directly connecting a device to the information processing apparatus 900.
  • the connection port 923 can be, for example, a USB (Universal Serial Bus) port, an IEEE 1394 port, a SCSI (Small Computer System Interface) port, or the like.
  • the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (High-Definition Multimedia Interface) port, or the like.
  • the communication device 925 is a communication interface configured with, for example, a communication device for connecting to the communication network 931.
  • the communication device 925 may be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), or a modem for various communication.
  • the communication device 925 transmits and receives signals and the like using a predetermined protocol such as TCP / IP with the Internet and other communication devices, for example.
  • the communication network 931 connected to the communication device 925 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, radio wave communication, or satellite communication.
  • the imaging device 933 uses various members such as an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and a lens for controlling the formation of a subject image on the imaging element. It is an apparatus that images a real space and generates a captured image.
  • the imaging device 933 may capture a still image or may capture a moving image.
  • the sensor 935 is various sensors such as an acceleration sensor, a gyro sensor, a geomagnetic sensor, an optical sensor, and a sound sensor.
  • the sensor 935 acquires information about the state of the information processing apparatus 900 itself, such as the posture of the information processing apparatus 900, and information about the surrounding environment of the information processing apparatus 900, such as brightness and noise around the information processing apparatus 900, for example. To do.
  • the sensor 935 may include a GPS sensor that receives a GPS (Global Positioning System) signal and measures the latitude, longitude, and altitude of the apparatus.
  • GPS Global Positioning System
  • Each component described above may be configured using a general-purpose member, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed according to the technical level at the time of implementation.
  • Embodiments of the present disclosure include, for example, an information processing apparatus (client or various servers) as described above, a system, an information processing method executed by the information processing apparatus or system, a program for causing the information processing apparatus to function, And a recording medium on which the program is recorded.
  • the various servers and clients in the embodiment described above do not necessarily have to be realized by a device given a role as a server or client on the network.
  • the embodiment of the present disclosure can be realized by operating each terminal (information processing apparatus) as various servers or clients.
  • an action history acquisition unit that acquires user action history information accumulated for a predetermined period
  • An attribute score calculating unit that calculates an attribute score of the user based on the action history information for one or more attributes of the attribute group
  • An information processing apparatus comprising: an object generation unit configured to generate an object representing the user based on the attribute score.
  • the information processing apparatus according to (1) further including a condition setting unit that sets a generation condition of the object.
  • the condition setting unit includes an attribute selection unit that selects the attribute score emphasized in the generation of the object.
  • condition setting unit includes a period selection unit that selects a period emphasized in the generation of the object among the predetermined periods.
  • the condition setting unit sets the generation condition according to an operation of the user.
  • the condition setting unit sets the generation condition according to a situation in which the object is displayed.
  • the attribute score calculation unit calculates the attribute score for a plurality of attributes in the attribute group,
  • the object generation unit selects the type of the object based on a comparison of attribute scores of the attributes.
  • the information processing apparatus according to any one of (1) to (7), wherein the attribute group includes an attribute indicating whether or not a predetermined event has been achieved.
  • the object generation unit generates the object to be superimposed and displayed on an actual image of the user.
  • the object generation unit generates the object that hides the user by displaying a background of the actual image of the user.
  • the object generation unit generates the object that changes stepwise according to the attribute score.
  • the object generation unit generates the object whose color changes according to the attribute score.
  • the information processing apparatus according to any one of (1) to (12), wherein the object generation unit generates the object to be displayed on a map.
  • An operation acquisition unit that acquires information related to an operation for designating at least a part of the object by an observer of the object displayed on the map;
  • the information processing apparatus according to (13), further comprising: a function unit that executes a predetermined function for the user corresponding to the specified object.
  • the operation includes an operation of designating an area on a map.
  • the behavior history acquisition unit acquires the behavior history information for a plurality of users,
  • the attribute score calculation unit calculates the attribute score for the plurality of users,
  • the information processing apparatus according to any one of (1) to (15), wherein the object generation unit generates the objects that are visible to the plurality of users.
  • a sensing unit that senses user behavior; One or more attributes in the attribute group based on the user's behavior history information generated based on information accumulated by transmitting the sensing result to a server and based on information including the sensing result
  • a communication unit that receives, from the server, information on an object representing the user generated based on the calculated attribute score;
  • An information processing apparatus comprising: a display control unit that displays the object on a display unit.
  • the client A sensing unit that senses user behavior; A communication unit that transmits a result of the sensing to a server and receives information of an object representing the user from the server; A display control unit for displaying the object on a display unit, The server An action history acquisition unit that acquires the action history information of the user generated based on information accumulated in a predetermined period and including the sensing result; An attribute score calculating unit that calculates an attribute score of the user based on the action history information for one or more attributes of the attribute group; An object generation unit configured to generate the object based on the attribute score.

Abstract

【課題】ユーザの人となりを反映したオブジェクトによってユーザを表象する。 【解決手段】所定の期間に蓄積されたユーザの行動履歴情報を取得する行動履歴取得部と、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出する属性スコア算出部と、上記属性スコアに基づいて、上記ユーザを表象するオブジェクトを生成するオブジェクト生成部とを含むサーバが提供される。

Description

情報処理装置、システム、情報処理方法およびプログラム
 本開示は、情報処理装置、システム、情報処理方法およびプログラムに関する。
 例えばオンラインゲームやコミュニティサイトなどの仮想空間でユーザ同士が会話する場合、発言を示すテキストとともにユーザを示すアバター(avatar)が表示されることが多くある。アバターは、例えば仮想空間におけるユーザの存在に視覚的なイメージを与え、実空間での存在に近づけることによって、仮想空間におけるユーザ同士のコミュニケーションを円滑にする。
 このようなアバターの表示に、ユーザの実際の状態を関連付ける技術も提案されている。例えば特許文献1には、ユーザの生体情報や表情の変化に対応した感情が表現されるように、アバターの表情や動きを変化させる技術が記載されている。また、特許文献2には、他のユーザとの親密度や他のユーザの活動状態を、それぞれのユーザを表示するオブジェクトの表示位置によって表現する技術が記載されている。
特開2002-190034号公報 特開2010-134802号公報
 しかしながら、上記のような技術では、アバターの表情や動きなどはユーザの状態に応じて変化するものの、アバターそのものはユーザによって任意に設定されるものであった。それゆえ、アバターがユーザの実際の人となりから乖離するような状況も起きうる。例えば、ユーザである中年男性が彼のアバターとして少女を設定した場合、表情の変化などによってユーザの状態を表現することはできても、アバター自体は依然としてユーザの実際の人となりからは乖離している。
 仮想空間でのコミュニケーションにおいては、ユーザが現実のありようから自由になれる場面もあってよい。しかしながら、最近は、SNS(Social Networking Service)またはソーシャルメディアの普及などによって、仮想空間での存在と現実の存在とがリンクされる場合も多くなっている。このような場合には、アバターがユーザの実際の人となりを表現している方が、より自然で円滑なコミュニケーションが期待できる。
 そこで、本開示では、ユーザの人となりを反映したオブジェクトによってユーザを表象することを可能にする、新規かつ改良された情報処理装置、システム、情報処理方法およびプログラムを提案する。
 本開示によれば、所定の期間に蓄積されたユーザの行動履歴情報を取得する行動履歴取得部と、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出する属性スコア算出部と、上記属性スコアに基づいて、上記ユーザを表象するオブジェクトを生成するオブジェクト生成部とを含むサーバが提供される。
 また、本開示によれば、ユーザの行動をセンシングするセンシング部と、上記センシングの結果をサーバに送信し、該センシングの結果を含む情報に基づいて生成される上記ユーザの行動履歴情報を所定の期間蓄積したものに基づいて属性群のうちの1または複数の属性について算出される属性スコアに基づいて生成される上記ユーザを表象するオブジェクトの情報を上記サーバから受信する通信部と、上記オブジェクトを表示部に表示させる表示制御部とを含むクライアントが提供される。
 また、本開示によれば、クライアントおよびサーバを含み、上記クライアントは、ユーザの行動をセンシングするセンシング部と、上記センシングの結果をサーバに送信し、上記ユーザを表象するオブジェクトの情報を上記サーバから受信する通信部と、上記オブジェクトを表示部に表示させる表示制御部とを有し、上記サーバは、所定の期間に蓄積された、上記センシングの結果を含む情報に基づいて生成される上記ユーザの行動履歴情報を取得する行動履歴取得部と、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出する属性スコア算出部と、上記属性スコアに基づいて上記オブジェクトを生成するオブジェクト生成部とを有するシステムが提供される。
 また、本開示によれば、所定の期間に蓄積されたユーザの行動履歴情報を取得することと、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出することと、上記属性スコアに基づいて、上記ユーザを表象するオブジェクトを生成することとを含む情報処理方法が提供される。
 また、本開示によれば、所定の期間に蓄積されたユーザの行動履歴情報を取得する機能と、属性群のうちの1または複数の属性について、上記行動履歴情報に基づく上記ユーザの属性スコアを算出する機能と、上記属性スコアに基づいて、上記ユーザを表象するオブジェクトを生成する機能とをコンピュータに実現させるためのプログラムが提供される。
 所定の期間に蓄積されたユーザの行動履歴情報には、その期間におけるユーザの生活が反映されているといえる。この行動履歴情報から、属性群のうちの1または複数の属性についての属性スコアを算出することによって、ユーザの人となりを表す指標を得ることができる。その指標である属性スコアに基づいてオブジェクトを生成すれば、生成されるオブジェクトにユーザの人となりが反映される。
 以上説明したように本開示によれば、ユーザの人となりを反映したオブジェクトによってユーザを表象することができる。
本開示の第1の実施形態に係るシステムの概略的な機能構成を示すブロック図である 本開示の第1の実施形態に係るシステムによって実現されるオブジェクトの表示の例を示す図である。 図2に示したような表示を実現するための処理の例を示すフローチャートである。 本開示の第1の実施形態で用いられるデータの例を示す図である。 本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第1の例を示す図である。 本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第2の例を示す図である。 本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第3の例を示す図である。 図7の例の変形例を示す図である。 本開示の第1の実施形態におけるオブジェクトの段階的設定の例を示す図である。 本開示の第1の実施形態の機能構成の第1の変形例を示すブロック図である。 本開示の第1の実施形態の機能構成の第2の変形例を示すブロック図である。 本開示の第2の実施形態における第1の表示例を示す図である。 本開示の第2の実施形態における第2の表示例を示す図である。 本開示の第3の実施形態に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第3の実施形態で用いられるデータの例を示す図である。 本開示の第3の実施形態における処理の例を示すフローチャートである。 本開示の第3の実施形態における第1の表示例を示す図である。 本開示の第3の実施形態における第2の表示例を示す図である。 本開示の第3の実施形態の変形例に係るシステムの概略的な機能構成を示すブロック図である。 本開示の第3の実施形態の変形例を示すフローチャートである。 本開示の第4の実施形態における第1の表示例を示す図である。 本開示の第4の実施形態においてユーザ間の友達登録時にオブジェクトの表示を共有する場合の処理の例を示す図である。 本開示の第4の実施形態における第2の表示例を示す図である。 図23に示したような表示を実現するための処理の例を示すフローチャートである。 情報処理装置のハードウェア構成を説明するためのブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書および図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.第1の実施形態
  1-1.機能構成
  1-2.処理の例
  1-3.データの例
  1-4.オブジェクト生成条件の例
  1-5.オブジェクトの段階的設定の例
  1-6.機能構成に関する変形例
 2.第2の実施形態
 3.第3の実施形態
  3-1.機能構成
  3-2.処理の例
  3-3.表示例
  3-4.変形例
 4.第4の実施形態
 5.ハードウェア構成
 6.補足
 (1.第1の実施形態)
 まず、図1~図11を参照して、本開示の第1の実施形態について説明する。
 (1-1.機能構成)
 図1は、本開示の第1の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図1を参照すると、システム10は、クライアント100と、サーバ150とを含む。クライアント100とサーバ150とは、有線または無線の各種のネットワークによって互いに接続され、必要に応じて通信する。以下、クライアント100およびサーバ150のそれぞれの構成について、さらに説明する。
  (クライアント)
 クライアント100は、センシング部102、入力部104、表示制御部106、表示部108、および通信部110を含む。クライアント100は、ユーザによって使用される各種の情報処理装置、例えば携帯電話(スマートフォン)、各種のPC(Personal Computer)、メディアプレーヤ、ゲーム機などによって実現される。情報処理装置は、例えば後述するハードウェア構成によって実現される。
 ここで、クライアント100は、単一の装置によって実現されてもよいし、複数の装置によって実現されてもよい。例えば、センシング部102は、ユーザの行動をセンシングするため、携帯電話(スマートフォン)などのユーザによって携帯される装置によって実現されることが望ましい。その一方で、入力部104、表示制御部106、および表示部108は、必ずしもユーザによって携帯されなくてもよいため、センシング部102と同一の装置によって実現されてもよいし、センシング部102とは異なる装置、例えばデスクトップ型のPCなどの据え置き型の装置によって実現されてもよい。以下、かかるクライアント100の各機能構成について説明する。
 センシング部102は、クライアント100を使用するユーザの行動をセンシングする。センシング部102は、例えば加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサ、および/またはGPS(Global Positioning System)受信機などによって実現され、ユーザの位置や活動状態などをセンシングする。センシング部102は、センシングの結果を通信部110を介してサーバ150に送信する。
 入力部104は、サーバ150におけるオブジェクト生成時のフィルタリング条件に関するユーザの入力を受け付ける。後述するように、サーバ150は、ユーザを表象するオブジェクトを生成するにあたり、取得する行動履歴の範囲や、強調して用いる属性スコアなどを選択する機能を有する場合がある。この場合、ユーザは、例えば入力部104を介して選択に関する情報を入力することによって、オブジェクトの生成にある程度の要望を反映させることができる。入力部104は、例えばタッチパネルやキーボード、マウスなどの入力装置によって実現され、受け付けた入力を通信部110を介してサーバ150に送信する。
 表示制御部106は、サーバ150で生成されたオブジェクトの情報を通信部110を介して受信し、そのオブジェクトを表示部108に表示させる。オブジェクトは、例えばアバターのようにユーザを表象するオブジェクトである。ここで受信された情報を用いて表示されるオブジェクトは、センシング部102によって行動がセンシングされるユーザについて生成されたオブジェクトであってもよいし、他のユーザについて生成されたオブジェクトであってもよいし、その両方であってもよい。表示制御部106は、オブジェクトを単体で表示してもよいし、他のアプリケーションなどの画面の中で表示させてもよい。また、表示制御部106は、オブジェクトを対応するユーザの画像(例えばAR(Augmented Reality)アプリケーションなどで提供される撮像画像、またはシースルー型の表示部108で透過して見えている実空間の像など)に重畳させて表示させてもよい。表示制御部106は、例えばCPU(Central Processing unit)がメモリに格納されたプログラムに従って動作することによって実現される。
 表示部108は、表示制御部106の制御に従って、各種の情報をユーザに向けて表示する。表示制御部106について説明したように、表示部108に表示される情報には、ユーザを表象オブジェクトが含まれる。表示部108は、例えば各種のディスプレイによって実現される。ディスプレイは、例えば平面型であってもよく、ヘッドマウント型であってもよい。また、ディスプレイは、例えば非透過型であってもよく、透過型であってもよい。
 通信部110は、クライアント100とサーバ150との間でやりとりされる各種の情報を送受信する。通信部110は、例えばネットワークに接続される各種の通信インターフェースによって実現される。
  (サーバ)
 サーバ150は、行動認識部152、行動履歴DB154、行動履歴取得部156、属性スコア算出部158、属性DB160、オブジェクト生成部162、オブジェクトDB164、ユーザDB166、および通信部168を含む。サーバ150は、さらに、期間選択部170および属性選択部172の一方または両方を含んでもよい。サーバ150は、単一の情報処理装置、または有線もしくは無線の各種のネットワークによって互いに接続された複数の情報処理装置の協働によって実現される。情報処理装置は、例えば後述するハードウェア構成によって実現される。以下、各機能構成について説明する。なお、DBおよび通信部を除く各部は、例えばCPUがメモリに格納されたプログラムに従って動作することによって実現される。DBは、例えばストレージ装置によって実現される。
 行動認識部152は、クライアント100のセンシング部102から通信部168を介して受信したセンシング結果に基づいて、クライアント100のユーザの行動を認識し、認識の結果を行動履歴DB154に格納する。行動認識部152は、さらに他のサーバなどからその他の情報を取得し、この情報にさらに基づいてユーザの行動を認識してもよい。その他の情報は、例えば店舗における購買ログや、特定の場所に設置された端末を操作した履歴などでありうる。行動認識部152は、さらに、ユーザの住所や勤務地などの登録情報を行動の認識に利用してもよい。なお、行動認識の技術の詳細に関しては、例えば特開2012-8771号公報など多くの文献で紹介されており、行動認識部152ではそれらの技術を適宜利用してユーザの行動を認識する。
 行動履歴DB154には、行動認識部152による認識の結果が、ユーザの行動履歴として蓄積される。行動履歴DB154に蓄積される情報は、例えばユーザの位置履歴や、購入履歴、操作履歴などであってもよいし、行動認識部152による認識結果を反映した行動パターン履歴や行動種別履歴などであってもよい。このような情報の限定的ではない例として、例えば以下のようなものが蓄積されうる。端末装置が充電中であるか、操作中であるか。ユーザが止まっているか、座っているか、歩いているか、走っているか、ジャンプしているか。ユーザが移動中であるかと、その位置。ユーザが電車に乗っているか、自動車に乗っているか、エレベータに乗っているか。ユーザが仕事中であるか、買い物中であるか。ユーザが入力したテキストログの口調から推定されるユーザの行動。行動履歴DB154に蓄積された上記のような情報を参照すれば、ユーザが、過去のある時点においてどのような行動をしていたかを特定することができる。
 行動履歴取得部156は、所定の期間に蓄積されたユーザの行動履歴情報を、行動履歴DB154から取得する。行動履歴取得部156は、所定の期間として、直近の特定の期間(例えば過去1年間など)を指定してもよいし、行動履歴情報が存在するすべての期間(つまり、ユーザが行動履歴を取得するサービスを利用し始めてから現在まで)を指定してもよい。また、付加的に期間選択部170が設けられる場合、期間選択部170による期間の選択があれば、行動履歴取得部156は選択された期間について行動履歴情報を取得する。選択がなければ、行動履歴取得部156は、期間選択部170が設けられない場合と同様に行動履歴情報を取得する。
 属性スコア算出部158は、行動履歴取得部156が取得したユーザの行動履歴情報に基づいて、属性群のうちの1または複数の属性について属性スコアを算出する。属性は、ユーザの人となりを示す属性であり、例えば仕事や、買い物、食事などに関するものでありうる。属性は、属性群として予め属性DB160に登録されている。属性スコア算出部158は、属性群のうちのすべての属性について属性スコアを算出してもよいし、そのうちの一部について属性スコアを算出してもよい。複数の属性について属性スコアを算出する場合、属性スコア算出部158は、それぞれのスコアを正規化して、異なる属性間でスコアの大小を比較することを可能にしてもよい。また、属性スコア算出部158は、一旦算出した属性スコアをユーザに対応づけて属性DB160に格納し、定期的に更新してもよい。
 ここで、付加的に属性選択部172が設けられる場合、後述するオブジェクト生成部162によってオブジェクトの生成において強調される属性スコアが、属性選択部172による選択によって決定される。この場合、例えば、属性スコア算出部158は、属性選択部172によって選択された属性に限定して、または選択された属性に重みをつけて属性スコアを算出してもよい。あるいは、属性スコア算出部158は、属性選択部172の選択に関わらず、属性群のうちの1または複数の属性について属性スコアを算出して属性DB160に格納しており、属性選択部172の選択に応じて格納された属性スコアを読み出すときに、重みづけなどの再計算を実行してもよい。なお、属性および属性スコアは、後述するオブジェクトの生成と関連しているため、それらの具体的な例についてはオブジェクトの例とともに説明する。
 属性DB160には、属性スコア算出部158によって算出される属性スコアに関する情報が格納される。例えば、属性DB160には、属性スコアの算出の対象になる属性群を定義する情報が格納される。また、属性DB160には、属性スコア算出部158が算出した属性スコアがユーザに対応づけて格納され、属性スコア算出部158によって定期的に更新されてもよい。属性群に含まれるそれぞれの属性の定義情報は、例えば、行動履歴と属性スコアとの関係を定義する情報を含む。例えば、“仕事”という属性の場合、“ユーザが職場にいた時間に応じて属性スコアを加算する”といったようなルールが定義されうる。
 なお、後述するように、属性スコアに基づいてオブジェクトを生成するときには、オブジェクトDB164の情報が参照される。それゆえ、属性DB160に格納された属性の定義情報と、オブジェクトDB164に格納されたオブジェクトの情報とは対応している。例えば、属性DB160で“仕事”という属性が定義されていれば、オブジェクトDB164には“仕事”の属性スコアに応じて選択されるオブジェクトが定義されている。
 オブジェクト生成部162は、属性スコア算出部158から提供された属性スコアに基づいて、ユーザを表象するオブジェクトを生成する。オブジェクトは、例えば、行動履歴情報が提供されたユーザ、および/または他のユーザに向けて、ユーザを表すものとして表示される画像である。例えば、オブジェクトが何らかの具体物(例えば人、動物、ロボット、など)の画像であれば、オブジェクトはユーザのアバター(化身)であるともいえる。また、オブジェクトは、図形などの抽象的な画像であってもよい。この場合も、オブジェクトはその形、サイズ、色などによってユーザを表象する。なお、オブジェクトの具体的な例については後述する。オブジェクト生成部162は、生成されたオブジェクトを通信部を介してクライアント100に送信し、表示制御部106による表示部108への表示に供する。さらに、オブジェクト生成部162は、生成されたオブジェクトを、ユーザDB166にユーザと関連付けて格納し、その後に再びオブジェクトの提供の要求があったときに読み出してもよい。
 ここで、オブジェクト生成部162は、予めオブジェクトDB164に登録された情報を参照し、属性スコアに基づいてオブジェクトを生成する。より具体的には、オブジェクト生成部162は、属性スコアを用いて、オブジェクトDB164に登録された情報を検索し、ユーザを表象するのに適切なオブジェクトの情報を抽出する。例えば、属性スコア算出部158によって複数の属性について属性スコアが算出された場合、オブジェクト生成部162は、そのうち最も属性スコアが高い属性について設定されたオブジェクトの情報を抽出してもよい。あるいは、オブジェクト生成部162は、複数の属性についてそれぞれ設定されたオブジェクトの情報を抽出し、これらをそれぞれの属性スコアに応じて合成してオブジェクトを生成してもよい。
 さらに、オブジェクト生成部162は、ユーザDB166に格納されたユーザの登録情報を参照してオブジェクトを生成してもよい。この場合、オブジェクト生成部162は、ユーザの性別、年齢、職業などに応じて、同じ属性スコアに対して用意された複数のオブジェクトの中から適切なものを選択してもよい。例えば、同じ“仕事”の属性のオブジェクトであっても、ユーザが男性か女性か、若者かシニアか、オフィスワーカーか工場労働者か、などといったことに応じて、異なるオブジェクトが生成されうる。このようにユーザの情報を参照してオブジェクトを生成することで、オブジェクトによってユーザの人となりをより適切に表現することができる。なお、オブジェクトが抽象的な画像であったり、具体物の画像であっても性別や年齢などの属性が関係ないものであるような場合、オブジェクト生成部162は必ずしもユーザDB166を参照しなくてもよい。また、例えばオブジェクトに現れる性別や年齢などについては、あえてユーザによる自由な設定を許容してもよい。
 オブジェクトDB164には、オブジェクト生成部162によるオブジェクトの生成に用いられるオブジェクトの情報が格納される。オブジェクトは、例えば、属性DB160で定義された属性に対応して設定される。例えば、属性DB160で“仕事”という属性が定義されている場合、オブジェクトDB164には、“仕事”の属性に対応する少なくとも1つのオブジェクトの情報が格納される。さらに、オブジェクトは、属性スコアに応じて複数設定されてもよい。例えば、“仕事”という属性について、属性スコアが低い場合、中程度の場合、高い場合、といったように、何段階かのオブジェクトが設定され、ユーザがどの程度仕事熱心であるかを表現することが可能であってもよい。また、オブジェクトDB164は、オブジェクトをさまざまな姿勢やサイズで表示することを可能にするデータを、オブジェクトごとに格納していてもよい。この場合、オブジェクト生成部162、またはクライアント100の表示制御部106で、表示されるオブジェクトの姿勢やサイズが決定される。
 ユーザDB166には、ユーザに関する情報が格納される。ユーザに関する情報は、例えば、ユーザID、性別、年齢、住所、職業、勤務地などの登録情報を含みうる。上記の通り、ユーザDB166に格納されたユーザの登録情報は、オブジェクト生成部162におけるオブジェクトの生成に用いられてもよい。登録情報は、オブジェクト生成部162だけではなく、行動認識部152など、サーバ150のさまざまな部分から参照されうる。また、ユーザDB166には、オブジェクト生成部162によって生成されたオブジェクトの情報がユーザに関連付けて格納され、オブジェクトの表示要求があった場合に読み出されてもよい。
 通信部168は、サーバ150とクライアント100との間でやりとりされる各種の情報を送受信する。通信部168は、例えばネットワークに接続される各種の通信インターフェースによって実現される。
 期間選択部170は、付加的に設けられる。期間選択部170は、クライアント100でユーザの操作を取得した入力部104から通信部168を介して受信した情報に基づいて、オブジェクト生成部162でオブジェクトの生成において強調される期間を選択する。期間は、例えば“夏”、“平日”、“週末”、“昼間”、“オフタイム”、“家にいる時間”など、周期的な期間によって選択されてもよいし、例えば“10年前まで”、“最近1年間”、“10年後”などのように非周期的な期間によって選択されてもよい。期間選択部170によって期間が選択された場合、例えば、行動履歴取得部156が、選択された期間に限定して行動履歴情報を取得してもよい。あるいは、属性スコア算出部158が、選択された期間の行動履歴情報に、他の期間の行動履歴情報よりも大きな重みをつけて属性スコアを算出してもよい。
 なお、未来の期間を選択する場合、例えば行動履歴取得部156はユーザの比較的近い過去の行動履歴情報を取得し、属性スコア算出部158は、その行動履歴と同様の行動を続けた場合の、選択された未来の期間におけるユーザの属性スコアの推定値を算出する。この場合、例えば、現在運動をあまりしないユーザについて、未来の期間を選択して生成したオブジェクトは、肥満型の人物のオブジェクトでありうる。期間選択部170は、属性スコアの元になる行動履歴情報が取得される期間の条件を設定するという点で、オブジェクトの生成条件を設定する条件設定部の1つともいえる。
 属性選択部172も、付加的に設けられる。属性選択部172は、クライアント100でユーザの操作を取得した入力部104から通信部168を介して受信した情報に基づいて、オブジェクト生成部162でのオブジェクトの生成において強調される属性スコアを選択する。例えば、属性選択部172によって、属性DB160に定義された属性群の中から1または複数の属性が選択された場合、属性スコア算出部158は、選択された属性に限定して属性スコアを算出するか(他の属性スコアは0)、選択された属性の属性スコアに他の属性スコアに比べて大きな重みをつけてもよい。あるいは、属性スコア算出部158によって属性スコアが既に算出されて属性DB160に格納されている場合、オブジェクトの生成時に読み出された属性スコアのうち、選択された属性の属性スコアに対する重みづけの再計算が実行されてもよい。
 ここで、選択可能な属性スコアの数は、予め設定されていてもよい。あるいは、属性は、予め設定されたパターンに従って選択されてもよい。例えば、“日常の行動”というパターンで属性を選択した場合、“仕事”、“家での過ごし方”、“移動の仕方”などに関する1または複数の属性が選択される。また、属性選択部172による属性の選択と、期間選択部170による期間の選択とは、相互に影響を与えあってもよい。例えば、期間選択部170で“週末”の期間が選択された場合、属性選択部172が“買い物の場所”、“余暇の過ごし方”といった、“週末”の行動に関連する属性を選択してもよい。また、例えば、属性選択部172で“仕事”の属性が選択された場合、期間選択部170が“仕事”がされているであろう“平日”の期間を選択してもよい。属性選択部172も、オブジェクトの生成に用いられる属性スコアを選択するという点で、オブジェクトの生成条件を設定する条件設定部の1つともいえる。
 本実施形態では、条件設定部である期間選択部170および属性選択部172が、ユーザの操作に従ってオブジェクトの生成条件を設定する。これによって、ユーザは、自らを表象するオブジェクトに、どのような時期の、どのような属性を反映させるかを選択することができる。この点で、ユーザは、“見せたい自分”をある程度演出できる。例えば、平日は仕事に追われているユーザも、週末にスポーツを楽しんでいれば、期間選択部170を介して“週末”の期間を選択することで、“スポーツ好きな自分”のオブジェクトを生成させることができる。しかしながら、ユーザは、行動履歴によって示される範囲を超えて“見せたい自分”を作り出すことはない。例えば、ユーザが平日にも週末にもスポーツをしていなければ、どのようにしても“スポーツ好きな自分”のオブジェクトは生成されない。この点で、ユーザによるオブジェクトの生成条件の設定を許容したとしても、オブジェクト生成部162によって生成されるオブジェクトは、多かれ少なかれユーザの人となりが反映されるといえる。もちろん、条件設定部を設けずに、よりリアルにユーザの人となりを反映したオブジェクトが生成されるようにしてもよい。
 一方、本実施形態の変形例として、条件設定部である期間選択部170および属性選択部172は、オブジェクト生成部162によって生成されたオブジェクトが表示される状況に応じて生成条件を設定してもよい。例えば、条件設定部は、オブジェクトが表示されるコミュニティサイトの属性に応じてオブジェクトの生成条件を設定してもよい。例えば、オブジェクトがスポーツをテーマにしたコミュニティサイトで表示される場合、属性選択部172によって自動的に“スポーツ”に関する属性スコアが選択されてもよい。また、例えば、オブジェクトが学校の同窓会のコミュニティサイトで表示される場合、期間選択部170によって自動的にユーザが学校に在籍していた期間が選択されてもよい。これによって、仮想空間におけるコミュニケーションの場ごとに、その性質に合ったオブジェクトを表示することができる。
 以上、本開示の第1の実施形態に係るシステムの概略的な機能構成について説明した。続いて、かかるシステムによって実現されるオブジェクトの表示や、オブジェクトを生成するための処理、用いられるデータなどの具体的な例について、さらに説明する。
 (1-2.処理の例)
 図2は、本開示の第1の実施形態に係るシステムによって実現されるオブジェクトの表示の例を示す図である。図2では、ユーザAおよびユーザBが、仮想空間で会話している状況が示されている。画面1100には、アバター1101と、ダイアログ1103とが表示される。ここで、アバター1101は、ユーザAのアバター1101aと、ユーザBのアバター1101bとを含み、ダイアログ1103は、ユーザAのダイアログ1103aと、ユーザBのダイアログ1103bとを含む。
 ここで、アバター1101は、上記のサーバ150のオブジェクト生成部162において生成されたオブジェクトである。ユーザAのアバター1101aは、“仕事”の属性スコアに基づいて生成され、スーツを着てカバンを持ったユーザの姿を表している。このことから、会話の相手であるユーザBは、ユーザAが主に仕事をしている人物であることを認識することができる。
 一方、ユーザBのアバター1101bは、“家事”の属性スコアに基づいて生成され、家で料理をしているユーザの姿を表している。このことから、ユーザAは、ユーザBが主に家事をしている人物であることを認識することができる。従って、両者の会話では、“お仕事大変そうですね”や、“家事も大変ですよね”といった話題が容易に導き出され、会話がより自然で円滑なものになることが期待される。
 図3は、図2に示したような表示を実現するための処理の例を示すフローチャートである。まず、サーバ150において、属性スコア算出部158は、行動履歴取得部156が取得した行動履歴に基づいて、定期的に属性DB160に格納されたユーザの属性スコアを更新している(ステップS101)。ここで、例えば図2に示したようなアプリケーションが起動されたことなどによってオブジェクトの表示要求があった場合(ステップS103)、サーバ150ではオブジェクト生成のための処理が実行される。
 まず、属性スコア算出部158は、属性DB160に格納された属性スコアを読み出すにあたり、属性選択部172による属性の選択があれば(ステップS105)、その選択に応じて使用する属性スコアを選択する(ステップS107)。なお、ここでの属性の選択は、例えばユーザの操作や、オブジェクトが表示される状況(図2に示したような会話がなされる状況)に基づくものでありうる。属性の選択がない場合、算出されているすべての属性スコアが使用される。
 次に、オブジェクト生成部162が、属性DB160から読み出された属性スコアに基づいてオブジェクトを生成する(ステップS109)。そして、オブジェクト生成部162は、通信部168を介してオブジェクトの情報をクライアント100に送信する(S111)。このとき、オブジェクト生成部162は、例えば図2に示した画面1100を表示するためのデータの一部として、オブジェクトの情報を送信してもよい。以上のような処理によって、クライアント100で、ユーザを表象するオブジェクトを含む画像がされる。
 (1-3.データの例)
 図4は、本開示の第1の実施形態で用いられるデータの例を示す図である。図示された例では、ユーザA~ユーザFの6人について、オブジェクトの生成のために用いられるデータの例が示されている。データの項目ごとに説明すると、“性別”および“職業”は、ユーザの登録情報であり、例えばユーザDB166に格納される。“職場”および“家”は、ユーザの位置履歴に関して設定された属性であり、それぞれの場所にいた時間の長さに応じて属性スコアが算出される。“座る”、“歩く”、“走る”、“食事”および“買い物”は、ユーザの行動状態に関して設定された属性であり、それぞれの行動をしていた時間の長さに応じて属性スコアが算出される。図示された例において、各属性スコアは正規化されており、相互に比較することが可能である。一方、“デパート”、“スーパー”および“本屋”は、属性“買い物”をさらに細分化した属性であり、それぞれの種類の店舗で買い物をした回数、または金額に応じて属性スコアが算出される。この“買い物”の例のように、属性は階層的な構成をもっていてもよい。これらの属性スコアは、ユーザの行動履歴に基づいて属性スコア算出部158によって算出される。
 上記のようなデータに基づいて、オブジェクト生成部162がユーザを表象するオブジェクトを生成する。生成条件が設定されなかった場合、オブジェクト生成部162は、算出されているすべての属性スコアを参照して、オブジェクトを生成しうる。この場合、例えば、オブジェクト生成部162は、各属性の属性スコアを比較して、最も高い属性についてオブジェクトを生成する。
 例えば、ユーザA、ユーザBについては、“職場”の属性スコアが最も高い。そこで、オブジェクト生成部162は、オブジェクトDB164に格納されたオブジェクトの情報の中から、“職場”の属性に対応するオブジェクトの情報を選択する。さらに、当該オブジェクトの情報が、性別や職業などに応じて複数用意されている場合、オブジェクト生成部162は、ユーザA、ユーザBの性別および職業、すなわち男性の会社員に該当するオブジェクトの情報を選択する。このような処理の結果として、例えば、スーツを着用し、カバンを持った男性のアバター1101cが、オブジェクトとして生成される。ここで、例えば、ユーザA、ユーザBの職業が農夫であり、それに対応したオブジェクトの情報がオブジェクトDB164に格納されていれば、別のアバター、例えば麦わら帽子をかぶって鍬を持った男性のアバターが生成されうる。
 同様に、ユーザC、ユーザDについても、“職場”の属性スコアが最も高いが、ユーザC、ユーザDは女性であるため、オブジェクト生成部162は、スーツを着用した女性のアバター1101dをオブジェクトして生成する。一方、ユーザE、ユーザFについては、“家”の属性スコアが最も高い。そこで、オブジェクト生成部162は、オブジェクトDB164に格納されたオブジェクトの情報の中から、“家”の属性に対応するオブジェクトの情報を選択する。また、ユーザE、ユーザFは女性であるため、オブジェクト生成部162は、家で料理をしている女性のアバター1101eをオブジェクトとして生成する。
 なお、上記の例では、オブジェクト生成部162が、属性スコアが最も高い属性に基づいてオブジェクトを生成したが、本開示の実施形態はこのような例には限られない。例えば、オブジェクト生成部162は、属性スコアが比較的高い複数の属性について、これらの属性に対応するオブジェクトの情報をオブジェクトDB164から取得し、取得した情報を各属性スコアに応じて合成してオブジェクトを生成してもよい。
 例えば、ユーザA~ユーザDは、いずれも“職場”の属性スコアが最も高い点で共通しているが、ユーザB、ユーザCは“歩く”の属性スコアが比較的高く、ユーザA、ユーザDは“歩く”の属性スコアが低い、という点で相違する。例えば、オブジェクト生成部162は、このような相違をオブジェクトに反映させるべく、ユーザB、ユーザCについては、スーツを着用して歩いている男性または女性のアバターをオブジェクトとして生成し、ユーザA、ユーザDについては、スーツを着用して座っている男性または女性のアバターをオブジェクトとして生成してもよい。
 このように、複数の属性についての属性スコアに基づいてオブジェクトを生成することで、ユーザに最もよくあてはまる属性を抽出して、その属性に対応するオブジェクトを生成することができる。その一方で、例えば会社員のユーザの場合、滞在時間に基づいて算出される“職場”の属性スコアが高くなってしまうために、その他の、例えば“オフタイムにスポーツを楽しんでいる”という特徴が埋没してしまう可能性もある。そのような場合、付加的に設けられる期間選択部170や属性選択部172によってオブジェクトの生成条件を設定することで、例えばよりユーザの個性を反映したオブジェクトの生成が可能になる。以下、そのような生成条件が設定された場合のオブジェクトの生成の例について、さらに説明する。
 (1-4.オブジェクト生成条件の例)
 図5は、本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第1の例を示す図である。図示された例では、図4と同様のデータを基にオブジェクトを生成するにあたり、“運動フィルタ”ともいえる生成条件が設定されている。より具体的には、属性選択部172が、オブジェクトの生成において強調される属性スコアとして、ユーザの運動状況に関係する“座る”、“歩く”、“走る”の属性スコアを選択している。
 この場合、オブジェクト生成部162は、選択された属性スコアを強調してオブジェクトを生成する。従って、図示された例では、“座る”の属性スコアが高く、消費カロリーの低い行動が多いと推定されるユーザAについては、小太りの男性のアバター1101fが、オブジェクトとして生成される。一方、“歩く”や“走る”の属性スコアが比較的高く、消費カロリーの高い行動が多いと推定されるユーザBについては、スマートな男性のアバター1101gが、オブジェクトとして生成される。
 このような生成条件の設定によって、全体として見ればいずれも“主に仕事をしている人”であって差異がないユーザAとユーザBとに、“運動をよくするか否か”という点で差が生じる。例えば、ユーザBが、よく運動をしている自信があり、そのような自分を仮想空間におけるアバターのようなオブジェクトに表現したいと望む場合、ユーザBは、属性選択部172を介して上記の“運動フィルタ”を設定すればよい。
 なお、このようなフィルタ型の生成条件が設定された場合であっても、フィルタによって選択されなかった属性スコアが、オブジェクトの生成にある程度反映されてもよい。例えば、図5の例であれば、アバター1101f,1101gは必ずしもトレーニングウェアを着用していなくてもよく、例えば、選択されなかった属性スコアで一番高いものが“職場”の属性スコアであることに基づいて、スーツを着用していてもよい。
 図6は、本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第2の例を示す図である。図示された例では、図4と同様のデータを基にオブジェクトを生成するにあたり、“買い物フィルタ”ともいえる生成条件が設定されている。より具体的には、属性選択部172が、オブジェクトの生成において強調される属性スコアとして、ユーザの買い物の仕方に関連する“デパート”、“スーパー”、“本屋”の属性スコアを選択している。
 上記の図5の例と同様に、オブジェクト生成部162は、選択された属性スコアに基づいてオブジェクトを生成する。従って、図示された例では、“デパート”の属性スコアが高いユーザEについては、デパートのショッピングバッグを持ち、着飾った女性のアバター1101hが、オブジェクトとして生成される。一方、“スーパー”の属性スコアが高いユーザFについては、普段着でネギの突き出したビニール袋を持った女性のアバター1101iが、オブジェクトとして設定される。
 このような生成条件の設定によいって、全体として見ればいずれも“主に家にいる主婦”であって差異がないユーザEとユーザFとに、“どこで買い物をするか”という点で差が生じる。例えば、商品のレビューを投稿するサイトに彼女らのアバターを表示する場合、属性選択部172がサイトの属性に応じて自動的に“買い物フィルタ”を設定することで、レビューを投稿したユーザがどこで買い物をすることが多いのかを知った上でレビューを閲覧することができる。
 図7は、本開示の第1の実施形態においてオブジェクト生成条件を設定した場合の第3の例を示す図である。図示された例では、図4と同様のデータを基にオブジェクトを生成するにあたり、“週末フィルタ”ともいえる生成条件が設定されている。より具体的には、期間選択部170が、オブジェクトの生成において行動履歴が強調される期間として“週末”を選択している。図には、“週末”について算出された、“家”、“移動”、“家以外の場所”の属性スコアが示されている。これらの属性スコアは、例えばユーザの位置情報がそれぞれの属性の条件を満たしていた時間の長さに応じて算出される。また、これらのスコアも正規化されており、相互に比較することが可能である。
 図示された例において、オブジェクト生成部162は、選択された期間の行動履歴情報に基づいて算出された属性スコアに基づいてオブジェクトを生成する。この場合、例えば、“家以外の場所”にいる時間が長いユーザCについては、旅行カバンを持った女性のアバター1101jが、オブジェクトとして生成される。一方、“家”にいる時間が長いユーザDについては、自宅でお茶を飲んでいる女性のアバター1101kが、オブジェクトとして生成される。
 このような生成条件の設定によって、図4に示した全期間についての属性データでは差異がないユーザCとユーザDとに、“週末の過ごし方”という点で差が生じる。仕事をしているユーザの多くは、平日は基本的に仕事をしており、過ごし方に個性が出にくい傾向がある。そこで、上記のような“週末フィルタ”を設定してオブジェクトを生成すれば、各ユーザについてバラエティに富んだオブジェクトが生成されうる。
 図8は、図7の例の変形例を示す図である。本実施形態では、図7の例のように期間についての条件を設定して算出された属性スコアと、図4の例のように期間についての条件を設定せずに、または異なる条件を設定して算出された属性スコアとが、互いに比較されてもよい。図示された例の場合、オブジェクト生成部162は、図4および図7の例に示されたユーザDについて、期間の条件を設定せずに算出された属性スコアの中で最も高い“仕事”の属性スコア(55)と、期間を“週末”に限定して算出された属性スコアの中で最も高い“家”の属性スコア(80)とを比較し、より高い属性スコアに応じてオブジェクトを生成している。結果として、ユーザDについては、“週末”について算出された“家”の属性スコアに基づいて、アバター1101kがオブジェクトとして生成される。
 このような比較によって、例えば、対象になる期間を変えて算出されたユーザの属性スコアの中で、最も特徴的なものが選択されうる。例えば、ユーザDが、週末の過ごし方には特に特徴がないけれども、平日は人一倍仕事をしているユーザであれば、“週末フィルタ”が設定されていても、平日の“職場”の属性スコアに基づいて生成されるアバター1101dが選択されうる。一方、ユーザDが、平日の仕事は人並みだけれども、週末は人一倍家で過ごすことが多いユーザであれば、週末の“家”の属性スコアに基づいて生成されるアバター1101kが選択されうる。
 このような比較は、例えば期間選択部170や属性選択部172によって設定されている条件に従って実行されてもよい。あるいは、属性スコア算出部158は、さまざまな期間や属性のフィルタリングパターンでの属性スコアの算出を試行することによって、ユーザの人となりを最もよくオブジェクトに反映させることができる生成条件を探索してもよい。この生成条件は、例えばユーザごとに異なっていてもよい。
 (1-5.オブジェクトの段階的設定の例)
 図9は、本開示の第1の実施形態におけるオブジェクトの段階的設定の例を示す図である。図9には、本実施形態においてオブジェクトDB164に格納されうる情報の例が示されている。上述したように、オブジェクトDB164には、同じ属性について、属性スコアに応じて設定された複数のオブジェクトの情報が格納され、オブジェクト生成部162は、ユーザの属性スコアに応じてこれらの中から適切なオブジェクトの情報を選択してもよい。これによって、例えば、ユーザがその属性によって表される事項にどの程度あてはまるかを表現することができる。なお、図9に示される例は、図4~図8の例とは相関性がない。
 図示された例では、“仕事”、“買い物”、“電車旅行”の3つの属性について、属性スコアに応じて段階的にオブジェクトの情報が設定されている。例えば、“仕事”の属性の場合(例えば職場に滞在している時間に応じて属性スコアが設定される)、属性スコアが50~59であれば、アバターがネクタイを着用する。属性スコアが60~69になれば、アバターがさらにスーツを着用する。属性スコアが70~99であれば、かなり仕事熱心な人であることを表現するために、アバターが汗をかく。さらに、属性スコアが100になると、相当に仕事熱心な偉い人であることを表現するために。アバターに後光がさす。
 同様に“買い物”の属性の場合(例えばデパートに滞在している時間に応じて属性スコアが設定される)、属性スコアが高くなるにつれて、アバターが所持しているショッピングバッグの数が増える。さらに、背景にデパートの建物が現れ、最終的には荷物を持ってくれるお付きの者がつく。また、“電車旅行”の属性の場合(例えば電車に乗って移動している時間に応じて属性スコアが設定される)、属性スコアが高くなるにつれて、鉄道マニアがよく所持しているアイテムが次々とアバターに与えられる。なお、属性スコアの各段階について設定されるオブジェクトの情報は、1つには限られない。例えば、属性スコアの各段階には、それぞれ複数のオブジェクトの情報が設定されてもよい。この場合、ユーザが該当する属性スコアの段階のオブジェクトの中でどれを選択するかは、例えばユーザの入力操作に基づいて決定されてもよい。
 このように、属性スコアに応じて段階的に変化するオブジェクトが生成されることによって、ユーザがどのような属性の人であるかという定性的な情報に加えて、どの程度その属性が強い人かという定量的な情報を、オブジェクトに反映させることができる。また、上記の例のように、属性スコアに応じて生成されるオブジェクトにある程度の遊びの要素をもたせることで、ユーザの実際の行動にモチベーションを与えられる場合もある(例えば、“今週は仕事が忙しいので、どうせならアバターに後光がさすまで頑張ってみよう”など)。
 また、上記の例と同様の性質をもつ変形例として、属性DB160には、ユーザが所定のイベントを達成したか否かを示す属性が定義され、この場合、属性スコア算出部158が、行動履歴情報に基づいて、ユーザが当該イベントを達成したか否かを判定し、例えば達成した場合には属性スコアに1を、そうでない場合には属性スコアに0を設定する。さらに、オブジェクト生成部162が、上記の属性の属性スコアに1が設定されているユーザについて、オブジェクトDB164に格納された情報に基づいて、イベントを達成したことを示す特別なオブジェクトを生成してもよい。
 イベントの例としては、“1日の移動距離がちょうど30kmになる”、“3日連続で朝一番に出勤する”、“ある店舗で100回以上買い物をする”、“ある店舗の開店時間中に、1日1回以上店舗の前を通過する”、“特定の日時に特定の行動をする(例えば、2012年12月12日の12時12分に建物の12階にいる)”、“ある店舗に、1年以上前にはよく来ていたが最近1年は来ていない”などがある。こうしたイベント、およびイベントに対応したオブジェクトは、例えば純粋にユーザの楽しみのために設定されてもよいし、後述する地図上へのオブジェクトの表示の実施形態などと組み合わせてマーケティングなどに利用されてもよい。
 (1-6.機能構成に関する変形例)
 図10は、本開示の第1の実施形態の機能構成の第1の変形例を示すブロック図である。図10を参照すると、システム20は、クライアント100と、行動認識サーバ240と、オブジェクトサーバ250とを含む。クライアント100、行動認識サーバ240、およびオブジェクトサーバ250は、有線または無線の各種のネットワークによって互いに接続され、必要に応じて通信する。
 ここで、クライアント100は、上記のシステム10におけるクライアント100と同様の機能構成を含む。行動認識サーバ240は、行動認識部152、行動履歴DB154および通信部268(図1を参照して説明した通信部168と同様)を含む。オブジェクトサーバ250は、行動履歴取得部156、属性スコア算出部158、属性DB160、オブジェクト生成部162、オブジェクトDB164、ユーザDB166、および通信部168を含み、付加的に期間選択部170および属性選択部172の一方または両方を含む。
 この例に示されるように、行動認識サーバ240とオブジェクトサーバ250とは、上記の図1の例におけるサーバ150の機能を分散して実現する2つのサーバである。上述のように、サーバ150は、単一の情報処理装置、または複数の情報処理装置の協働によって実現されるため、行動認識サーバ240とオブジェクトサーバ250とは、複数の情報処理装置の協働によって実現されたサーバ150の一例ということもできる。もちろん、行動認識サーバ240およびオブジェクトサーバ250も、それぞれ複数の情報処理装置の協働によって実現されてもよい。また、サーバ150が、図10に示された形とは異なる形で分散して複数の情報処理装置によって実現されてもよい。
 図11は、本開示の第1の実施形態の機能構成の第2の変形例を示すブロック図である。図11を参照すると、システム30は、クライアント300と、オブジェクトサーバ250とを含む。クライアント300とオブジェクトサーバ250とは、有線または無線の各種のネットワークによって互いに接続され、必要に応じて通信する。
 ここで、クライアント300は、上記のシステム10におけるクライアント100の機能構成に加えて、行動認識部152と行動履歴DB154とを含む。オブジェクトサーバ250は、図10を参照して説明したオブジェクトサーバ250と同様の機能構成を含む。
 図示されているように、本変形例では、行動認識部152、および行動履歴DB154が、クライアント側に組み込まれている。例えば、クライアント300は、センシング部102に含まれる加速度センサなどのセンシング結果に基づいて行動認識部152でユーザの行動を認識し、その結果を行動履歴DB154に蓄積していてもよい。この場合、オブジェクトサーバ250は、例えば定期的に、またはユーザを表象するオブジェクトの生成がクライアント300から要求されたときに、クライアント300の行動履歴DB154にアクセスして所定の期間の行動履歴情報を取得する。
 このように、本実施形態に係るシステムの機能構成は、サーバ、クライアントを問わず、ネットワーク上の任意の要素に配置されうる。この点に関し、上記の2つの変形例以外にも、さまざまな変形例が実現可能である。例えば、上記の2つの変形例のように、オブジェクトサーバ250の行動履歴取得部156が、外部の行動履歴DB154から行動履歴情報を取得できるようにすれば、オブジェクトサーバ250を提供する事業者が、行動認識サーバ240またはクライアント300で行動認識サービスを提供する別の事業者から行動履歴情報を入手することも可能である。また、複数の行動認識サービスによって取得された行動履歴情報をマージして利用してもよい。例えば、オブジェクトサーバ250を提供する事業者は、自らも行動認識サービスを提供し(従ってオブジェクトサーバ250は図1に示したサーバ150のような機能構成を有しうる)、さらに他の事業者の行動認識サービスによって取得された行動履歴情報を取得して属性スコアの算出およびオブジェクトの生成に利用してもよい。
 (2.第2の実施形態)
 次に、図12および図13を参照して、本開示の第2の実施形態について説明する。この第2の実施形態は、ユーザを表象するオブジェクトが、ユーザの実際の画像に重畳表示するためのオブジェクトであるという点で、上記の第1の実施形態とは異なる。なお、機能構成などそれ以外の部分については、第1の実施形態と同様であるため、重複した詳細な説明は省略する。
 図12は、本開示の第2の実施形態における第1の表示例を示す図である。本実施形態では、サーバ150のオブジェクト生成部162によって生成されるオブジェクト2101が、ユーザの実際の画像2103に重畳して表示される。図示された例では、スーツを着用した男性のユーザが、実際の画像2103として表示されているところに、麦わら帽子のオブジェクト2101が重畳して表示されている。オブジェクト2101は、例えば、このユーザが、今はスーツを着用して仕事をしているけれども、週末には家庭菜園の手入れに精を出していることを表すものでありうる。このように、オブジェクトは、仮想空間において表示されるアバターのようなものには限られず、実際のユーザの画像とともに表示される服装やアクセサリー、髪形、ペットなどのオブジェクトであってもよい。
 ここで、ユーザの実際の画像2103は、例えば、ARアプリケーションなどで提供される実空間の撮像画像や、シースルー型の表示部で透過して見えている実空間の像として視認される。オブジェクト生成部162、またはクライアント100の表示制御部106は、こうしたユーザの実際の画像2103の位置や姿勢を認識し、それに合わせてオブジェクト2101を表示させる。なお、このような表示がされる場合、オブジェクト生成の対象になるユーザと、表示されたオブジェクトを観察するユーザとは、別々のユーザでありうる。
 図13は、本開示の第2の実施形態における第2の表示例を示す図である。図示された例では、図12の例と同様に、スーツを着た男性のユーザが、実際の画像2103として表示されている。オブジェクト2105は、例えば、この実際の画像の背景を表示する環境オブジェクトであり、表示されることによってユーザの実際の画像2103を隠蔽する。かかるオブジェクト2105は、属性スコアに基づいて、ユーザが特定の条件を満たさないことが示される場合に生成されうる。例えば、画像を見る側のユーザが、“スポーツをよくする人”というような条件を設定している場合、スポーツをあまりしないことが属性スコアによって示されるユーザは、オブジェクト2105を重畳して表示することによって画像を見る側のユーザの視界から消える。
 このような表示は、例えば、多くのユーザが集まったイベント会場などで、声をかける相手を探す場合に、どのユーザが希望している条件に合うユーザかを識別し、声をかけた後のコミュニケーションが成り立ちやすくするために有効である。この場合も、オブジェクト2105は、特定の条件を満たしていないという、そのユーザの人となりを反映したオブジェクトであるといえる。
 (3.第3の実施形態)
 次に、図14~図19を参照して、本開示の第3の実施形態について説明する。この第3の実施形態は、ユーザを表象するオブジェクトが地図上に表示され、その表示に対して何らかの機能を実行することが可能であるという点で、上記の第1の実施形態とは異なる。なお、それ以外の部分については、第1の実施形態と同様であるため、重複した詳細な説明は省略する。
 (3-1.機能構成)
 図14は、本開示の第3の実施形態に係るシステムの概略的な機能構成を示すブロック図である。図14を参照すると、システム40は、クライアント400と、サーバ450とを含む。クライアント400とサーバ450とは、有線または無線の各種のネットワークによって互いに接続され、必要に応じて通信する。以下、クライアント400およびサーバ450のそれぞれの構成について、さらに説明する。
  (クライアント)
 クライアント400は、センシング部102を含まない点で、図1を参照して説明したクライアント100とは異なるが、それ以外の点ではクライアント100と同様である。クライアント400は、センシングの結果をサーバに送信せず、専ら他のユーザについて生成されたオブジェクトを含む画像を観察するユーザによって使用される。そのために、クライアント400は、入力部104、表示制御部106、および表示部108を含む。これらの機能構成の詳細については、上記のクライアント100と同様であるため、詳細な説明を省略する。
  (サーバ)
 サーバ450は、操作取得部474、およびメッセージ送信部476を含む点で、図1を参照して説明したサーバ150とは異なるが、それ以外の点ではサーバ150と同様である。図示されていないが、サーバ450は、期間選択部170および属性選択部172の一方または両方を含んでもよい。
 図示された例では、クライアント400がセンシングの結果をサーバに送信しないため、サーバ450の行動認識部152は、クライアント400とは異なる他のクライアントからの情報に基づいて、それらのクライアントを使用するユーザの行動を認識する。従って、行動履歴DB154に格納される行動履歴情報は、クライアント400とは異なるユーザの行動履歴情報であり、行動履歴取得部156、属性スコア算出部158、およびオブジェクト生成部162の処理を経て生成されるオブジェクトも、クライアント400のユーザとは異なるユーザを表象するものである。
 つまり、システム40は、サーバ450で他のユーザについて生成されたオブジェクトがクライアント400で表示され、その表示に対してクライアント400のユーザが何らかの操作を実行するためのシステムである。以下、かかるシステム40においてサーバ450に含まれる操作取得部474およびメッセージ送信部476の機能について、さらに説明する。なお、操作取得部474およびメッセージ送信部476は、いずれも、例えばCPUがメモリに格納されたプログラムに従って動作することによって実現される。
 操作取得部474は、クライアント400でユーザの操作を取得した入力部104から通信部168を介して情報を受信する。ここで受信される情報は、例えば、後述する例のように、地図上に表示されたオブジェクト(オブジェクト生成部162によって生成されたオブジェクト)のうちの少なくとも一部を指定する操作を示す情報でありうる。この操作情報では、指定するオブジェクトの種類がさらに指定されてもよい。操作取得部474は、取得した情報を、メッセージ送信部476に提供する。また、操作取得部474は、地図上にオブジェクトを表示させることの要求を取得してもよい。この要求には、例えば、表示させるオブジェクトの種類や、クライアント400の位置情報などが含まれていてもよい。これらの情報は、オブジェクト生成部162に提供されうる。
 メッセージ送信部476は、操作取得部474から取得した情報に従って所定の機能を実行する機能部の一例である。図示された例において、メッセージ送信部476は、操作取得部474が取得した操作情報によって指定された地図上のオブジェクトに対応するユーザに対して、メッセージの送信を実行する。メッセージの送信先は、例えば行動認識部152に行動を認識するための情報を提供したクライアントのうちの少なくとも一部でありうる。メッセージ送信部476は、メッセージの送信先の情報を取得するために、ユーザDB166を参照してもよい。
 (3-2.処理の例)
 図15は、本開示の第3の実施形態で用いられるデータの例を示す図である。図示されたデータは、例えばサーバ450でユーザDB166に格納されうる。このデータは、各ユーザ(ユーザA~ユーザD)について“オブジェクト種類”、“現在位置”、“E-mail”の項目を含む。“オブジェクト種類”には、オブジェクト生成部162によって生成され、各ユーザに対応付けられたオブジェクトの種類が記録されている。“現在位置”には、GPSなどを用いて検出された各ユーザの位置情報が、例えば緯度経度によって記録されている。“E-mail”には、例えば各ユーザがサービス利用のために登録したメールアドレスが記録されている。
 図示された例では、ユーザA、ユーザDについて“サラリーマン”(例えば、仕事に関する属性スコアが比較的高いユーザについて生成されるオブジェクトの種類)、ユーザBについて“ゴージャス”(例えば、高級品の買い物に関する属性スコアが比較的高いユーザについて生成されるオブジェクトの種類)、ユーザCについて“スポーツマン”(例えば、スポーツに関する属性スコアが比較的高いユーザについて生成されるオブジェクトの種類)というオブジェクト種類が記録されている。なお、これらのオブジェクト種類は、例えば、ユーザに関するすべての属性スコアに基づいて決定されてもよいし、ユーザが期間選択部170や属性選択部172などによる何らかの条件を設定した結果として決定されてもよい。
 図16は、本開示の第3の実施形態における処理の例を示すフローチャートである。まず、サーバ450において、オブジェクト生成部162は、属性スコア算出部158が算出した属性スコアに基づいて、定期的にユーザDB166に格納されたユーザのオブジェクト情報を更新している(ステップS201)。これによって、例えば図15に示す“オブジェクト種類”の項目も更新される。ここで、クライアント400からオブジェクトの表示要求があった場合(ステップS203)、サーバ450ではオブジェクトの表示のための処理が実行される。
 本実施形態では、オブジェクト生成部162によって予めオブジェクトが生成され、オブジェクト情報がユーザDB166に格納されている。従って、オブジェクトの表示のための処理は、表示要求において表示するオブジェクト種類の選択がある場合に(ステップS205)、オブジェクト生成部162が、ユーザDB166に格納されたオブジェクト種類の情報に基づいてどのユーザのオブジェクトを表示するかを選択する(ステップS207)処理から始まる。他の実施形態では、上記の図3の例のように、属性スコア算出部158が属性スコアを算出する、または読み出す処理が実行されてもよいし、さらには行動履歴取得部156が行動履歴を取得する処理が実行されてもよい。
 次に、オブジェクト生成部162は、表示要求に含まれるクライアント400の位置情報に基づいて、表示するオブジェクトを抽出する(ステップS209)。このとき抽出されるオブジェクトは、ステップS207でオブジェクトの種類が選択されている場合、対象になる種類のオブジェクトに限られる。そうではない場合は、種類に関わらずオブジェクトが抽出される。
 次に、オブジェクト生成部162は、抽出されたオブジェクトを、ユーザDB166に格納された対応するユーザの位置情報に基づいて地図にマッピングし(ステップS211)、オブジェクトがマッピングされた地図情報をクライアント400に送信する(ステップS213)。ここで、オブジェクトがマッピングされる地図は、表示要求に含まれるクライアント400の位置情報に基づいて設定される。
 (3-3.表示例)
 図17は、本開示の第3の実施形態における第1の表示例を示す図である。図示された例では、クライアント400の表示部108で、地図3100上に、ユーザを示すオブジェクト3101が表示される。ここでは、オブジェクト3101の色がユーザの属性スコアに応じて変化している。つまり、現在の行動を示す属性スコアとして“徒歩”のスコアが算出されたユーザのオブジェクト3101a(オブジェクト種類“徒歩”のオブジェクト)と、同じく“電車”のスコアが算出されたユーザのオブジェクト3101b(オブジェクト種類“電車”のオブジェクト)と、同じく“自動車”のスコアが算出されたユーザのオブジェクト3101c(オブジェクト種類“自動車”のオブジェクト)とでは、生成される色のオブジェクトが異なる。図示されているように、この例で生成されるオブジェクトは、円という抽象的な図形であるが、このような場合であっても、例えば色を属性スコアに応じて変化させることで、ユーザの人となりに関する情報(この場合は、どのような手段で移動しているか)を表示することができる。
 図18は、本開示の第3の実施形態における第2の表示例を示す図である。図示された例では、クライアント400で、図17の例と同様に地図3100上にオブジェクト3101が表示されているときに、入力部104に含まれるタッチパネルなどを用いて、範囲指定図形3103が入力されている。また、対象とするオブジェクト種類を指定するために、オブジェクトの凡例部分に選択用のチェックボックス3105が表示され、入力部104を用いた選択が可能になっている。図示された例では、範囲指定図形3103で地図3100の中央付近に位置するユーザを指定するとともに、チェックボックス3105で対象をオブジェクト種類“徒歩”で表示されているユーザに限定している。これによって、例えば、指定された領域内に位置する、指定した属性を有するユーザに対して、限定的にメッセージを配信するといった操作を実行することができる。
 このとき、サーバ450では、操作取得部474が上記の範囲指定図形3103の描画およびチェックボックス3105の選択によって示されるユーザの操作情報を取得し、メッセージ送信部476がメッセージ送信などの機能を実行する。ここで、メッセージ送信部476は、例えば図15に示されたデータの“現在位置”と、地図3100上での範囲指定図形3103によって示される領域とを比較することによって位置の条件を満たすユーザを抽出する。さらに、メッセージ送信部476は、“オブジェクト種類”とチェックボックス3105によって指定されたオブジェクト種類とを比較することによってオブジェクト種類の条件を満たすユーザを抽出し、抽出されたユーザの“E-mail”として示されるアドレスに向けてメッセージを送信する。
 以上のような構成によって、例えば、特定の場所にいるユーザの中で、ある属性(オブジェクト種類によって表される)を有するユーザを抽出してメッセージを送るといったような操作を、直感的かつ容易な操作によって実行することができる。なお、属性は、2以上が設定されてもよい。例えば、図18の例で、オブジェクトが表示されているユーザ全体が“会社員”に限定されている場合(第1の属性による限定)、その中でさらに駅周辺の領域を指定し(位置情報による限定)、さらに徒歩で移動中のユーザに限定して(第2の属性による限定)メッセージを送信することによって、例えば飲食店のランチの広告を、その需要層と推定されるユーザに限定して配信することが可能である。
 (3-4.変形例)
 図19は、本開示の第3の実施形態の変形例に係るシステムの概略的な機能構成を示すブロック図である。図19を参照すると、システム42は、クライアント400と、サーバ450とを含む。システム42の構成は、図14を参照して説明した本実施形態に係るシステム40と基本的に同様であるが、サーバ450の機能部として、メッセージ送信部476に代えて投稿受付部478が設けられる点で異なる。
 投稿受付部478は、操作取得部474から取得した情報に従って所定の機能を実行する機能部の一例である。図示された例において、投稿受付部478は、操作取得部474が取得した操作情報によってユーザからの投稿を受け付け、ユーザDB166に格納されたオブジェクト情報を参照することによって、ユーザに投稿の資格があるか否かを判定する。ユーザに投稿の資格がある場合、投稿受付部478は、通信部168を介して、クライアント400に投稿のための入力画面を送信する。投稿受付部478は、例えばCPUがメモリに格納されたプログラムに従って動作することによって実現される。
 図20は、本開示の第3の実施形態の変形例を示すフローチャートである。まず、サーバ450において、オブジェクト生成部162は、属性スコア算出部158が算出した属性スコアに基づいて、定期的にユーザDB166に格納されたユーザのオブジェクト情報を更新している(ステップS301)。これによって、例えば図15に示す“オブジェクト種類”の項目も更新される。ここで、クライアント400からレビューの投稿要求があった場合(ステップS303)、サーバ450ではオブジェクト種類による判定のための処理が実行される。なお、ここで、レビューは、飲食店などを利用したユーザが、その店舗について提供する評価などの情報である。
 ここで、投稿受付部478は、レビューの投稿要求を送信したユーザは、所定のオブジェクト種類に関連付けられているか否かを判定する(ステップS305)。ここでの判定は、例えば、オブジェクト生成部162によって予め生成されたオブジェクトについてユーザDB166に格納されたオブジェクト情報に基づいてされてもよい。あるいは、判定のときに、オブジェクト生成部162が属性スコアに基づいてオブジェクトを生成し、そのオブジェクトの種類によって判定がされてもよい。なお、上記所定のオブジェクト種類は、例えば、レビュー投稿の対象になる店舗や、レビューが表示されるコミュニティごとに予め設定されている。
 ステップS305において、ユーザが所定のオブジェクト属性に関連付けられている場合、さらに、投稿受付部478は、ユーザDB166を参照して、ユーザの位置情報が、レビュー投稿の対象になっている店舗の周辺であるか否かを判定する(ステップS307)。ここで、ユーザの位置情報が店舗の周辺であると判定された場合、投稿受付部478は、通信部168を介して、レビュー投稿用の画面をクライアント400に送信する(ステップS309)。一方、ステップS305またはステップS307で否定的な判定がされた場合、投稿受付部478は、通信部168を介して、レビューの投稿を受け付けられないことを示すメッセージ(投稿NGメッセージ)をクライアント400に送信する(ステップS311)。
 上記のような処理によって、例えば、店舗についてのレビューを投稿するユーザを、特定の属性を有するユーザに限定(例えば、女性限定、社会人限定、など)することができる。例えば店舗がターゲットにする客層を設定している場合や、レビューが特定の属性を有するユーザを対象にしたコミュニティで公開されるような場合には、このような限定が有効でありうる。また、ユーザの位置を店舗の周辺に限定することによって、実際に店舗を利用したユーザの、利用直後のレビューに限って受け付けることができる。例えば、サクラを排除したい場合や、レビューの鮮度を重視する場合には、このような限定が有効でありうる。
 (4.第4の実施形態)
 次に、図21~図24を参照して、本開示の第4の実施形態について説明する。この第4の実施形態は、生成されたオブジェクトの表示および共有に関して、上記の第2の実施形態とは異なる。なお、機能構成などそれ以外の部分については、第2の実施形態と同様であるため、重複した詳細な説明は省略する。
 図21は、本開示の第4の実施形態における第1の表示例を示す図である。本実施形態では、ユーザの実際の画像に重畳表示されるオブジェクトが、複数のユーザの間で共有される。つまり、サーバ150の行動履歴取得部156は、複数のユーザについて行動履歴情報を取得し、属性スコア算出部158は、複数のユーザについて属性スコアを算出し、オブジェクト生成部162は、複数のユーザが互いに視認可能なオブジェクトを生成する。
 一つの例としては、各ユーザが、例えば特開2008-83290号公報で開示されているような外部を視認可能なHMD(Head Mounted Display)を装着して行動しており、他のユーザと会ったときに、そのユーザとともにオブジェクトが重畳して表示されるような場合が考えられる。図示された例では、元気そうな男性のユーザが実際の画像4103として表示されているところに、不健康そうな男性のオブジェクト4101が重畳して表示されている。オブジェクト4101は、例えば、このユーザが、実は不摂生な生活をしていることを表すものでありうる。オブジェクト4101が表示されることで、このユーザが不摂生な生活をしていることが他のユーザにも知れてしまう。
 このように、オブジェクトは、見た目には現れないユーザの状態を示すアバター(分身)として機能しうる。この場合、例えば、他のユーザからも見られるアバターの見た目をよくするために、健康的な生活を実践するなど、実際のユーザの行動を改善するモチベーションが得られる。また、ユーザを限定してアバターの表示を許可したり、アバターに関するコメントなどの評価を送信できるようにすることで、ユーザ間のコミュニケーションの活性化を図ってもよい。また、アバターをユーザ自身からも視認可能にすれば、仮想的にアバターを連れて歩くような感覚が得られ、必ずしも他のユーザとの間でアバターの表示を共有しなくても楽しめる場合がある。
 なお、表示されるアバターは、ユーザと同様の性別や年齢の文字通り“分身”であってもよいし、性別が異なったり、人間ではなく動物であったりしてもよい。例えば、男性のユーザが女性のアバターを仮想的なガールフレンドとして連れて歩いてもよいし、動物のアバターをペットのようにして連れ歩いてもよい。ただし、このような場合でも、アバターの見た目にはユーザ自身の行動が反映される。例えば、男性のユーザがアバターとしてガールフレンドを連れ歩く場合、ユーザ自身が不摂生な生活を送っていると、ガールフレンドが不健康そうな見た目になる。また、アバターとしてペットを連れ歩く場合、ユーザ自身が不摂生な生活を送っていると、ペットの見た目が薄汚くなる。このように、必ずしもユーザの文字通り“分身”ではないアバターの表示の場合でも、アバターにはユーザの人となりが反映され、例えば行動の改善のモチベーションが得られたり、親しみがわきやすかったりするという効用が得られうる。
 図22は、本開示の第4の実施形態においてユーザ間の友達登録時にオブジェクトの表示を共有する場合の処理の例を示す図である。まず、ユーザAが使用する端末Aで、友達リクエストが送信される(ステップS401)。ユーザBが使用する端末Bでは、この友達リクエストを受信し(ステップS403)、承認するか否かが、例えばユーザBの操作に基づいて判定される(ステップS405)。ここで、承認されなければ、端末Aに非承認応答が返送され(ステップS407)、処理は終了する。
 一方、ステップS405で友達リクエストが承認された場合、端末Bは承認応答を送信する(ステップS409)。端末Aでは、承認応答を受信した(ステップS411)後、ユーザAのオブジェクト情報を端末Bに送信する(ステップS413)。ここで送信されるオブジェクト情報は、例えば上記の第2の実施形態と同様にしてサーバ150のオブジェクト生成部162において生成され、端末Aに送信されたものである。端末Aでは、サーバ150から受信したオブジェクトの情報が保存されており、ステップS413では保存されているオブジェクト情報が送信される。
 ここで、端末Bは、ユーザAのオブジェクト情報を受信し、保存する(ステップS415)。次に、端末Bは、ユーザBのオブジェクト情報を端末Aに送信する(ステップS417)。端末Aは、ユーザBのオブジェクト情報を受信し、保存する(ステップS419)。これによって、端末Aおよび端末Bの両方で、お互いのオブジェクト情報が共有される。以後、端末Aでは実際のユーザBの画像にユーザBのオブジェクトを重畳表示し(ステップS421)、端末Bでは実際のユーザAの画像にユーザAのオブジェクトを重畳表示する(ステップS423)ことが可能になる。なお、ユーザA、ユーザBそれぞれの顔などの認識は、予め交換された情報に基づいて端末A、端末Bの双方で可能であるものとする。また、上記の処理の後、各ユーザの行動履歴の変化によってオブジェクトが更新された場合には、再度オブジェクトの送信(ステップS413またはステップS417)が実行されうる。
 なお、上記の図22では、端末同士がサーバを介さずに通信するP2P(Peer to Peer)方式の場合の例について説明したが、サーバを介した通信によってユーザ間でオブジェクトの表示を共有してもよい。この場合、それぞれの端末装置にオブジェクトを保存する必要はなく、サーバに保存されているオブジェクトの表示対象にお互いを加えるだけでよい(例えば、ユーザBがユーザAの初めての友達だとすると、ユーザAのオブジェクトの表示対象に、それまでのユーザA(本人)に加えてユーザBが設定され、端末Aおよび端末Bの両方でオブジェクトが表示されるようになる)。
 図23は、本開示の第4の実施形態における第2の表示例を示す図である。図示された例では、各ユーザに対応するオブジェクトが、ユーザの身代わりとして対戦する。オブジェクト5101aはユーザAのアバターであり、オブジェクト5101bはユーザBのアバターである。ユーザAの画面5100aには、リングに見立てたノート型PCの上に立ったこれらのオブジェクト5101を、オブジェクト5101aの側から見た画像が表示されており、一方のユーザBの画面5100bには同じ状況をオブジェクト5101bの側から見た画像が表示されている。上記の図21の例との相違として、オブジェクト5101はユーザの画像に重畳していない。例えば、普段は図21の例のようにユーザの肩に乗っているアバターが、対戦が開始されると降りてきて相手と戦う、といったような演出があってもよい。
 上記の例の場合、サーバ150のオブジェクト生成部162において生成されるオブジェクト(アバター)には、このような対戦の機能のためのパラメータ(対戦パラメータ)が設定されていてもよい。対戦パラメータは、両方のユーザに共通の属性スコアに基づいて設定されうる。例えば、上記の図5の例の“運動フィルタ”に従って対戦パラメータが設定されてもよい。この場合、例えば消費カロリーの高い行動が多いユーザほど、知力、体力、判断力、集中力、運などといった対戦パラメータが高くなる。従って、日頃から自身を鍛錬しているユーザほど、アバターを用いた対戦でも有利でありうる。
 あるいは、対戦パラメータは、ユーザがそれぞれにフィルタなどを用いて設定した属性スコアに基づいて設定されてもよい。この場合、例えば、ユーザがそれぞれ自身の得意な属性のフィルタを指定した上でアバターを生成し、対戦することができる。例えば、ユーザAが“運動フィルタ”に従って対戦パラメータを設定するのに対して、ユーザBが“買い物フィルタ”に従って対戦パラメータを設定してもよい。この場合、腕っ節が強いユーザのアバターが対戦に必ずしも勝つとは限らず、何らかの属性で突出した属性スコアを有するユーザが勝つ場合もある。
 また、対戦パラメータは、アバターの見た目に反映されてもよいし、反映されなくてもよい。例えば、アバターの見た目を生成するために用いられる生成条件と、アバターに設定される対戦パラメータを生成するために用いられる生成条件とは、別個であってもよい。この場合、例えば、釣りが趣味のプロ野球選手のアバターが、見た目については“余暇の過ごし方”のフィルタが設定されているためにさほど強そうに見えないが、対戦パラメータについては“運動フィルタ”が設定されているためにとんでもなく強い、といったように、見た目と強さとのギャップによってゲーム性を増した対戦が実現される。
 図24は、図23に示したような表示を実現するための処理の例を示すフローチャートである。図示された例において、端末A、端末Bは、それぞれユーザA、ユーザBによって使用される端末である。サーバは、上記の例のサーバ150のようにオブジェクトを生成する機能を有するサーバであってもよいし、対戦ゲームのために用意された別のサーバであってもよい。前者の場合、サーバは、例えば上記の第3の実施形態のメッセージ送信部476などと同様に、所定の機能を実行する機能部として、対戦ゲームを制御する構成要素を有する。後者の場合、サーバは、予めサーバ150から、オブジェクト生成部162によって生成されたオブジェクト情報を取得する。
 まず、対戦の準備段階として、サーバで、各ユーザのオブジェクト情報に基づいて対戦パラメータを設定する(ステップS501)。次いで、端末A、端末Bで、それぞれ攻撃コマンドの送信(ステップS503)と守備コマンドの送信(ステップS505)とが実行される。サーバでは、送信された攻撃、守備コマンドに基づいて、対戦3Dグラフィック画像を生成する(ステップS507)。
 続いて、端末A、端末Bのそれぞれから、端末のカメラの位置、3次元方向、ズーム率などを示す撮像画像が送信される(ステップS509,S511)。これを受信したサーバは、撮像画像を比較して、対応する特徴点のうち画面ほぼ中央の基準点を特定する(ステップS513)。次に、サーバは、基準点を中心とした平面上に、各カメラの位置関係を考慮した3Dグラフィック画像をそれぞれ生成し(ステップS515)、端末A、端末Bに、それぞれ異なる3Dグラフィック画像を配信する(ステップS517)。
 次に、端末A、端末Bは、それぞれが配信された3Dグラフィック画像を表示する(ステップS519,S521)。それぞれの端末の視点が変化した場合、上記のステップS509~S521の処理が繰り返される。その後、次のターンの動作として、攻守が交代し、端末Aが守備コマンドを送信し(ステップS523)、端末Bが攻撃コマンドを送信する(ステップS525)。以下、同様の処理が繰り返される。
 なお、上記の処理は一例であり、本開示の実施形態としては、この他にもさまざまな対戦ゲームが可能である。例えば、必ずしも対戦ゲームの画像は3Dでなくてもよいし、攻撃コマンドと守備コマンドとによって進行するゲームでなくてもよい。また、ゲームは対戦ゲームには限られず、ユーザが単独でプレイするゲームであってもよい。この場合も、自らの属性スコアに基づいて生成されたプレーヤキャラクタを操作することで、上記の対戦ゲームの場合と同様の興趣が得られる。
 また、本実施形態を通じて、アバターなどのオブジェクトがユーザの実際の画像に重畳される例について説明したが、他の実施形態では、アバターが任意のアプリケーションの画面に表示されてもよい。従って、対戦ゲーム(またはそれ以外のゲーム)も、必ずしも実際の空間にアバターを重畳させるものでなくてよく、通常の2Dや3Dのゲーム画面と同様の画面で、ユーザのアバターがプレーヤキャラクタになるものでありうる。
 (5.ハードウェア構成)
 次に、図25を参照して、本開示の実施形態に係る情報処理装置のハードウェア構成について説明する。図25は、情報処理装置のハードウェア構成を説明するためのブロック図である。図示された情報処理装置900は、例えば、上記の実施形態における各種サーバおよびクライアントを実現しうる。
 情報処理装置900は、CPU(Central Processing unit)901、ROM(Read Only Memory)903、およびRAM(Random Access Memory)905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。さらに、情報処理装置900は、必要に応じて、撮像装置933、およびセンサ935を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、DSP(Digital Signal Processor)などの処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一次記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチおよびレバーなど、ユーザによって操作される装置である。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
 出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置(シースルー型やヘッドマウント型であってもよい)、スピーカおよびヘッドホンなどの音声出力装置、ならびにプリンタ装置などでありうる。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音声として出力したりする。
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
 接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどでありうる。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換されうる。
 通信装置925は、例えば、通信ネットワーク931に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、またはWUSB(Wireless USB)用の通信カードなどでありうる。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続される通信ネットワーク931は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
 撮像装置933は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置933は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
 センサ935は、例えば、加速度センサ、ジャイロセンサ、地磁気センサ、光センサ、音センサなどの各種のセンサである。センサ935は、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサ935は、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
 以上、情報処理装置900のハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更されうる。
 (6.補足)
 本開示の実施形態は、例えば、上記で説明したような情報処理装置(クライアントまたは各種サーバ)、システム、情報処理装置またはシステムで実行される情報処理方法、情報処理装置を機能させるためのプログラム、およびプログラムが記録された記録媒体を含みうる。
 なお、上記で説明した実施形態における各種サーバおよびクライアントは、必ずしもネットワーク上でのサーバまたはクライアントとしての役割を与えられた装置によって実現されなくてもよい。本開示の実施形態は、例えば、いわゆるメッシュネットワークにおいて、それぞれの端末(情報処理装置)が各種サーバまたはクライアントとして動作することによっても実現可能である。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)所定の期間に蓄積されたユーザの行動履歴情報を取得する行動履歴取得部と、
 属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する属性スコア算出部と、
 前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成するオブジェクト生成部と
 を備える情報処理装置。
(2)前記オブジェクトの生成条件を設定する条件設定部をさらに備える、前記(1)に記載の情報処理装置。
(3)前記条件設定部は、前記オブジェクトの生成において強調される前記属性スコアを選択する属性選択部を含む、前記(2)に記載の情報処理装置。
(4)前記条件設定部は、前記所定の期間のうち、前記オブジェクトの生成において強調される期間を選択する期間選択部を含む、前記(2)または(3)に記載の情報処理装置。
(5)前記条件設定部は、前記ユーザの操作に従って前記生成条件を設定する、前記(2)~(4)のいずれか1項に記載の情報処理装置。
(6)前記条件設定部は、前記オブジェクトが表示される状況に応じて前記生成条件を設定する、前記(2)~(5)のいずれか1項に記載の情報処理装置。
(7)前記属性スコア算出部は、前記属性群のうちの複数の属性について前記属性スコアを算出し、
 前記オブジェクト生成部は、前記各属性の属性スコアの比較に基づいて前記オブジェクトの種類を選択する、前記(1)~(6)のいずれか1項に記載の情報処理装置。
(8)前記属性群は、所定のイベントを達成したか否かを示す属性を含む、前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)前記オブジェクト生成部は、前記ユーザの実際の画像に重畳表示するための前記オブジェクトを生成する、前記(1)~(8)のいずれか1項に記載の情報処理装置。
(10)前記オブジェクト生成部は、前記ユーザの実際の画像の背景を表示することによって前記ユーザを隠蔽する前記オブジェクトを生成する、前記(9)に記載の情報処理装置。
(11)前記オブジェクト生成部は、前記属性スコアに応じて段階的に変化する前記オブジェクトを生成する、前記(1)~(10)のいずれか1項に記載の情報処理装置。
(12)前記オブジェクト生成部は、前記属性スコアに応じて色が変化する前記オブジェクトを生成する、前記(1)~(11)のいずれか1項に記載の情報処理装置。
(13)前記オブジェクト生成部は、地図上に表示するための前記オブジェクトを生成する、前記(1)~(12)のいずれか1項に記載の情報処理装置。
(14)前記地図上に表示された前記オブジェクトの観察者による、該オブジェクトのうちの少なくとも一部を指定する操作に関する情報を取得する操作取得部と、
 前記指定されたオブジェクトに対応する前記ユーザに対して所定の機能を実行する機能部と
 をさらに備える、前記(13)に記載の情報処理装置。
(15)前記操作は、地図上の領域を指定する操作を含む、前記(14)に記載の情報処理装置。
(16)前記行動履歴取得部は、複数のユーザについて前記行動履歴情報を取得し、
 前記属性スコア算出部は、前記複数のユーザについて前記属性スコアを算出し、
 前記オブジェクト生成部は、前記複数のユーザが互いに視認可能な前記オブジェクトを生成する、前記(1)~(15)のいずれか1項に記載の情報処理装置。
(17)ユーザの行動をセンシングするセンシング部と、
 前記センシングの結果をサーバに送信し、該センシングの結果を含む情報に基づいて生成される前記ユーザの行動履歴情報を所定の期間蓄積したものに基づいて属性群のうちの1または複数の属性について算出される属性スコアに基づいて生成される前記ユーザを表象するオブジェクトの情報を前記サーバから受信する通信部と、
 前記オブジェクトを表示部に表示させる表示制御部と
 を備える情報処理装置。
(18)クライアントおよびサーバを含み、
 前記クライアントは、
  ユーザの行動をセンシングするセンシング部と、
  前記センシングの結果をサーバに送信し、前記ユーザを表象するオブジェクトの情報を前記サーバから受信する通信部と、
  前記オブジェクトを表示部に表示させる表示制御部と
 を有し、
 前記サーバは、
  所定の期間に蓄積された、前記センシングの結果を含む情報に基づいて生成される前記ユーザの行動履歴情報を取得する行動履歴取得部と、
  属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する属性スコア算出部と、
  前記属性スコアに基づいて前記オブジェクトを生成するオブジェクト生成部と
 を有するシステム。
(19)所定の期間に蓄積されたユーザの行動履歴情報を取得することと、
 属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出することと、
 前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成することと
 を含む情報処理方法。
(20)所定の期間に蓄積されたユーザの行動履歴情報を取得する機能と、
 属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する機能と、
 前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成する機能と
 をコンピュータに実現させるためのプログラム。
 10,20,30,40,42  システム
 100,300,400  装置
 102  センシング部
 104  入力部
 106  表示制御部
 108  表示部
 110  通信部
 240  行動認識サーバ
 150,250  サーバ(オブジェクトサーバ)
 152  行動認識部
 156  行動履歴取得部
 158  属性スコア算出部
 162  オブジェクト生成部
 168,268  通信部
 170  期間選択部
 172  属性選択部
 474  操作取得部
 476  メッセージ送信部
 478  投稿受付部
 

Claims (20)

  1.  所定の期間に蓄積されたユーザの行動履歴情報を取得する行動履歴取得部と、
     属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する属性スコア算出部と、
     前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成するオブジェクト生成部と
     を備える情報処理装置。
  2.  前記オブジェクトの生成条件を設定する条件設定部をさらに備える、請求項1に記載の情報処理装置。
  3.  前記条件設定部は、前記オブジェクトの生成において強調される前記属性スコアを選択する属性選択部を含む、請求項2に記載の情報処理装置。
  4.  前記条件設定部は、前記所定の期間のうち、前記オブジェクトの生成において強調される期間を選択する期間選択部を含む、請求項2に記載の情報処理装置。
  5.  前記条件設定部は、前記ユーザの操作に従って前記生成条件を設定する、請求項2に記載の情報処理装置。
  6.  前記条件設定部は、前記オブジェクトが表示される状況に応じて前記生成条件を設定する、請求項2に記載の情報処理装置。
  7.  前記属性スコア算出部は、前記属性群のうちの複数の属性について前記属性スコアを算出し、
     前記オブジェクト生成部は、前記各属性の属性スコアの比較に基づいて前記オブジェクトの種類を選択する、請求項1に記載の情報処理装置。
  8.  前記属性群は、所定のイベントを達成したか否かを示す属性を含む、請求項1に記載の情報処理装置。
  9.  前記オブジェクト生成部は、前記ユーザの実際の画像に重畳表示するための前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  10.  前記オブジェクト生成部は、前記ユーザの実際の画像の背景を表示することによって前記ユーザを隠蔽する前記オブジェクトを生成する、請求項9に記載の情報処理装置。
  11.  前記オブジェクト生成部は、前記属性スコアに応じて段階的に変化する前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  12.  前記オブジェクト生成部は、前記属性スコアに応じて色が変化する前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  13.  前記オブジェクト生成部は、地図上に表示するための前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  14.  前記地図上に表示された前記オブジェクトの観察者による、該オブジェクトのうちの少なくとも一部を指定する操作に関する情報を取得する操作取得部と、
     前記指定されたオブジェクトに対応する前記ユーザに対して所定の機能を実行する機能部と
     をさらに備える、請求項13に記載の情報処理装置。
  15.  前記操作は、地図上の領域を指定する操作を含む、請求項14に記載の情報処理装置。
  16.  前記行動履歴取得部は、複数のユーザについて前記行動履歴情報を取得し、
     前記属性スコア算出部は、前記複数のユーザについて前記属性スコアを算出し、
     前記オブジェクト生成部は、前記複数のユーザが互いに視認可能な前記オブジェクトを生成する、請求項1に記載の情報処理装置。
  17.  ユーザの行動をセンシングするセンシング部と、
     前記センシングの結果をサーバに送信し、該センシングの結果を含む情報に基づいて生成される前記ユーザの行動履歴情報を所定の期間蓄積したものに基づいて属性群のうちの1または複数の属性について算出される属性スコアに基づいて生成される前記ユーザを表象するオブジェクトの情報を前記サーバから受信する通信部と、
     前記オブジェクトを表示部に表示させる表示制御部と
     を備える情報処理装置。
  18.  クライアントおよびサーバを含み、
     前記クライアントは、
      ユーザの行動をセンシングするセンシング部と、
      前記センシングの結果をサーバに送信し、前記ユーザを表象するオブジェクトの情報を前記サーバから受信する通信部と、
      前記オブジェクトを表示部に表示させる表示制御部と
     を有し、
     前記サーバは、
      所定の期間に蓄積された、前記センシングの結果を含む情報に基づいて生成される前記ユーザの行動履歴情報を取得する行動履歴取得部と、
      属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する属性スコア算出部と、
      前記属性スコアに基づいて前記オブジェクトを生成するオブジェクト生成部と
     を有するシステム。
  19.  所定の期間に蓄積されたユーザの行動履歴情報を取得することと、
     属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出することと、
     前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成することと
     を含む情報処理方法。
  20.  所定の期間に蓄積されたユーザの行動履歴情報を取得する機能と、
     属性群のうちの1または複数の属性について、前記行動履歴情報に基づく前記ユーザの属性スコアを算出する機能と、
     前記属性スコアに基づいて、前記ユーザを表象するオブジェクトを生成する機能と
     をコンピュータに実現させるためのプログラム。
     
PCT/JP2013/074152 2012-11-22 2013-09-06 情報処理装置、システム、情報処理方法およびプログラム WO2014080678A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP13856838.1A EP2924659A4 (en) 2012-11-22 2013-09-06 INFORMATION PROCESSING DEVICE, SYSTEM, INFORMATION PROCESSING AND PROGRAM
US14/428,069 US10037342B2 (en) 2012-11-22 2013-09-06 Information processing device, system, information processing method, and program
JP2014548484A JP6102939B2 (ja) 2012-11-22 2013-09-06 情報処理装置、システム、情報処理方法およびプログラム
CN201380054406.1A CN104737209A (zh) 2012-11-22 2013-09-06 信息处理装置、系统、信息处理方法和程序
US16/033,559 US11080310B2 (en) 2012-11-22 2018-07-12 Information processing device, system, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-256132 2012-11-22
JP2012256132 2012-11-22

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US14/428,069 A-371-Of-International US10037342B2 (en) 2012-11-22 2013-09-06 Information processing device, system, information processing method, and program
US16/033,559 Continuation US11080310B2 (en) 2012-11-22 2018-07-12 Information processing device, system, information processing method, and program

Publications (1)

Publication Number Publication Date
WO2014080678A1 true WO2014080678A1 (ja) 2014-05-30

Family

ID=50775869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/074152 WO2014080678A1 (ja) 2012-11-22 2013-09-06 情報処理装置、システム、情報処理方法およびプログラム

Country Status (5)

Country Link
US (2) US10037342B2 (ja)
EP (1) EP2924659A4 (ja)
JP (1) JP6102939B2 (ja)
CN (1) CN104737209A (ja)
WO (1) WO2014080678A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126744A (ja) * 2015-01-07 2016-07-11 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation モバイルアプリケーションのプロモーションプラットフォーム提供方法およびシステム
WO2016182504A1 (en) * 2015-05-08 2016-11-17 Chow Bryan Shwo-Kang A virtual reality headset
JP2017059032A (ja) * 2015-09-17 2017-03-23 株式会社Nttドコモ 推定装置
JP2018147458A (ja) * 2017-08-01 2018-09-20 株式会社コロプラ 情報処理方法、プログラム、仮想空間配信システム及び装置
WO2020026986A1 (ja) * 2018-07-31 2020-02-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2020036334A (ja) * 2015-04-10 2020-03-05 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイによって提示されるパーソナル空間コンテンツの制御
JP2020123277A (ja) * 2019-01-31 2020-08-13 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP2021043701A (ja) * 2019-09-11 2021-03-18 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
JP7113570B1 (ja) 2022-01-28 2022-08-05 株式会社PocketRD 3次元画像管理装置、3次元画像管理方法及び3次元画像管理プログラム
JP7354341B1 (ja) 2022-04-20 2023-10-02 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016006611A (ja) * 2014-06-20 2016-01-14 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN105477860A (zh) * 2015-12-22 2016-04-13 北京奇虎科技有限公司 游戏活动推荐方法及装置
CN106779339A (zh) * 2016-11-29 2017-05-31 捷开通讯(深圳)有限公司 一种智能快递方法及系统
JP2021105750A (ja) * 2018-04-02 2021-07-26 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
JP6919686B2 (ja) * 2019-08-21 2021-08-18 コニカミノルタ株式会社 情報処理装置、画像形成装置、情報処理システム、属性特定方法及びプログラム
JP2021140646A (ja) * 2020-03-09 2021-09-16 株式会社日立ハイテク ターゲットユーザ特徴抽出方法、ターゲットユーザ特徴抽出システム及びターゲットユーザ特徴抽出サーバ
JP2023075692A (ja) 2021-11-19 2023-05-31 株式会社コナミデジタルエンタテインメント 制御システム、情報システム、制御システムの動作方法およびプログラム

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190034A (ja) 2000-12-20 2002-07-05 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2003242095A (ja) * 2002-02-15 2003-08-29 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示方法及びその装置と、仮想空間表示プログラム及びそのプログラムを記録した記録媒体
JP2004005422A (ja) * 2002-02-09 2004-01-08 Lexer Research Inc サービス自動提供装置及びサービス自動提供方法
JP2004274550A (ja) * 2003-03-11 2004-09-30 Sony Ericsson Mobilecommunications Japan Inc 移動体通信端末装置
JP2005354392A (ja) * 2004-06-10 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> 状態表示方法および移動体通信端末およびシステム
JP2005354391A (ja) * 2004-06-10 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> 状態表示方法および移動体通信システムおよびゲートウェイ
JP2008083290A (ja) 2006-09-27 2008-04-10 Sony Corp 表示装置、表示方法
JP2010134802A (ja) 2008-12-05 2010-06-17 Sony Corp 情報処理装置、及び情報処理方法
JP2011525648A (ja) * 2008-06-02 2011-09-22 ナイキ インターナショナル リミテッド アバタを作成するためのシステムおよび方法
JP2012008771A (ja) 2010-06-24 2012-01-12 Sony Corp 情報処理装置、情報処理システム、情報処理方法およびプログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7203356B2 (en) * 2002-04-11 2007-04-10 Canesta, Inc. Subject segmentation and tracking using 3D sensing technology for video compression in multimedia applications
US8033996B2 (en) * 2005-07-26 2011-10-11 Adidas Ag Computer interfaces including physiologically guided avatars
US7991401B2 (en) * 2006-08-08 2011-08-02 Samsung Electronics Co., Ltd. Apparatus, a method, and a system for animating a virtual scene
ITMI20071754A1 (it) * 2007-09-12 2009-03-13 Sin & Rgetica S R L Sistema elettronico e metodo per la raccolta telematica di dati relativi a prodotti o servizi
US20090193343A1 (en) * 2008-01-24 2009-07-30 International Business Machines Corporation Method for avoiding virtual world fatigue by maintaining avatar characteristics in an avatar wallet
JP5527940B2 (ja) 2008-04-16 2014-06-25 任天堂株式会社 ゲームシステム、ゲームプログラム、ゲーム装置、サーバおよびゲーム方法
JP2010021943A (ja) * 2008-07-14 2010-01-28 Sanyo Electric Co Ltd 撮像装置
US20100017237A1 (en) * 2008-07-15 2010-01-21 Where I've Been, Llc Travel-related methods, systems and devices
US8661073B2 (en) * 2009-03-06 2014-02-25 Trion Worlds, Inc. Synthetic environment character data sharing
JP5423379B2 (ja) * 2009-08-31 2014-02-19 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
US9400548B2 (en) * 2009-10-19 2016-07-26 Microsoft Technology Licensing, Llc Gesture personalization and profile roaming
US9766089B2 (en) * 2009-12-14 2017-09-19 Nokia Technologies Oy Method and apparatus for correlating and navigating between a live image and a prerecorded panoramic image
CA2823343A1 (en) * 2011-01-03 2012-07-12 David MONTOYA Geo-location systems and methods
US20120326873A1 (en) * 2011-06-10 2012-12-27 Aliphcom Activity attainment method and apparatus for a wellness application using data from a data-capable band
US10127564B2 (en) * 2011-09-15 2018-11-13 Stephan HEATH System and method for using impressions tracking and analysis, location information, 2D and 3D mapping, mobile mapping, social media, and user behavior and information for generating mobile and internet posted promotions or offers for, and/or sales of, products and/or services
US20140223326A1 (en) * 2013-02-06 2014-08-07 International Business Machines Corporation Apparatus and methods for co-located social integration and interactions

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002190034A (ja) 2000-12-20 2002-07-05 Sony Corp 情報処理装置および方法、並びに記録媒体
JP2004005422A (ja) * 2002-02-09 2004-01-08 Lexer Research Inc サービス自動提供装置及びサービス自動提供方法
JP2003242095A (ja) * 2002-02-15 2003-08-29 Nippon Telegr & Teleph Corp <Ntt> 仮想空間表示方法及びその装置と、仮想空間表示プログラム及びそのプログラムを記録した記録媒体
JP2004274550A (ja) * 2003-03-11 2004-09-30 Sony Ericsson Mobilecommunications Japan Inc 移動体通信端末装置
JP2005354392A (ja) * 2004-06-10 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> 状態表示方法および移動体通信端末およびシステム
JP2005354391A (ja) * 2004-06-10 2005-12-22 Nippon Telegr & Teleph Corp <Ntt> 状態表示方法および移動体通信システムおよびゲートウェイ
JP2008083290A (ja) 2006-09-27 2008-04-10 Sony Corp 表示装置、表示方法
JP2011525648A (ja) * 2008-06-02 2011-09-22 ナイキ インターナショナル リミテッド アバタを作成するためのシステムおよび方法
JP2010134802A (ja) 2008-12-05 2010-06-17 Sony Corp 情報処理装置、及び情報処理方法
JP2012008771A (ja) 2010-06-24 2012-01-12 Sony Corp 情報処理装置、情報処理システム、情報処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2924659A4

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016126744A (ja) * 2015-01-07 2016-07-11 エヌエイチエヌ エンターテインメント コーポレーションNHN Entertainment Corporation モバイルアプリケーションのプロモーションプラットフォーム提供方法およびシステム
JP2020036334A (ja) * 2015-04-10 2020-03-05 株式会社ソニー・インタラクティブエンタテインメント ヘッドマウントディスプレイによって提示されるパーソナル空間コンテンツの制御
WO2016182504A1 (en) * 2015-05-08 2016-11-17 Chow Bryan Shwo-Kang A virtual reality headset
JP2017059032A (ja) * 2015-09-17 2017-03-23 株式会社Nttドコモ 推定装置
JP2018147458A (ja) * 2017-08-01 2018-09-20 株式会社コロプラ 情報処理方法、プログラム、仮想空間配信システム及び装置
WO2020026986A1 (ja) * 2018-07-31 2020-02-06 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
JP2020123277A (ja) * 2019-01-31 2020-08-13 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP7160707B2 (ja) 2019-01-31 2022-10-25 株式会社スクウェア・エニックス 仮想キャラクタを含む画像を提供するための方法
JP2021043701A (ja) * 2019-09-11 2021-03-18 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
JP7037527B2 (ja) 2019-09-11 2022-03-16 本田技研工業株式会社 情報提供装置、情報提供方法、およびプログラム
US11494962B2 (en) 2019-09-11 2022-11-08 Honda Motor Co., Ltd. Information providing apparatus, information providing method, and storage medium for providing information associated with an onboard battery
JP7113570B1 (ja) 2022-01-28 2022-08-05 株式会社PocketRD 3次元画像管理装置、3次元画像管理方法及び3次元画像管理プログラム
JP2023110436A (ja) * 2022-01-28 2023-08-09 株式会社PocketRD 3次元画像管理装置、3次元画像管理方法及び3次元画像管理プログラム
JP7354341B1 (ja) 2022-04-20 2023-10-02 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム
JP2023159664A (ja) * 2022-04-20 2023-11-01 ヤフー株式会社 情報処理装置、情報処理方法、および情報処理プログラム

Also Published As

Publication number Publication date
US20180322145A1 (en) 2018-11-08
JP6102939B2 (ja) 2017-03-29
US10037342B2 (en) 2018-07-31
CN104737209A (zh) 2015-06-24
JPWO2014080678A1 (ja) 2017-01-05
US20150254275A1 (en) 2015-09-10
EP2924659A1 (en) 2015-09-30
EP2924659A4 (en) 2016-07-13
US11080310B2 (en) 2021-08-03

Similar Documents

Publication Publication Date Title
JP6102939B2 (ja) 情報処理装置、システム、情報処理方法およびプログラム
JP7002684B2 (ja) 拡張現実および仮想現実のためのシステムおよび方法
CN111462307B (zh) 虚拟对象的虚拟形象展示方法、装置、设备及存储介质
US20190070510A1 (en) Information storage medium and server device
JP4985970B2 (ja) オブジェクトの表示を制御する技術
JP5164061B2 (ja) ユーザのコミュニケーションを支援する技術
CN112870705B (zh) 对局结算界面的显示方法、装置、设备及介质
JP2018075260A (ja) ゲームシステム及びプログラム
JP2013162836A (ja) ゲームサーバ装置、プログラム及びゲーム装置
US20230162433A1 (en) Information processing system, information processing method, and information processing program
JP7187092B1 (ja) ハッシュタグシステム、ハッシュタグ付与方法、ハッシュタグ付与プログラム
JP7245890B1 (ja) 情報処理システム、情報処理方法、情報処理プログラム
JP2024011933A (ja) 情報処理システム、情報処理方法、及びプログラム
WO2023032264A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7265085B1 (ja) 情報処理システム、情報処理方法、及びプログラム
JP7445723B1 (ja) プログラムおよび情報処理システム
JP7227672B1 (ja) ハッシュタグシステム、ハッシュタグ付与方法、ハッシュタグ付与プログラム
JP7454166B2 (ja) 情報処理システム、情報処理方法、及び記憶媒体
JP2023178627A (ja) 情報処理システム、情報処理方法、及びプログラム
CN117859154A (zh) 信息处理装置、信息处理方法和程序
JP2024048105A (ja) プログラムおよび情報処理システム
JP2024048103A (ja) プログラムおよび情報処理システム
JP2024049926A (ja) プログラムおよび情報処理システム
JP2024000573A (ja) 情報処理システム、情報処理方法、及びプログラム
JP2024012051A (ja) ハッシュタグシステム、ハッシュタグ付与方法、ハッシュタグ付与プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13856838

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014548484

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14428069

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2013856838

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE