WO2014002239A1 - 情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム - Google Patents

情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム Download PDF

Info

Publication number
WO2014002239A1
WO2014002239A1 PCT/JP2012/066617 JP2012066617W WO2014002239A1 WO 2014002239 A1 WO2014002239 A1 WO 2014002239A1 JP 2012066617 W JP2012066617 W JP 2012066617W WO 2014002239 A1 WO2014002239 A1 WO 2014002239A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
activity
content
terminal
user
Prior art date
Application number
PCT/JP2012/066617
Other languages
English (en)
French (fr)
Inventor
真一 本多
義勝 金丸
永塚 仁夫
真一 狩谷
松田 晃一
Original Assignee
株式会社ソニー・コンピュータエンタテインメント
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソニー・コンピュータエンタテインメント filed Critical 株式会社ソニー・コンピュータエンタテインメント
Priority to PCT/JP2012/066617 priority Critical patent/WO2014002239A1/ja
Priority to CN201280074112.0A priority patent/CN104395936B/zh
Priority to US14/408,027 priority patent/US9754386B2/en
Publication of WO2014002239A1 publication Critical patent/WO2014002239A1/ja

Links

Images

Classifications

    • A63F13/12
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/30Interconnection arrangements between game servers and game devices; Interconnection arrangements between game devices; Interconnection arrangements between game servers
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/30Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by output arrangements for receiving control signals generated by the game device
    • A63F2300/308Details of the user interface
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/53Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing
    • A63F2300/535Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers details of basic data processing for monitoring, e.g. of user parameters, terminal parameters, application parameters, network parameters
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation

Definitions

  • Information processing system information processing apparatus, information terminal apparatus, information processing method, information processing program
  • a so-called community service is known in which characters operated by each user are arranged in a virtual space, and the user can communicate with other users in the virtual space.
  • the position and posture of the character corresponding to the user change according to the operation by the operation means of the terminal used by the user, and communication with other users can be achieved through a chat function or the like. it can.
  • each user freely moves in accordance with each user's operation in the virtual space, so that each user's life activity, for example, moving, working, etc. In some cases, it is difficult for the user of this system to visually know.
  • an object of the present invention is to provide an information processing apparatus or the like that realizes a community service with higher value for a user.
  • the information processing system of the present invention arranges objects corresponding to a plurality of users in a virtual space, and displays a moving image showing the virtual space as viewed from a predetermined viewpoint arranged in the virtual space.
  • activity information obtaining means for sequentially obtaining activity information representing the behavior of at least one of the plurality of users, and the object according to the obtained activity information
  • a placement area determination means for determining a partial area in the virtual space
  • a motion data acquisition means for acquiring motion data stored in association with the activity information according to the acquired activity information
  • the acquired motion data Characterized in that it comprises a and object control means for operating on said object in response to.
  • the information processing program of the present invention arranges an object corresponding to a plurality of users in a virtual space, and displays a moving image showing the virtual space as viewed from a predetermined viewpoint arranged in the virtual space.
  • a program for generating moving image information that represents activity information acquisition means for sequentially acquiring activity information representing the behavior of at least one user among the plurality of users, according to the acquired activity information, Arranging an object, an arrangement area determining means for determining a partial area in the virtual space, a motion data acquiring means for acquiring motion data stored in association with the activity information according to the acquired activity information, and In the partial area, the acquired motion data is
  • the object control means for operating on said object in response to the data, as a program for causing a computer to function.
  • the information processing method of the present invention arranges an object corresponding to a plurality of users in a virtual space, and displays a moving image showing the virtual space as viewed from a predetermined viewpoint arranged in the virtual space.
  • the information processing method for generating moving image information representing sequentially acquiring activity information representing an action of at least one of the plurality of users, and arranging the object according to the acquired activity information
  • a partial area in the virtual space is determined, and motion data stored in association with the activity information is acquired according to the acquired activity information.
  • the object is determined according to the acquired motion data. It is made to operate.
  • the information terminal device of the present invention arranges objects corresponding to a plurality of users in the virtual space, and moving image information showing a state in which the virtual space is viewed from a predetermined viewpoint arranged in the virtual space
  • Content identification information acquisition means for acquiring content identification information for identifying content
  • activity identification information means for acquiring activity identification information for identifying user behavior
  • a user for identifying a user Identification information acquisition means
  • activity information transmission means for sequentially transmitting activity information including the user identification information, the content identification information, and the user identification information to the information processing apparatus
  • moving image information acquisition means for acquiring the moving image information
  • display means for displaying the acquired moving image, and the moving image information
  • the object characterized in that said activity moving picture information was operated at the obtained motion data according to the information.
  • the information terminal device of the present invention arranges objects corresponding to a plurality of users in the virtual space, and moving image information showing a state in which the virtual space is viewed from a predetermined viewpoint arranged in the virtual space
  • Content identification information acquiring means for acquiring content identification information for identifying content, activity identification information acquiring means for acquiring activity identification information for identifying user behavior, and user identification for identifying a user Information acquisition means; activity information transmission means for sequentially transmitting activity information including the user identification information, the content identification information, and the user identification information to the information processing apparatus; and moving image information acquisition means for acquiring the moving image information;
  • Display means for displaying the acquired moving image, and the moving image Information, in the partial area in the virtual space corresponding to the content identification information, said object, characterized in that it is a moving picture information is operated at the obtained motion data according to the activity identifier.
  • FIG. 1 is a diagram for explaining the outline of the hardware configuration of the information processing system according to the present embodiment.
  • the information processing system 100 includes a server 110 and a terminal 120 connected via a network 130 (for example, the Internet).
  • the information processing system 100 shows only one terminal 120, but may have a plurality of terminals 120.
  • the terminal 120 may include not only the same type of terminal but also different types of terminals.
  • the terminal 120 corresponds to a home stationary game device, a mobile game device, a mobile terminal such as a mobile phone, a personal computer, a tablet, and other electronic devices.
  • the server 110 includes a control unit 111, a storage unit 112, and a communication unit 113.
  • the control unit 111 is a CPU or the like, for example, and operates according to a program stored in the storage unit 112.
  • the storage unit 112 is an information recording medium that includes an information recording medium such as a hard disk, a ROM, or a RAM, and holds a program executed by the control unit 111.
  • the storage unit 112 also operates as a work memory for the control unit 111.
  • the communication unit 113 is a network interface, and transmits and receives information via the network 130 in accordance with an instruction from the control unit 111. Note that the control unit 111, the storage unit 112, and the communication unit 113 are each connected via a bus 114.
  • the terminal 120 includes, for example, a control unit 121, a communication unit 122, a storage unit 123, a display unit 124, and an operation unit 125.
  • the units 121 to 125 are connected via a bus 126.
  • the control unit 121 is, for example, a CPU or MPU, and operates according to a program stored in the storage unit 112.
  • the storage unit 123 is an information recording medium that includes an information recording medium such as a hard disk, a ROM, or a RAM, and holds a program executed by the control unit 121.
  • the storage unit 123 also operates as a work memory for the control unit 121.
  • the operation unit 125 includes, for example, an interface such as a keyboard, a mouse, a controller, and a button, and outputs the content of the instruction operation to the control unit 121 in accordance with a user instruction operation.
  • the display unit 124 is, for example, a liquid crystal display, a CRT display, an organic EL display, or the like, and displays information according to an instruction from the control unit 121.
  • the terminal 120 may be configured to have a so-called touch panel in which the display unit 124 and the operation unit 125 are integrated.
  • the programs processed by the control units 111 and 121 may be provided by being downloaded via a network, for example, or various programs that can be read by a computer such as a CD-ROM or a DVD-ROM. It may be provided by an information recording medium.
  • a network for example, or various programs that can be read by a computer such as a CD-ROM or a DVD-ROM. It may be provided by an information recording medium.
  • the configurations of the server 110 and the terminal 120 are merely examples, and are not limited thereto. Details of the functional configurations of the server 110 and the terminal 120 will be described later.
  • FIG. 2 is a diagram for explaining a functional configuration of a server for realizing the functions in the present embodiment.
  • the server 110 includes, for example, a login information acquisition unit 131, a terminal ID registration unit 132, a terminal ID storage unit 133, a terminal information acquisition unit 134, a terminal information storage unit 135, a monitoring unit 136, and operation information acquisition. Section 137, distribution information generation section 138, and distribution section 139.
  • the functional configuration shown in FIG. 2 is merely an example, and the present embodiment is not limited to this.
  • the login information acquisition unit 131 acquires login information from a plurality of terminals 120.
  • the login information includes, for example, a user ID (user identification information) for identifying a user and a terminal ID (terminal identification information) for identifying each terminal 120.
  • the login corresponds to, for example, login to a service (community) provided by the information processing system 100, and each terminal 120 used by the user can receive provision of the service by logging in.
  • the services provided by the information processing system 100 are various services.
  • a service that provides content such as a service that allows a user to play a game on the terminal 120, a service that allows a user to watch a movie, A service that can use a bulletin board, a service that can use a chat function, and the like.
  • the terminal ID registration unit 132 registers a plurality of terminal IDs in the terminal ID storage unit 133 in association with each user ID acquired by the login information acquisition unit 131. For example, when the login information acquisition unit 131 acquires login information including the user ID: U1 and the terminal ID: t1, and then acquires login information including the user ID: U1 and the terminal ID: t2, the terminal ID registration unit As shown in FIG. 3, the terminal 132 stores terminal IDs: t1 and t2 in the terminal ID storage unit 133 in association with the user ID: U1.
  • FIG. 3 shows a case where two terminal IDs are stored for one user ID, but the present invention is not limited to this, and other numbers, for example, three or more terminal IDs are stored in association with one user ID. May be.
  • the terminal ID for identifying the terminal 120 for example, an IP address (Internet Protocol address) or a MAC address (Media Access Control address) is used.
  • the terminal ID may be input by the user, or a unique ID (processor serial number (PSN) of the terminal 120) may be used.
  • PSN processor serial number
  • the terminal information acquisition unit 134 acquires the terminal information of the terminal 120.
  • the terminal information corresponds to information representing the performance of the terminal 120 such as the resolution of the display unit 124 in the terminal 120, the performance of the CPU, the capacity of the memory, and the like.
  • the terminal information may include information related to the connection status between each terminal 120 and the server 110 such as a network delay.
  • information regarding the connection status between the one terminal 120 and the other terminal 120 may be included.
  • the terminal information may be configured to be included in the login information, for example, or may be configured to be acquired from the corresponding terminal 120 in response to a request instruction from the terminal information acquisition unit 134. Good.
  • the acquired terminal information is stored in the terminal information storage unit 135 in association with the corresponding terminal ID, for example.
  • the monitoring unit 136 monitors the connection status between each terminal 120 and the server 110 that are in a login state for each desired period. Specifically, for example, the monitoring unit 136 monitors the connection status between each terminal 120 and the server 110 stored in the terminal ID storage unit 133. When one terminal 120 is connected to the server 110 via another terminal 120, the connection status between the one terminal 120 and the other terminal 120 is also monitored. For example, the monitoring unit 136 transmits a signal for confirming whether or not the connection state between the server 110 and the terminal 120 is ensured every predetermined period to the terminal 120, and the response signal for the signal from the terminal 120 is transmitted. It is done depending on the presence or absence.
  • the operation information acquisition unit 137 acquires operation information corresponding to various operation instructions input to the terminal 120. Specifically, for example, the operation information is instructed to distribute the distribution information distributed to one terminal 120 used by the user to another terminal 120 used by the user. Operation information is included.
  • the distribution information generation unit 138 generates a plurality of distribution information to be distributed to each terminal 120 registered for each user ID.
  • Each terminal 120 is identified by the terminal ID stored in the terminal ID storage unit 133 in association with each user ID as described above.
  • the plurality of pieces of distribution information may be configured to be generated according to an operation instruction from the user, may be configured to be generated based on a predetermined condition, or both of them may be generated. There may be.
  • the plurality of pieces of distribution information may be all or partly duplicated.
  • the predetermined condition is, for example, when image information corresponding to a game and a chat function is provided by the information processing system 100, image information for playing the game, and an image for realizing the chat function. It corresponds to a predetermined condition such as providing information.
  • the distribution unit 139 distributes the plurality of pieces of distribution information generated by the distribution information generation unit 138 to each terminal 120 registered in plural for each user ID. Specifically, for example, the distribution unit 139 transmits a plurality of different pieces of distribution information generated by the distribution information generation unit 138 to each corresponding terminal 120 according to the terminal information stored in the terminal information storage unit 135. To do. In this case, for example, when two pieces of terminal information having different resolutions are stored for one user ID, image information requiring a high resolution is distributed to the terminal 120 having a higher resolution, and only a low resolution is required. The image information is distributed to the terminal 120 having a low resolution. Specifically, for example, in the case of the above example, the game image information is distributed to the high-resolution terminal 120, and the image information for realizing the chat function is distributed to the low-resolution terminal 120.
  • the distribution unit 139 may be configured to distribute a plurality of different pieces of distribution information generated by the distribution information generation unit 138 based on the monitoring result of the monitoring unit 136. For example, when the terminal information of 2 is registered for one user ID, and the monitoring unit 136 determines that the connection of one terminal 120 out of the two terminals 120 is disconnected, One piece of distribution information among the distribution information may be distributed to the terminal 120 whose connection is maintained. Specifically, for example, when the main distribution information and the sub distribution information are distributed to the second terminal 120, the connection of the terminal 120 (main terminal) to which the main distribution information is distributed is maintained.
  • the sub distribution information is displayed on the display unit 124 of the main terminal 120 so-called head-up. You may comprise so that it may display as a display (Head-Up
  • the distribution unit 139 distributes a plurality of pieces of distribution information to the main terminal 120 together with an instruction for designating the display method as described above.
  • the main terminal 120 has higher performance than the sub-terminal 120, such as the terminal 120 having a larger display screen, the terminal 120 having a higher resolution, and the terminal 120 having a higher CPU performance. This corresponds to the terminal 120 that the user mainly uses.
  • the main terminal 120 and the sub terminal 120 may be configured so that the user can specify them.
  • the distribution unit 139 distributes a plurality of distribution information to different terminals 120 registered in association with one user ID according to the degree of network delay or connection status in the connection between the distribution unit 139 and the terminal 120. You may comprise. That is, for example, when one piece of distribution information is moving image information corresponding to a race game, the moving image information is distributed to the terminal 120 having a better connection state and a higher response.
  • the distribution unit 139 may be configured to continue only the processing that is possible in the sub terminal 120. For example, when the distribution information in the sub terminal 120 is distribution information corresponding to the chat function, the main terminal 120 cannot play a game, but only the chat function corresponding to the game is continuously performed in the sub terminal 120. And so on. Further, the distribution unit 139 may be configured to be able to select which terminal 120 to distribute the distribution information in accordance with a user operation instruction.
  • the terminal 120 includes, for example, an operation instruction acquisition unit 901, an operation information transmission unit 902, a moving image information acquisition unit 906, a moving image information reproduction unit 907, a user ID acquisition unit 908, and a terminal information acquisition unit 909.
  • an operation instruction acquisition unit 901 an operation information transmission unit 902
  • a moving image information acquisition unit 906 a moving image information reproduction unit 907
  • a user ID acquisition unit 908 and a terminal information acquisition unit 909.
  • the operation instruction acquisition unit 901 acquires an operation instruction input to the operation unit 125 of the terminal 120.
  • the operation instructions are various operation instructions.
  • the game instruction This is an operation instruction for moving or operating the operation target.
  • the operation information transmission unit 902 transmits an operation instruction to the server 110 as operation information.
  • the user ID acquisition unit 908 acquires user identification information (user ID) for identifying a user. Specifically, for example, the user ID input by the user is acquired.
  • the user ID may be configured to be acquired via the operation unit 124, or may be configured to be input by other methods such as holding a predetermined card.
  • the moving image information acquisition unit 906 acquires moving image information for realizing a service provided from the server 110. Then, the moving image information reproduction unit 907 displays the moving image information on the display unit 124.
  • the moving image information has been described. However, other distribution information such as other image information and audio information may be acquired and reproduced. Note that the distribution information acquisition unit and the distribution information reproduction unit described in the claims correspond to, for example, the moving image information acquisition unit 906 and the moving image information reproduction unit 907, respectively.
  • the terminal information acquisition unit 909 acquires the terminal information of the terminal 120.
  • the terminal information corresponds to information related to the performance of the terminal 120 such as the resolution of the display unit 124 of the terminal 120 and the performance of the CPU.
  • the terminal ID acquisition unit 911 acquires a terminal ID that identifies the terminal 120. As described above, a MAC address or the like is used for the terminal ID.
  • the login information transmission unit 910 transmits login information including a login request instruction together with the user ID acquired by the user ID acquisition unit 908 and the terminal ID to the server 110.
  • the login information may include terminal information acquired by the terminal information acquisition unit 909.
  • one user logs in to a service provided by the server 110 using a plurality of terminals 120, and thereby a plurality of different pieces of image information (included in the service provided by the server 110 ( (Including moving image information) can be displayed on the display units 124 of the plurality of terminals 120.
  • the present invention is not limited to the above embodiment, and various modifications are possible.
  • it can be replaced with a configuration that is substantially the same as the configuration described in the above embodiment, a configuration that exhibits the same operational effects, or a configuration that can achieve the same purpose.
  • the distribution information displayed by the distribution information generation unit 138 in the first embodiment corresponds to distribution information for providing a community service in a virtual space to be described later.
  • moving image information (distribution information) generated by the information processing system 100 in the present embodiment is displayed on the terminal 120 in order to facilitate understanding of the community service in the present embodiment.
  • a moving image displayed on the unit 124 will be described. The following is only an example, and the present embodiment is not limited to this.
  • the user reaches the target community by sequentially selecting the lower concept items from the higher concept items. Specifically, for example, the user first selects one category from the displayed category group (higher concept item), and then selects one of the content type groups belonging to the category as the lower concept. The type (medium concept item) is selected, and one content item (small concept item) is selected from the content group included in the selected type, and the community corresponding to the content item is reached.
  • the large, medium, and small item divisions are examples, and the items may be divided into other stages.
  • the case where the upper concept item corresponds to a category plate described later and the lower concept item corresponds to a content plate described later will be described as an example.
  • the present embodiment is limited to this. is not.
  • the content plate is not limited to the following as long as it is a display of one community space in the virtual space.
  • the virtual space 200 is distinguished for each category.
  • a plurality of category plates 210 that are island-like regions are displayed on the plurality of display units 124.
  • the categories correspond to categories such as games, music, and movies, for example.
  • Each category plate 210 includes, for example, an area 201 that represents each category, and an area 202 that further categorizes each category arranged in the vicinity thereof. Specifically, for example, the category plate 210 for the game shown in the center of FIG. 5 will be described.
  • the area 201 representing the category a sign 203 and an object 204 representing the name of the game category are arranged, and its surroundings.
  • an object 206 including a sign (name) 205 representing each game type such as an adventure game, a shooting game, and a simulation game is arranged.
  • these objects 204 and 206 have a shape and color design that can associate the above categories and types. Specifically, for example, as shown in FIG. 5, as an object 206 representing the type of shooting game, a sign 205 representing a name such as “Shooter” is arranged together with a gun.
  • each category plate 210 and the object 206 indicating each type may be configured to change depending on the number of users who log in to the community and belong to the category. For example, when the number of users who are listening to music is large among the users logged in to the community and the number of users who are playing the game is small, the size and area of the music category plate 210 are as follows.
  • the game category plate 210 may be displayed smaller than the size and area of the game category plate 210.
  • the object 206 corresponding to the shooting game This area may be displayed smaller than the area of the object 204 corresponding to the simulation game.
  • the category plate 210 and the size of each object 206 may be configured to change in accordance with the number of users belonging to each category and various types.
  • the counting of the number of users belonging to each category and various types is performed based on activity information transmitted every predetermined period from the terminal 120 corresponding to each user. Details of the activity information and the like will be described later. To do.
  • each content plate 310 corresponds to each game belonging to the type (for example, shooting).
  • each content plate 310 is arranged in a plurality of spaces in a virtual space 300 in an island shape.
  • the content plate 310 can be displayed from various directions and angles by moving the viewpoint arranged in the virtual space 300 using the operation unit 125 of the terminal 120. Specifically, for example, the viewpoint is moved to another content plate 310 and the other content plate 310 is displayed from various directions or angles, or a part of one content plate 310 is displayed in various directions. Or it is possible to display from an angle.
  • Each content plate 310 represents a community for each content. Specifically, for example, the content plate 310 enlarged in the center of FIG. 6 shows the content plate 310 for one game. FIG. 7 also shows further details of the content plate 310.
  • a plurality of objects (avatars 301) representing characters corresponding to the respective users are arranged on the content plate 310.
  • each of the users may be a part of a group of users who have logged into the information processing system 100. That is, it is not always necessary that all logged-in users are displayed on the content plate 310.
  • the partial user group is extracted from all the logged-in user groups on a predetermined basis. Specifically, for example, an arbitrary user may be randomly extracted from the logged-in users, and for example, a user who is performing a specific activity such as fishing is preferentially displayed. Also good.
  • the predetermined standard may be a standard according to the country or region where each terminal 120 exists. Further, these criteria may be used in combination.
  • a function object 302 having various functions may be arranged in a part of the content plate 310.
  • the functional object 302 is a screen object that displays information related to the game community, and for example, a moving image related to the game may be displayed on the screen.
  • a link to a page on the Internet related to the community may be pasted.
  • the functional object 302 may correspond to a predetermined event, for example, when each user performs a predetermined operation or when a predetermined number of users or more gather on a predetermined content plate.
  • the functional object 302 is a game in which a moving image of a predetermined object corresponding to the content is displayed, and each user corresponding to the content plate can play in cooperation when a predetermined standard is satisfied It may be other events such as starting.
  • the function object 302 may correspond to an event such as a new monster being displayed in addition to the event on the screen shown in FIG.
  • Each avatar 301 is arranged in an area corresponding to each user's activity, and is controlled to perform an operation corresponding to an activity currently performed by the user or an activity performed within a predetermined period from the current time.
  • each user does not operate each avatar 301 corresponding to the user but moves and operates according to the user's activity.
  • the activity information representing the activity is transmitted from the terminal 120 corresponding to each user, which will be described later in detail.
  • activities include life activities and content activities.
  • a life activity represents an activity in a user's actual life, for example, eating, moving, working, etc.
  • a content activity is, for example, playing a predetermined game or listening to predetermined music.
  • Activity based on predetermined content, such as watching a movie or watching a predetermined movie. If the life activity changes, the avatar moves to the partial area corresponding to the changed life activity on the same content plate, and if the content activity changes, the avatar changes to the life activity of a different content plate. Move to the area corresponding to.
  • the content activity is identified by a content ID (content identification information)
  • the life activity is identified by an activity ID (activity identification information), which will be described in detail later.
  • the activity information includes information indicating that the user is working
  • an action of sitting at a desk and working using a PC is expressed.
  • the activity information includes information indicating that the user is moving on a vehicle (for example, a car, a train, an airplane, or a ship), for example, a state of riding on a vehicle (for example, driving) And movements that are held on the straps of the train).
  • different movements may be expressed by moving means (for example, a car or a train).
  • the activity information includes information indicating that the user is eating
  • the motion in which the avatar 301 is eating is expressed using motion data corresponding to the operation during the meal.
  • activity information from the terminal 120 described later includes information indicating that the user is drinking
  • a drinking operation is expressed together with a glass such as beer. That is, the avatar 301 is displayed in an operation that represents each life activity of the user, that is, an operation that can associate the life activity of the user.
  • each content plate 310 is set with a partial area corresponding to each action (life activity) of the user such as working or eating, and the avatar 301 is assigned to each life activity as described above.
  • the corresponding partial area is displayed so as to perform each operation.
  • the motions expressed are, for example, fishing, moving by train, running, riding a bicycle, walking It may include other operations, such as Further, the partial regions corresponding to the respective operations may overlap with each other, or their areas and sizes may be different.
  • each avatar 301 is displayed on each content plate 310 so as to operate while wearing a costume corresponding to each content.
  • the game when a certain game is being played, the game is displayed so as to operate with a costume representing the game. That is, each costume is set for each content (for example, for each game), and each content is associated with each costume. In addition to the costume, it may be displayed together with items specific to the content.
  • a texture representing a costume is mapped to the model data of the basic shape of the avatar 301 as shown in the left of FIG. 8 (upper right of FIG. 8), and further, according to each life activity It is displayed by operation (see the lower right in FIG. 8).
  • FIG. 8 In addition, in FIG.
  • movement during a meal, the work, and the movement on a train is represented from the left.
  • the configuration for mapping the texture has been described as the configuration for changing the costume of the avatar 301.
  • other configurations such as a configuration for changing the model data of the avatar 301 and a configuration for changing the animation data may be used. Good.
  • each avatar 301 may be configured to be displayed with a costume corresponding to the content executed last. Specifically, for example, after a game is played and after the game is finished, the game is kept within a predetermined period until another content such as the next game, music, or movie is executed. Are displayed on the corresponding content plate 310. For example, when a user activity (life activity) is changed during the predetermined period, an operation (for example, a life activity after the change is changed from the life activity before the change (for example, moving by train)). , During a meal), the corresponding area is moved and displayed. On the other hand, when a user's content activity changes, it moves to a corresponding content plate and is displayed according to the current life activity.
  • a user activity life activity
  • an operation for example, a life activity after the change is changed from the life activity before the change (for example, moving by train)
  • the corresponding area is moved and displayed.
  • a user's content activity changes, it moves to a corresponding content plate and is displayed according
  • the distribution information generation unit 138 and the distribution unit 139 of the server 110 in the first embodiment include, for example, an activity information acquisition unit 601, a category plate generation unit 603, a content, as shown in FIG.
  • a plate generation unit 604, a content plate storage unit 605, an object control unit 606, an arrangement information storage unit 607, a motion data storage unit 608, a texture information storage unit 609, and a synthesis unit 610 are included.
  • the activity information acquisition unit 601 sequentially acquires activity information from each terminal 120 corresponding to each user.
  • the activity information includes, for example, a user ID, a content ID, and an activity ID.
  • the activity information is transmitted from each terminal 120 every predetermined period, and the activity information acquisition unit 601 sequentially acquires the activity information.
  • the functional configuration of the terminal 120 will be described later.
  • the content ID identifies each content activity
  • the activity ID is information identifying each life activity.
  • the user ID is information for identifying each user.
  • the operation information acquisition unit 137 receives various operation information from each terminal 120 such as category selection instruction information for selecting the category plate 210, content selection instruction information for identifying the content plate 310, and viewpoint information for moving the viewpoint in the virtual space 300. get. Specifically, for example, operation information is acquired together with each user ID.
  • the category plate generation unit 603 displays a category plate in which a plurality of category plates 210 are arranged on the virtual space 300 as illustrated in FIG.
  • Image information representing 210 is generated.
  • a state in which the virtual space 200 in which each category plate 210 is arranged separately from the virtual space 200 is viewed from an arbitrary viewpoint is generated as image information.
  • the user may be configured to move the viewpoint via the operation unit 125 or to rotate the entire virtual space 200 in which a plurality of category plates 210 are arranged.
  • These are generated as image information by, for example, a known three-dimensional computer graphics technique. Further, the generated image information is displayed on the display unit 124 of the terminal 120 in accordance with a user operation instruction.
  • the content plate generation unit 604 generates image information in which a plurality of content plates 310 are arranged in the virtual space 300 based on the acquired activity information.
  • the image information is generated after the user selects a desired category plate 210, for example.
  • the content plate generation unit 604 generates the image information by a known three-dimensional computer graphics technique.
  • the content plate generating unit 604 includes, for example, a user ID counting unit 701, an area determining unit 702, and a content plate image information generating unit 703 as shown in FIG.
  • the user ID counting unit 701 counts the number of user IDs for each content ID based on the content ID included in the acquired activity information. Specifically, for example, the activity information acquisition unit 601 acquires 100 different user IDs for the content ID: G1 and 150 different user IDs for the content ID: G2 within a predetermined period. Count.
  • the area determination unit 702 determines the area and size of each content plate 310 based on the counted number of user IDs for each content ID.
  • the number of user IDs is 100 for content ID: G1, and 150 for content ID: G2. Therefore, the area of the content plate 310 for content ID: G2 is the content for content ID: G1. For example, the area is determined to be 1.5 times the area of the plate 310. Note that the content plate 310 having the number of user IDs of 0 or a predetermined number or less may not be displayed.
  • the content plate image information generation unit 703 obtains image information (content plate image information) representing each content plate 310 from the content plate storage unit 605, and the content plate 310 having the area determined by the area determination unit 702. Generate image information.
  • the content plate storage unit 605 stores each content plate image information in association with each content ID, for example. That is, the content plate image information generation unit 703 acquires corresponding content plate image information based on the content ID included in the acquired activity information.
  • the object control unit 606 controls display and operation of an object corresponding to the user in the virtual space 300 based on viewpoint information included in activity information and operation information.
  • the object control unit 606 includes an activity information extraction unit 801, an arrangement area determination unit 802, a motion data acquisition unit 803, a texture information acquisition unit 804, a mapping unit 805, a moving image.
  • An information generation unit 806 is included.
  • the activity information extraction unit 801 extracts a predetermined number of activity information from a plurality of activity information acquired by the activity information acquisition unit 601 based on a predetermined standard.
  • the predetermined standard is, for example, a specific activity such as randomly extracting or fishing so that each avatar 301 displayed on the content plate 310 is a predetermined number or less.
  • information is preferentially extracted.
  • the placement area determination unit 802 determines a partial area in the corresponding content plate 210 in which an object corresponding to each user is placed based on the extracted activity information. Specifically, for example, the partial area is determined with reference to the arrangement information storage unit 607 based on the content ID and the activity ID included in the extracted activity information.
  • the arrangement information storage unit 607 stores, for example, a category ID, a content ID, an activity ID, and a partial area ID in association with each other as illustrated in FIG. Further, a content ID indicating the type of content may be stored in association with each other.
  • the partial area may be configured to include the entire area of the content plate 210.
  • the arrangement region determination unit 802 acquires the partial region ID: r1 based on the content ID: G1 and the activity ID: a1 included in the extracted activity information.
  • the arrangement area determining unit 802 determines the area specified by the content ID: G1 and the partial area ID: r1 as the arrangement area as the arrangement area of the object (avatar 301) corresponding to the user ID: U1.
  • the partial area specified by the partial area ID: r1 of the content plate 210 of the content ID: G1 is determined as the arrangement area for the object.
  • the motion data acquisition unit 803 acquires, for example, motion data corresponding to the activity ID from the motion data storage unit 608 based on the activity ID of the extracted activity information.
  • an activity ID and motion data are stored in association with each other.
  • the motion data acquisition unit 803 acquires motion data associated with the activity ID: a1.
  • the texture information acquisition unit 804 acquires texture information to be mapped to the avatar 301 from the texture information storage unit 609 based on the content ID of the extracted activity information.
  • the texture information storage unit 609 stores texture information in association with each content ID.
  • Each texture information corresponds to, for example, a costume unique to each content.
  • the mapping unit 805 maps the acquired texture to the corresponding object. Thereby, the avatar 301 is displayed with the costume according to the content.
  • the moving image information generation unit 806 generates moving image information that causes the avatar 301 to which the texture is mapped to operate in the corresponding partial region of each content plate 310 according to the acquired motion data.
  • the combining unit 610 generates moving image information obtained by combining the moving image information of each object generated by the object control unit 606 with the image information representing the content plate generated by the content plate generating unit 604 and transmits the moving image information to the terminal 120. To do. In the above description, the case where the rendering process of the avatar 301 is performed on the server 110 side has been described. However, the model data, motion data, and texture information are downloaded on the terminal 120 side, and the rendering process is performed on the terminal 120 side. You may comprise as follows.
  • each avatar 301 is a costume corresponding to the content on the corresponding content plate, for example, an operation indicating that the avatar 301 is moving or eating on a job or a train. And is further displayed in a partial region corresponding to each operation.
  • each object at work is displayed mainly in the partial area on the left side of the content plate 310 by an operation according to the life activity of the corresponding user.
  • partial areas may overlap with each other, or the sizes of the areas may be different from each other.
  • an object that is moving on a bicycle may be configured so that a partial area as a movement range is set wide so that the object can move to a work area.
  • the configuration of the server 110 is not limited to the above, and various modifications are possible.
  • the motion data acquisition unit 803 moves to a different content plate 310 when the content ID of the extracted activity information is different from the content ID of the activity information extracted immediately before.
  • the predetermined motion data representing the movement of the avatar 301 regarding the movement between the content plates may be acquired, and the motion data corresponding to the activity ID may be acquired.
  • the predetermined motion data refers to, for example, the location where the avatar 301 corresponding to the current avatar 301 is moved from the top of the content plate 310 where the avatar 301 is currently arranged and then placed from above the content plate 310 where the avatar 301 is arranged.
  • the motion data relating to the movement between the content plates 310 is also stored in the motion data storage unit in association with the activity ID identifying the movement between the content plates 310 in the same manner as described above, and when the content ID changes, the motion data is stored. You may comprise so that it may be acquired and the operation
  • a compression unit (not shown) that compresses the moving image information generated by the combining unit 610 may be provided, and the compressed moving image information may be transmitted to the terminal 120.
  • the terminal 120 includes, for example, an operation instruction acquisition unit 901, an operation information transmission unit 902, a content ID acquisition unit 903, an activity ID acquisition unit 904, an activity information transmission unit 905, a moving image information acquisition unit 906, A moving image information reproduction unit 907, a user ID acquisition unit 908, a terminal information acquisition unit 909, a login information transmission unit 910, and a terminal ID acquisition unit 911 are included.
  • an operation instruction acquisition unit 901 an operation information transmission unit 902
  • a content ID acquisition unit 903 an activity ID acquisition unit 904
  • an activity information transmission unit 905 a moving image information acquisition unit 906
  • differences from the first embodiment will be mainly described, and description of the same points will be omitted.
  • the operation instruction acquisition unit 901 acquires an operation instruction input to the operation unit 125 of the terminal 120.
  • the operation instruction is, for example, an operation instruction for moving the viewpoint in the virtual space 300, an operation instruction for selecting content, an operation instruction for inputting a life activity, or the like.
  • the operation information transmission unit 902 transmits an operation instruction to the server 110 as operation information.
  • the content ID acquisition unit 903 acquires content identification information (content ID). For example, when a predetermined movie is being played, the content ID of the movie is acquired. Further, the content ID may be acquired based on an operation instruction to the operation unit 125.
  • the activity ID acquisition unit 904 acquires an activity ID that identifies a user's life activity indicating that the user is walking, running, traveling on a train, or eating.
  • the life activity may be configured such that the activity ID acquisition unit 904 has an acceleration sensor and is acquired based on the output of the acceleration sensor. Moreover, you may comprise so that it may acquire by inputting the activity which the user is performing as an operation instruction as mentioned above.
  • the user ID acquisition unit 908 acquires user identification information (user ID). Specifically, for example, the user ID input by the user via the operation unit 124 is acquired. In addition, you may comprise so that the said user ID may be acquired by other methods, such as holding a predetermined card, for example.
  • the activity information transmission unit 905 transmits activity information including the acquired content ID, activity ID, and user ID to the server 110.
  • the activity information transmission unit 905 includes the user ID using the terminal 120, the content ID acquired by the content ID acquisition unit 903, and the activity ID acquired by the life activity information acquisition unit 601. Is transmitted to the server 110 as activity information.
  • the moving image information acquisition unit 906 acquires moving image information generated by the server 110 according to the transmitted activity information. Then, the moving image information reproduction unit 907 displays the acquired moving image information on the display unit 124. The details of the moving image information are as described above.
  • the functional configuration of the terminal 120 is not limited to the above, and various modifications are possible.
  • the moving image information is compressed moving image information
  • the moving image information may include an expansion unit that expands the moving image information. In this case, it goes without saying that the data is reproduced after being expanded.
  • the activity information acquisition unit 601 sequentially acquires activity information from each terminal 120. Specifically, for example, activity information including a user ID, a content ID, and an activity ID is acquired from each terminal 120 (S101).
  • the activity information extraction unit 801 extracts activity information corresponding to the avatar 301 displayed on each content plate 310 based on a predetermined standard (S102).
  • the arrangement area determination unit 802 determines the corresponding content plate 310 of the avatar 301 corresponding to each user ID and the arrangement area in the content plate 310 based on the extracted activity information (S103). Based on the activity ID of the extracted activity information, the motion data acquisition unit 803 acquires motion data corresponding to the activity ID from the motion data storage unit 608, for example (S104).
  • the texture information acquisition unit 804 acquires texture information to be mapped to the avatar 301 from the texture information acquisition unit 804 based on the content ID of the extracted activity information (S105).
  • the mapping unit 805 maps the acquired object to the avatar 301 (S106).
  • the moving image information generation unit 806 generates moving image information that causes the avatar 301 to which the texture is mapped to operate in the corresponding partial region of the content plate 310 according to the acquired motion data (S107).
  • the combining unit 610 generates moving image information obtained by combining the moving image information of each avatar 301 generated by the object control unit 606 in the content plate image information generated by the content plate generating unit 604, and the corresponding terminal 120. (S108). Then, the process ends. Note that the corresponding moving image information is reproduced on the corresponding terminal 120 and, for example, the moving image described with reference to FIG. 6 is displayed on the display unit 124 of the terminal 120.
  • image information including the content plate 310 is displayed on the display unit 124 of one terminal 120 (main terminal), and the main terminal 120 is displayed on the other terminal 120 (sub-terminal).
  • Information on the content plate 310 that is mainly displayed is displayed.
  • the information regarding the content plate 310 includes, for example, as shown in FIG. 15, the name of the category to which the content plate 310 belongs, the name of the game corresponding to the content plate 310, the ranking in the game community, the content The number of avatars belonging to the plate 310 is included.
  • FIG. 15 shows an example in which the main terminal 120 is a game machine and the display unit 124 is a liquid crystal television.
  • FIG. 16 shows another example of the display screen displayed on the terminal 120 (sub-terminal).
  • the information distributed to the sub-terminal 120 is information related to users registered as friends in the community service, and other users registered as friends
  • a pop-up display 161 displays an image indicating the result.
  • the pop-up display 161 may be configured so that the user can select on / off of the pop-up display 161 in advance.
  • the terminal 120 has a touch panel
  • the user touches a part of the image information, so that the game is played on another terminal 120 to which the user is logged in. It may be configured to be started. As illustrated in FIG.
  • the user using the sub-terminal 120 touches a predetermined portion of the pop-up display 161.
  • the corresponding race game may be started on the main terminal 120 (for example, a game device), and the display screen may be generated on the display unit 124 (for example, a TV device).
  • FIG. 18 is a diagram for explaining a variation of the screen displayed on the sub-terminal.
  • the user is logged in to the community service at the main terminal 120 and the sub-terminal 120, and the user is playing a game on the main terminal 120 (for example, a portable game device).
  • the community service is realized by the server 110, for example.
  • a virtual space corresponding to the activity information is displayed on the terminal 120.
  • the sub-terminal 120 may be configured to display a bulletin board regarding the game or display an image for realizing the chat function. .
  • the image includes comments and messages from other users at the same level or at the same level in the game in accordance with the progress of the game.
  • the number of sub-terminals 120 may be two or more.
  • a plurality of images may be displayed on each sub-terminal 120.
  • the plurality of images may be the same image, or may be images partially or entirely overlapping.
  • the user acquires five common trophies (for example, five trophies in the game) through the community regarding the game.
  • Etc. may be configured such that the content of the common mission is displayed or the message of the user is displayed. Further, when the common mission is achieved, an event such as a commendation ceremony or a reflection meeting may occur in the community.
  • the server 110 may grasp the user's situation such as the progress of the game and may be configured to distribute image information that guides the user appropriately. Specifically, for example, as shown in the lower right of FIG. 18, an operation screen corresponding to the progress of the game, or a screen on which a map, help, hints, etc. regarding the game are displayed may be displayed. Good. In this case, when there is no map information indicating a map in the terminal 120, the terminal 120 may be downloaded and acquired from the server 110 or the like. Further, the activity information may include the position information of the user, and the position on the map included in the position information may be indicated. Moreover, you may comprise so that the selection screen of the item regarding a game may be displayed.
  • the selection is reflected on the game content on the game screen displayed on the main terminal 120.
  • you may comprise so that the information for the said guide may be provided from another user.
  • the information for guiding may be configured to be displayed according to the activity.
  • the present invention is not limited to the first and second embodiments, and has substantially the same configuration and the same operational effects as the configurations shown in the first and second embodiments. It may be replaced with a configuration or a configuration capable of achieving the same purpose.
  • the login may be configured to automatically log in when one terminal 120 that has already logged in and the terminal 120 that has not yet logged in are at a predetermined distance. Further, for example, by displaying a predetermined two-dimensional barcode on one terminal 120 or outputting a predetermined sound or signal, it is possible to log in via another logged-in terminal 120. Good.
  • a predetermined acoustic signal is output from one terminal 120 and the acoustic signal is recorded and paired with the other logged-in terminal 120, or a predetermined image is displayed on one terminal 120.
  • the login information acquisition unit 131 may be configured to acquire login information of another terminal 120 via one terminal 120.
  • one terminal 120 has a notebook function, and information corresponding to the activity information of the user of the terminal 120 is recorded along with the date and time in the notebook, so that other users can view and comment on the information. It may be configured.
  • the community realized by the information processing system 100 for example, creates a group between users separately from content such as a game program, creates a goal in the group, and achieves the goal, You may comprise so that the point in the said community etc. can be acquired.
  • the target may be a target related to activity information, for example.
  • a profile screen may be generated for each user, and a history regarding contents such as a history of games played by users of each game may be displayed on the profile screen.
  • the color of the category plate and the color used when displaying the history may be matched so that the history of other users can be easily grasped by color.
  • the information processing device and the information terminal device in the claims correspond to the server 110 and the terminal 120, respectively.
  • the functional configuration in the second embodiment may be used independently of the functional configuration shown in the first embodiment.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

 仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像を表す動画像情報を生成する情報処理システムであって、順次前記複数のユーザのうち少なくとも1のユーザの行動を表すアクティビティ情報を取得するアクティビティ情報取得手段と、前記取得されたアクティビティ情報に応じて、前記オブジェクトを配置する、前記仮想空間における部分領域を決定する配置領域決定手段と、前記取得されたアクティビティ情報に応じて、前記アクティビティ情報に関連付けて記憶されたモーションデータを取得するモーションデータ取得手段と、前記部分領域において、前記取得されたモーションデータに応じて前記オブジェクトに動作させるオブジェクト制御手段と、を含む。

Description

情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム
 情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラムに関する。
 仮想空間において、各ユーザが操作するキャラクタを配置し、ユーザが当該仮想空間において他のユーザとコミュニケーションを図ることのできるいわゆるコミュニティサービスが知られている。例えば、当該仮想空間においては、ユーザが使用する端末の操作手段による操作に従って、ユーザに対応するキャラクタの位置や姿勢が変化するとともに、他のユーザとチャット機能などを介して、コミュニケーションを図ることができる。
 しかしながら、上記のような一般的なコミュニティサービスにおいては、各ユーザは、仮想空間内において各ユーザの操作に従い自由に移動するため、各ユーザのライフアクティビティ、例えば、移動中、仕事中などを、他のユーザが容易に視覚的に知ることはできない場合がある。
 本発明は、上記課題に鑑みて、ユーザにとってより価値の高いコミュニティサービスを実現する情報処理装置等を提供することを目的とする。
 (1)本発明の情報処理システムは、仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像を表す動画像情報を生成する情報処理システムにおいて、順次前記複数のユーザのうち少なくとも1のユーザの行動を表すアクティビティ情報を取得するアクティビティ情報取得手段と、前記取得されたアクティビティ情報に応じて、前記オブジェクトを配置する、前記仮想空間における部分領域を決定する配置領域決定手段と、前記取得されたアクティビティ情報に応じて、前記アクティビティ情報に関連付けて記憶されたモーションデータを取得するモーションデータ取得手段と、前記部分領域において、前記取得されたモーションデータに応じて前記オブジェクトに動作させるオブジェクト制御手段と、を含むことを特徴とする。
 (2)本発明の情報処理プログラムは、仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像を表す動画像情報を生成するためのプログラムであって、順次前記複数のユーザのうち少なくとも1のユーザの行動を表すアクティビティ情報を取得するアクティビティ情報取得手段、前記取得されたアクティビティ情報に応じて、前記オブジェクトを配置する、前記仮想空間における部分領域を決定する配置領域決定手段、前記取得されたアクティビティ情報に応じて、前記アクティビティ情報に関連付けて記憶されたモーションデータを取得するモーションデータ取得手段、及び、前記部分領域において、前記取得されたモーションデータに応じて前記オブジェクトに動作させるオブジェクト制御手段、としてコンピュータを機能させるためのプログラムであることを特徴とする。
 (3)本発明の情報処理方法は、仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像を表す動画像情報を生成する情報処理方法において、順次前記複数のユーザのうち少なくとも1のユーザの行動を表すアクティビティ情報を取得し、前記取得されたアクティビティ情報に応じて、前記オブジェクトを配置する、前記仮想空間における部分領域を決定し、前記取得されたアクティビティ情報に応じて、前記アクティビティ情報に関連付けて記憶されたモーションデータを取得し、前記部分領域において、前記取得されたモーションデータに応じて前記オブジェクトに動作させる、ことを特徴とする。(4)本発明の情報端末装置は、仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像情報を取得する情報端末装置であって、コンテンツを識別するコンテンツ識別情報を取得するコンテンツ識別情報取得手段と、ユーザの行動を識別するアクティビティ識別情報を取得するアクティビティ識別情報手段と、ユーザを識別するユーザ識別情報取得手段と、前記ユーザ識別情報、前記コンテンツ識別情報、前記ユーザ識別情報を含むアクティビティ情報を順次情報処理装置に送信するアクティビティ情報送信手段と、前記動画像情報を取得する動画像情報取得手段と、前記取得した動画像を表示する表示手段と、を含み、前記動画像情報は、前記アクティビティ情報に応じた前記仮想空間における部分領域において、前記オブジェクトを、前記アクティビティ情報に応じて取得されたモーションデータで動作させた動画像情報であることを特徴とする。
 (4)本発明の情報端末装置は、仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像情報を取得する情報端末装置において、コンテンツを識別するコンテンツ識別情報を取得するコンテンツ識別情報取得手段と、ユーザの行動を識別するアクティビティ識別情報を取得するアクティビティ識別情報取得手段と、ユーザを識別するユーザ識別情報取得手段と、前記ユーザ識別情報、前記コンテンツ識別情報、前記ユーザ識別情報を含むアクティビティ情報を順次情報処理装置に送信するアクティビティ情報送信手段と、前記動画像情報を取得する動画像情報取得手段と、前記取得した動画像を表示する表示手段と、を含み、前記動画像情報は、前記コンテンツ識別情報に応じた前記仮想空間における部分領域において、前記オブジェクトを、前記アクティビティ識別情報に応じて取得されたモーションデータで動作させた動画像情報であることを特徴とする。
第1の実施の形態における情報処理システムのハードウェア構成の概要について説明するための図である。 第1の実施の形態における情報処理装置の機能的構成について説明するための図である。 第1の実施の形態における記憶された端末IDとユーザIDの一例を示す図である。 第2の実施の形態における端末の機能的構成について説明するための図である。 第2の実施の形態におけるカテゴリプレートの一例について説明するための図である。 第2の実施の形態におけるコンテンツプレートの一例について説明するための図である。 第2の実施の形態におけるコンテンツプレートの一例について説明するための図である。 第2の実施の形態におけるアバターの一例について説明するための図である。 第2の実施の形態におけるサーバの機能的構成の一例について説明するための図である。 図9に示したコンテンツプレート生成部の機能的構成について説明するための図である。 図9に示したオブジェクト制御部の機能的構成について説明するための図である。 第2の実施の形態における配置情報記憶部に記憶された配置情報の一例について説明するための図である。 第2の実施の形態における情報端末装置の機能的構成の一例について説明するための図である。 第2の実施の形態におけるアバターの動作を制御するためのフローの一例を示す図である。 第2の実施の形態における配信情報の一例を示す図である。 第2の実施の形態における配信情報の一例を示す図である。 第2の実施の形態における配信情報の一例を示す図である。 第2の実施の形態における配信情報の一例を示す図である。
 以下、本発明の実施形態について、図面を参照しつつ説明する。なお、図面については、同一又は同等の要素には同一の符号を付し、重複する説明は省略する。
[第1の実施形態]
 図1は、本実施の形態に係る情報処理システムのハードウェア構成の概要について説明するための図である。図1に示すように、情報処理システム100は、ネットワーク130(例えば、インターネット)を介して接続されたサーバ110及び端末120を含む。なお、図1においては、情報処理システム100は、1の端末120のみを示しているが、複数の端末120を有してもよい。また、端末120は、同一種類の端末のみならず、異なる種類の端末が含まれてもよい。具体的には、例えば、端末120は、家庭用の据え置き型ゲーム機器や、携帯ゲーム機器、携帯電話などの携帯端末、パーソナルコンピュータ、タブレット、その他の電子機器に相当する。
 サーバ110は、制御部111、記憶部112、通信部113を含む。制御部111は、例えば、CPU等であって、記憶部112に格納されたプログラムに従って動作する。記憶部112は、例えば、ハードディスクやROMやRAM等の情報記録媒体で構成され、制御部111によって実行されるプログラムを保持する情報記録媒体である。また、記憶部112は、制御部111のワークメモリとしても動作する。
 通信部113は、ネットワークインターフェースであって、制御部111からの指示にしたがって、ネットワーク130を介して、情報を送受信する。なお、制御部111、記憶部112、通信部113は、それぞれ、バス114を介して接続される。
 また、端末120は、例えば、制御部121、通信部122、記憶部123、表示部124、操作部125を含む。同様に、各部121乃至125は、バス126を介して接続される。上述したサーバ110と同様に、制御部121は、例えば、CPUやMPUであって、記憶部112に格納されたプログラムに従って動作する。記憶部123は、例えば、ハードディスクやROMやRAM等の情報記録媒体で構成され、制御部121によって実行されるプログラムを保持する情報記録媒体である。また、記憶部123は、制御部121のワークメモリとしても動作する。
 操作部125は、例えば、キーボード、マウス、コントローラ、ボタン等のインターフェースで構成され、ユーザの指示操作に応じて、当該指示操作の内容を制御部121に出力する。表示部124は、例えば、液晶ディスプレイ、CRTディスプレイ、または有機ELディスプレイ等であって、制御部121からの指示に従い、情報を表示する。また、端末120は、表示部124と操作部125が一体となった、いわゆるタッチパネルを有するように構成してもよい。
 なお、上記制御部111及び121で処理されるプログラムは、例えば、ネットワークを介して、ダウンロードされて提供されてもよいし、または、CD-ROMやDVD-ROM等のコンピュータで読み取り可能な各種の情報記録媒体によって提供されてもよい。なお、上記サーバ110や端末120の構成は一例であってこれに限定されるものではない。また、サーバ110及び端末120の機能的な構成の詳細については、後述する。
 次に、本実施の形態におけるサーバ110の機能的構成の一例について説明する。図2は、本実施の形態における機能を実現するためのサーバの機能的構成について説明するための図である。図2に示すように、サーバ110は、例えば、ログイン情報取得部131、端末ID登録部132、端末ID記憶部133、端末情報取得部134、端末情報記憶部135、監視部136、操作情報取得部137、配信情報生成部138、配信部139を含む。なお、図2に示した機能的構成は一例にすぎず、本実施の形態はこれに限られるものではない。
 ログイン情報取得部131は、複数の端末120からログイン情報を取得する。ここで、ログイン情報とは、例えば、ユーザを識別するユーザID(ユーザ識別情報)、各端末120を識別する端末ID(端末識別情報)とを含む。ここで、ログインとは、例えば、情報処理システム100で提供されるサービス(コミュニティ)へのログインに相当し、ログインすることによりユーザが使用する各端末120において当該サービスの提供を受けることが可能となる。なお、情報処理システム100で提供されるサービスは、種々のサービスであって、例えば、端末120でユーザがゲームすることができるサービス、映画を見ることのできるサービスなどのコンテンツを提供するサービスや、掲示板を利用できるサービス、チャット機能を利用できるサービスなどである。
 端末ID登録部132は、端末ID記憶部133に、ログイン情報取得部131により取得されたユーザID毎に、複数の端末IDを関連付けて登録する。例えば、ログイン情報取得部131が、ユーザID:U1、端末ID:t1を含むログイン情報を取得し、次にユーザID:U1、端末ID:t2を含むログイン情報を取得した場合、端末ID登録部132は、図3に示すように、端末ID記憶部133に、ユーザID:U1に関連付けて、端末ID:t1及びt2を記憶する。なお、図3は、1のユーザIDについて2の端末IDが記憶される場合を示すが、これに限られず、その他の数、例えば、3以上の端末IDが1のユーザIDに関連付けて記憶されてもよい。なお、端末120を識別する端末IDとしては、例えば、IPアドレス(Internet Protocol address)やMACアドレス(Media Access Control address)を用いる。その他、端末IDをユーザが入力する構成であってもよいし、端末120のCPUの固有ID(プロセッサ・シリアル・ナンバ(PSN:Processor Serial Number)を用いてもよい。
 端末情報取得部134は、端末120の端末情報を取得する。ここで、端末情報とは、例えば、端末120における表示部124の解像度やCPUの性能、メモリの容量など端末120の性能を表す情報に相当する。また、端末情報は、ネットワーク遅延など各端末120とサーバ110との接続状況に関する情報を含んでもよい。また、一方の端末120を介して他方の端末120がサーバ110に接続されるような場合には、当該一方の端末120と他方の端末120との間の接続状況に関する情報を含んでもよい。
 また、当該端末情報は、例えば、上記ログイン情報に含まれるように構成してもよいし、端末情報取得部134からの要求指示に応じて対応する端末120から取得されるように構成してもよい。また、取得された端末情報は、例えば、対応する端末IDに関連付けて端末情報記憶部135に記憶される。
 監視部136は、所的期間毎にログイン状態にある各端末120とサーバ110との接続状況を監視する。具体的には、例えば、監視部136は、端末ID記憶部133に記憶された各端末120とサーバ110との接続状況を監視する。また、1の端末120が他の端末120を介して、サーバ110と接続される場合には、当該1の端末120と他の端末120との間の接続状況についても監視する。監視は、例えば、監視部136が所定期間毎にサーバ110と端末120との接続状態が確保されているか否かを確認する信号を端末120に送信し、当該端末120から当該信号に対する応答信号の有無により行われる。
 操作情報取得部137は、端末120に入力された種々の操作指示に応じた操作情報を取得する。具体的には、例えば、当該操作情報には、ユーザが使用している1の端末120に配信されていた配信情報を、当該ユーザが使用している他の端末120に配信するように指示する操作情報が含まれる。
 配信情報生成部138は、ユーザID毎に登録された各端末120に配信する複数の配信情報を生成する。なお、当該各端末120は、上記のように、端末ID記憶部133にユーザID毎に関連付けて記憶された端末IDにより識別される。なお、当該複数の配信情報は、ユーザからの操作指示に従い、生成されるように構成してもよいし、所定の条件に基づいて生成される構成してもよいし、または、それらの両者であってもよい。また、当該複数の配信情報は、全部または一部が重複するものであってもよい。また、上記所定の条件とは、例えば、情報処理システム100により、ゲームとチャット機能に応じた画像情報が提供される場合、ゲームをプレイするための画像情報と、チャット機能を実現するための画像情報を提供するなど、あらかじめ定められた条件に相当する。
 配信部139は、配信情報生成部138により生成された複数の配信情報を、ユーザID毎に複数登録された各端末120に、配信する。具体的には、例えば、配信部139は、配信情報生成部138により生成された異なる複数の配信情報を、端末情報記憶部135に記憶された端末情報に応じて、対応する各端末120に送信する。この場合、例えば、1のユーザIDについて解像度が異なる2の端末情報が記憶されている場合、解像度が高い方の端末120に、高い解像度が要求される画像情報を配信し、低い解像度しか要求されない画像情報については、低い解像度の端末120に配信する。具体的には、例えば、上記例の場合、ゲームの画像情報を高い解像度の端末120に配信し、チャット機能を実現するための画像情報を低い解像度の端末120に配信する。
 また、配信部139は、監視部136の監視結果に基づいて、配信情報生成部138により生成された異なる複数の配信情報を配信するように構成してもよい。例えば、1のユーザIDについて2の端末情報が登録されている場合であって、当該2の端末120のうちの1の端末120について接続が切断されたと監視部136が判断した場合、上記複数の配信情報のうち1の配信情報を接続が維持されている端末120に配信するように構成してもよい。具体的には、例えば、メインの配信情報とサブの配信情報が2の端末120に配信されている場合において、メインの配信情報が配信されている端末120(メイン端末)の接続が維持されているが、サブの配信情報が配信されている端末120(サブ端末)との接続が切断されたと判断した場合には、例えば、サブの配信情報をメイン端末120の表示部124に、いわゆるヘッドアップディスプレイ(Head-Up Display)や別ウィンドウとして表示するように構成してもよい。この場合、配信部139は、例えば、複数の配信情報をメイン端末120に、上記のような表示方式を指定する指示とともに配信する。なお、ここで、メイン端末120とは、例えば、表示画面が大きい方の端末120、解像度が高い方の端末120、CPUの性能が高い方の端末120など、サブ端末120と比べて性能が高く、ユーザが主として用いる方の端末120に相当するものとする。また、当該メイン端末120及びサブ端末120についてはユーザが指定できるように構成してもよい。また、配信部139は、配信部139と端末120との接続におけるネットワーク遅延や接続状況の程度に応じて、複数の配信情報を、1のユーザIDに関連付けられて登録された異なる端末120に配信するように構成してもよい。つまり、例えば、1の配信情報がレースゲームに対応する動画像情報である場合には、接続状況が良好でレスポンスの高い方の端末120に当該動画像情報を配信する。
 更に、例えば、配信部139は、サブ端末120のみの接続が維持されていると判断された場合には、サブ端末120において可能な処理のみ継続できるように構成してもよい。例えば、サブ端末120における配信情報が、チャット機能に対応した配信情報である場合には、メイン端末120においてゲームはできなくなるが、当該ゲームに対応するチャット機能のみはサブ端末120で継続して行うことができるように構成するなどである。更に、配信部139は、ユーザの操作指示に応じて、配信情報をどの端末120に配信するか選択できるように構成してもよい。
 次に、本実施の形態における端末120の主な機能的構成について説明する。図4に示すように、端末120は、例えば、操作指示取得部901、操作情報送信部902、動画像情報取得部906、動画像情報再生部907、ユーザID取得部908、端末情報取得部909、ログイン情報送信部910、端末ID取得部911を含む。
 操作指示取得部901は、端末120の操作部125に入力される操作指示を取得する。ここで操作指示とは、各種の操作指示であって、例えば、サーバ110で提供されるサービスにログインを指示する操作指示や、端末120にゲームの動画像情報を配信する場合には、当該ゲームの操作対象を移動または動作させるための操作指示などである。操作情報送信部902は、サーバ110に操作指示を操作情報として送信する。
 ユーザID取得部908は、ユーザを識別するユーザ識別情報(ユーザID)を取得する。具体的には、例えば、ユーザが入力したユーザIDを取得する。なお、当該ユーザIDは、操作部124を介して取得されるように構成してもよいし、その他の方法、例えば、所定のカードをかざすなど、により入力されるように構成してもよい。
 動画像情報取得部906は、サーバ110から提供されるサービスを実現するための動画像情報を取得する。そして、動画像情報再生部907は、当該動画像情報を、表示部124に表示する。上記においては、動画像情報について説明したが、その他画像情報や、音声情報などその他の配信情報が取得され、再生されてもよい。なお、特許請求の範囲に記載の配信情報取得手段、配信情報再生手段は、例えば、上記動画像情報取得部906、動画像情報再生部907にそれぞれ対応する。
 端末情報取得部909は、端末120の端末情報を取得する。上記のように、端末情報とは、端末120の表示部124の解像度やCPUの性能など端末120の性能に関する情報に相当する。端末ID取得部911は、端末120を識別する端末IDを取得する。上記のように端末IDにはMACアドレス等を用いる。
 ログイン情報送信部910は、ユーザID取得部908で取得されたユーザIDや、端末IDとともにログイン要求指示を含むログイン情報をサーバ110に送信する。なお、当該ログイン情報は、端末情報取得部909により取得された端末情報を含んでもよい。
 本実施の形態によれば、1のユーザが、サーバ110で提供されるサービスに複数の端末120を用いてログインし、これによりサーバ110で提供されるサービスに含まれる複数の互いに異なる画像情報(動画像情報を含む)を当該複数の端末120の表示部124に表示することができる。
 なお、本発明は、上記実施の形態に限定されるものではなく、種々の変形が可能である。例えば、上記実施の形態で示した構成と実質的に同一の構成、同一の作用効果を奏する構成又は同一の目的を達成することができる構成で置き換えることができる。
 [第2の実施形態]
 次に、本発明の第2の実施形態について説明する。なお、下記において第1の実施形態と同様である点については説明を省略する。本実施の形態においては、上記第1の実施の形態において、配信情報生成部138で表示される配信情報が、後述する仮想空間におけるコミュニティサービスを提供するための配信情報に相当する。
 そこで、まず、本実施の形態におけるコミュニティサービスについての理解の容易化のために、一例として、本実施の形態における情報処理システム100により生成された動画像情報(配信情報)が、端末120の表示部124に表示される場合の動画像について説明する。なお、下記は一例にすぎず、本実施の形態は、これに限定されるものではない。
 例えば、本実施の形態におけるコミュニティサービスにおいては、ユーザは、順に上位概念の項目から下位概念の項目を選択していくことにより、目的のコミュニティに到達する。具体的には、例えば、ユーザは、表示されたカテゴリ群(上位概念の項目)から、まず1のカテゴリを選択し、次に、その下位概念としての当該カテゴリに属するコンテンツの種類群から1の種類(中概念の項目)を選択し、更に、選択された種類に含まれるコンテンツ群から1のコンテンツ(小概念の項目)を選択し、当該コンテンツに対応するコミュニティに到達する。なお、上記大、中、小の項目分けは一例であって、その他の数の段階に項目分けされてもよい。以下、図5乃至7を用いてより具体的に説明する。なお、下記においては、上位概念の項目が後述するカテゴリプレートに相当し、その下位概念の項目が後述するコンテンツプレートに相当する場合を一例として説明するが、本実施の形態はこれに限られるものではない。例えば、コンテンツプレートは、仮想空間における1のコミュニティ空間の表示であれば下記に限定されるものではない。
 例えば、図5に示すように、ユーザが、当該情報処理システム100で提供されるコミュニティについてのアプリケーションを、端末120を介して起動し当該コミュニティにログインすると、仮想空間200上にカテゴリ毎に区別された島状の領域であるカテゴリプレート210が複数表示部124に表示される。ここで、カテゴリとは、例えば、ゲームや音楽や映画などのカテゴリに相当する。
 各カテゴリプレート210は、例えば、それぞれのカテゴリを表す領域201と、その周辺に配置される各カテゴリを更に種類別に分けた領域202を含む。具体的には、例えば、図5中央に示したゲームについてのカテゴリプレート210について説明すると、カテゴリを表す領域201には、ゲームのカテゴリを表す名称を示すサイン203やオブジェクト204が配置され、その周辺に、アドベンチャーゲーム、シューティングゲーム、シュミレーションゲームなど各ゲームの種類を表すサイン(名称)205を含むオブジェクト206が配置される。
 ここで、これらのオブジェクト204、206は、上記カテゴリや種類を連想できるような形状や色のデザインを有する。具体的には、例えば、図5に示すように、シューティングゲームの種類を表すオブジェクト206としては、銃とともに、「Shooter」などの名称を表すサイン205が配置される。
 なお、当該各カテゴリプレート210や、各種類を示すオブジェクト206のサイズや面積などは、当該コミュニティにログインし、かつ、当該カテゴリ等に属するユーザの数によって変化するように構成してもよい。例えば、当該コミュニティにログインしているユーザの中で音楽を聴いているユーザの数が多く、ゲームをプレイしているユーザの数が少ない場合には、音楽のカテゴリプレート210のサイズや面積などは、ゲームのカテゴリプレート210のサイズや面積よりも小さく表示されるように構成してもよい。また、例えば、ゲームをプレイしているユーザの中で、シューティングゲームをプレイしているユーザの数が、シミュレーションゲームをプレイしているユーザの数が少ない場合には、シューティングゲームに対応するオブジェクト206の領域が、シミュレーションゲームに対応するオブジェクト204の領域よりも小さく表示されるように構成してもよい。つまり、カテゴリプレート210や、各オブジェクト206の大きさが、各カテゴリや各種別に属するユーザの数に応じて変化するように構成してもよい。ここで、当該カテゴリや各種別に属するユーザの数の計数等については、各ユーザに対応する端末120から所定期間毎に送信されるアクティビティ情報に基づいて行われるが、アクティビティ情報等の詳細については後述する。
 次に、ユーザが、1のカテゴリプレート210(例えば、ゲームのカテゴリプレート210)のうちの1のオブジェクト206を選択すると、図6に示すように、表示部124に、仮想空間300に配置された、選択されたオブジェクト206に対応する複数のコンテンツプレート310が表示される。当該各コンテンツプレート310は、当該種別(例えば、シューティング)に属する各ゲームに対応する。また、各コンテンツプレート310は、図6に示すように、例えば、仮想空間300内に島状に複数離間して配置される。なお、ユーザが端末120の操作部125を用いて、仮想空間300に配置された視点を移動させることにより、コンテンツプレート310を種々の方向や角度から表示させることができる。具体的には、例えば、他のコンテンツプレート310に視点を移動し、当該他のコンテンツプレート310を様々な方向または角度から表示させることや、1のコンテンツプレート310の一部の領域を様々な方向または角度から表示させることが可能である。
 次に、各コンテンツプレート310の詳細について説明する。各コンテンツプレート310は、コンテンツ毎のコミュニティを表す。具体的には、例えば、図6中央に拡大されたコンテンツプレート310は、1のゲームについてのコンテンツプレート310を示す。また、図7は、コンテンツプレート310の更なる詳細を示す。
 図6及び図7に示すように、コンテンツプレート310には、各ユーザに対応するキャラクタを表すオブジェクト(アバター301)が複数配置される。なお、当該各ユーザは、当該情報処理システム100にログインしたうちの一部のユーザ群であってもよい。つまり、ログインしている全てのユーザが必ずしもコンテンツプレート310に表示される必要はない。この場合、当該一部のユーザ群は、ログインしている全てのユーザ群から所定の基準で抽出される。具体的には、例えば、ログインしているユーザから任意のユーザをランダムに抽出してもよいし、例えば、つりなどの特定のアクティビティを行っているユーザを優先的に表示するように構成してもよい。また、所定の基準は、各端末120が存在する国や地域に応じた基準としてもよい。更に、これらの基準を組み合わせて用いてもよい。
 コンテンツプレート310の一部には、更に、例えば、種々の機能を有する機能オブジェクト302が配置されてもよい。具体的には、例えば、当該機能オブジェクト302は、当該ゲームのコミュニティに関連した情報を表示するスクリーンのオブジェクトであって、当該スクリーンに、例えば、当該ゲームに関連する動画像が表示されてもよいし、当該コミュニティに関連するインターネット上のページへのリンクなどが貼られてもよい。また、機能オブジェクト302は、例えば、各ユーザが所定の操作を行った場合や所定の人数以上のユーザが所定のコンテンツプレートに集合した場合などの所定のイベントに応じたものであってもよい。また、機能オブジェクト302は、上記の他、当該コンテンツに対応する所定のオブジェクトの動画像が表示される、所定の基準を満たした場合に当該コンテンツプレートに対応する各ユーザが協力してプレイできるゲームがスタートするなどその他のイベントであってもよい。この場合、機能オブジェクト302は、図6に示したスクリーン上のイベントとは別に、新たにモンスターが表示されるなどのイベントに対応するものであってもよい。
 また、各アバター301は、各ユーザのアクティビティに応じた領域に配置されるとともに、現在ユーザが行っているアクティビティ、または、現在から所定期間内に行ったアクティビティに応じた動作を行うように制御される。つまり、本実施の形態においては、基本的に、各ユーザが対応する各アバター301を操作するのではなく、ユーザのアクティビティに応じて移動や動作を行う。なお、当該アクティビティを表すアクティビティ情報は、各ユーザに対応する端末120から送信されるが、詳細には後述する。
 ここで、アクティビティにはライフアクティビティとコンテンツアクティビティが含まれる。ライフアクティビティとは、ユーザの実際の生活の中でのアクティビティ、例えば、食事、移動、仕事するなどを表し、コンテンツアクティビティとは、例えば、所定のゲームをプレイしていること、所定の音楽を聴いていること、所定の映画を見ていることなど、所定のコンテンツに基づいたアクティビティを表す。そして、ライフアクティビティが変更した場合には、同じコンテンツプレート上で、アバターは変更先のライフアクティビティに対応する部分領域に移動し、コンテンツアクティビティが変更した場合には、アバターは異なるコンテンツプレートのライフアクティビティに対応する領域に移動する。なお、例えば、当該コンテンツアクティビティは、コンテンツID(コンテンツ識別情報)で識別され、当該ライフアクティビティは、アクティビティID(アクティビティ識別情報)で識別されるが、詳細には後述する。
 例えば、当該アクティビティ情報にユーザが仕事中であることを示す情報が含まれている場合には、デスクに座ってPCを用いて仕事をしている動作が表現される。また、アクティビティ情報にユーザが乗り物(例えば車、電車、飛行機、船)で移動中であることを示す情報が含まれている場合には、例えば、乗り物に乗っている様子(例えば、運転している動作や、電車のつり革につかまっている動作)が表現される。この場合、移動手段(例えば、車や電車等)によって、異なる動作が表現されるように構成してもよい。当該アクティビティ情報に、ユーザが食事中であることを示す情報が含まれている場合は、食事中の動作に対応するモーションデータを用いて、アバター301が食事している動作が表現される。また、例えば、後述する端末120からのアクティビティ情報にユーザが酒を飲んでいることを示す情報が含まれている場合には、ビールなどのグラスとともに、飲んでいる動作が表現される。つまり、アバター301は、ユーザの各ライフアクティビティを表象する動作、つまり、ユーザのライフアクティビティを連想できるような動作で表示される。
 また、各コンテンツプレート310には、仕事や食事をしているなどのユーザの各行動(ライフアクティビティ)に応じた部分領域がそれぞれ設定されており、アバター301は、上記のような各ライフアクティビティに応じた部分領域で各動作を行うように表示される。また、当該表現される動作は上記仕事中や食事中にかかわらず、例えば、釣りをしている動作や、電車で移動している動作、走っている動作、自転車に乗っている動作、歩いている動作などその他の動作を含んでもよい。また、各動作に対応した部分領域は、互いに重複してもよいし、その面積やサイズが異なってもよい。
 また、各アバター301は、各コンテンツプレート310に、各コンテンツに応じた衣装を着て動作するように表示される。具体的には、例えば、図8に示すように、あるゲームをプレイしている場合には、当該ゲームを表す衣装で動作するように表示される。つまり、各衣装はコンテンツ毎(例えばゲーム毎)に設定されており、各衣装により各コンテンツが連想される。なお、衣装の他、当該コンテンツ特有のアイテムなどとともに表示されてもよい。具体的には、例えば、コンテンツ毎に、図8左に示すような基本的な形状のアバター301のモデルデータに衣装を表すテクスチャがマッピングされ(図8右上)、更に、各ライフアクティビティに応じた動作で表示される(図8右下参照)。なお、図8においては左から食事中、仕事中、電車で移動中の動作を表す。なお、上記においては、アバター301の衣装を変更する構成として、テクスチャをマッピングする構成について説明したが、その他、アバター301のモデルデータの変更、アニメーションデータの変更する構成などその他の構成を用いてもよい。
 また、各アバター301は最後に実行したコンテンツに応じた衣装で表示されるように構成してもよい。具体的には、例えば、あるゲームを行った後、当該ゲームを終了後であっても、次のゲームや、音楽や、映画などの他のコンテンツを実行するまでの所定期間内は、当該ゲームの衣装で対応するコンテンツプレート310に表示される。なお、当該所定期間中に、例えば、ユーザのアクティビティ(ライフアクティビティ)が変更した場合には、当該変更前のライフアクティビティ(例えば、電車で移動中)から、変更後のライフアクティビティを表す動作(例えば、食事中)を表すように、対応する領域に移動して、表示される。一方、ユーザのコンテンツアクティビティが変更した場合には、対応するコンテンツプレートに移動するとともに、現在のライフアクティビティに応じて表示される。
 次に、図9を用いて、上記のような表示を実現するためのサーバ110の機能的構成について説明する。本実施の形態においては、上記第1の実施形態におけるサーバ110の配信情報生成部138及び配信部139は、図9に示すように、例えば、アクティビティ情報取得部601、カテゴリプレート生成部603、コンテンツプレート生成部604、コンテンツプレート記憶部605、オブジェクト制御部606、配置情報記憶部607、モーションデータ記憶部608、テクスチャ情報記憶部609、合成部610を含む。
 アクティビティ情報取得部601は、各ユーザに対応する各端末120から、順次アクティビティ情報を取得する。ここで、アクティビティ情報とは、例えば、ユーザID、コンテンツID、アクティビティIDを含む。当該アクティビティ情報は、例えば、各端末120から所定期間毎に送信され、アクティビティ情報取得部601は、これらのアクティビティ情報を順次取得する。なお、端末120の機能的構成については後述する。また、上述のように、コンテンツIDは、各コンテンツアクティビティを識別し、アクティビティIDは、各ライフアクティビティを識別する情報である。また、ユーザIDは、各ユーザを識別する情報である。
 操作情報取得部137は、カテゴリプレート210を選択するカテゴリ選択指示情報、コンテンツプレート310を識別するコンテンツ選択指示情報、仮想空間300における視点を移動する視点情報などの様々な操作情報を各端末120から取得する。具体的には、例えば、各ユーザIDとともに、操作情報を取得する。
 カテゴリプレート生成部603は、例えば、ユーザが当該情報処理システム100で提供されるコミュニティにログインすると、図5に示したように、仮想空間300上に、カテゴリプレート210を複数配置したようなカテゴリプレート210を表す画像情報を生成する。具体的には、例えば、各カテゴリプレート210がそれぞれ仮想空間200に離間して配置された仮想空間200を任意の視点からみた様子を画像情報として生成する。なお、ユーザが、当該視点を、操作部125を介して移動したり、カテゴリプレート210を複数配置した仮想空間200全体を回転できるように構成してもよい。これらは、例えば、公知の3次元コンピュータグラフィックス技術により画像情報として生成する。また、当該生成された画像情報はユーザの操作指示に応じて端末120の表示部124に表示される。
 コンテンツプレート生成部604は、例えば、図6に示したように、取得されたアクティビティ情報に基づいて、仮想空間300に、各コンテンツプレート310が複数配置された画像情報を生成する。当該画像情報は、例えば、ユーザが所望のカテゴリプレート210を選択した後に、生成される。また、同様に、例えば、コンテンツプレート生成部604は、当該画像情報を、公知の3次元コンピュータグラフィックス技術により生成する。
 具体的には、コンテンツプレート生成部604は、例えば、図10に示すように、ユーザID計数部701、面積決定部702、コンテンツプレート画像情報生成部703を含む。ユーザID計数部701は、取得したアクティビティ情報に含まれるコンテンツIDに基づいて、コンテンツID毎のユーザIDの数を計数する。具体的には、例えば、アクティビティ情報取得部601が、所定期間内に、コンテンツID:G1について100の異なるユーザIDを取得したこと、コンテンツID:G2について150の異なるユーザIDを取得したことなどを計数する。
 面積決定部702は、計数されたコンテンツID毎のユーザIDの数に基づいて、各コンテンツプレート310の面積やサイズを決定する。上記例の場合、例えば、ユーザIDの数は、コンテンツID:G1について100、コンテンツID:G2について150であるので、コンテンツID:G2についてのコンテンツプレート310の面積は、コンテンツID:G1についてのコンテンツプレート310の面積と比べて、1.5倍の面積になるように決定するなどである。なお、ユーザIDの数が0または所定の数以下のコンテンツプレート310については表示しないように構成してもよい。
 コンテンツプレート画像情報生成部703は、コンテンツプレート記憶部605から各コンテンツプレート310を表す画像情報(コンテンツプレート画像情報)を取得するとともに、上記面積決定部702により決定された面積を有するコンテンツプレート310の画像情報を生成する。ここで、コンテンツプレート記憶部605は、例えば、各コンテンツIDに関連付けて、各コンテンツプレート画像情報を記憶する。つまり、コンテンツプレート画像情報生成部703は、上記取得されたアクティビティ情報に含まれるコンテンツIDに基づいて、対応するコンテンツプレート画像情報を取得する。
 オブジェクト制御部606は、アクティビティ情報や操作情報に含まれる視点情報に基づいて、仮想空間300におけるユーザに対応するオブジェクトの表示や動作を制御する。具体的には、例えば、図11に示すように、オブジェクト制御部606は、アクティビティ情報抽出部801、配置領域決定部802、モーションデータ取得部803、テクスチャ情報取得部804、マッピング部805、動画像情報生成部806を含む。
 アクティビティ情報抽出部801は、アクティビティ情報取得部601により取得された複数のアクティビティ情報のうちから、所定の基準に基づいて、所定の数のアクティビティ情報を抽出する。ここで、所定の基準とは、上述のように、例えば、コンテンツプレート310に表示される各アバター301が所定の数以下となるようにランダムに抽出したり、釣りをしているなど特有のアクティビティ情報を優先的に抽出するなどである。
 配置領域決定部802は、抽出されたアクティビティ情報に基づき、各ユーザに対応するオブジェクトを配置する、対応するコンテンツプレート210における部分領域をそれぞれ決定する。具体的には、例えば、抽出されたアクティビティ情報に含まれるコンテンツIDとアクティビティIDに基づいて、配置情報記憶部607を参照して、当該部分領域を決定する。なお、配置情報記憶部607は、例えば、図12に示すように、カテゴリID、コンテンツID、アクティビティID、部分領域IDを関連付けて記憶する。また、コンテンツの種別を示すコンテンツIDを関連付けて記憶してもよい。なお、一部の部分領域は、コンテンツプレート210の全ての領域を含むように構成してもよい。
 ここで、例えば、抽出されたアクティビティ情報が、ユーザID:U1、コンテンツID:G1、アクティビティ情報:a1の場合であって、配置情報記憶部607に記憶された配置情報が図12に示す場合を例として説明する。この場合、配置領域決定部802は、抽出されたアクティビティ情報に含まれるコンテンツID:G1、アクティビティID:a1に基づいて、部分領域ID:r1を取得する。これにより、配置領域決定部802は、配置領域として、コンテンツID:G1及び部分領域ID:r1で特定される領域を、ユーザID:U1に対応するオブジェクト(アバター301)の配置領域として決定する。いいかえれば、当該オブジェクトについて、コンテンツID:G1のコンテンツプレート210の、部分領域ID:r1で特定される部分領域を配置領域として決定する。
 モーションデータ取得部803は、抽出されたアクティビティ情報のアクティビティIDに基づいて、例えば、モーションデータ記憶部608からアクティビティIDに対応するモーションデータを取得する。ここで、モーションデータ記憶部608には、アクティビティIDとモーションデータが関連付けて記憶されている。例えば、上記例の場合、モーションデータ取得部803は、アクティビティID:a1に関連付けられたモーションデータを取得する。
 テクスチャ情報取得部804は、抽出されたアクティビティ情報のコンテンツIDに基づいて、アバター301にマッピングするテクスチャ情報を、テクスチャ情報記憶部609から取得する。ここで、テクスチャ情報記憶部609には、コンテンツID毎にテクスチャ情報が関連付けて記憶されている。当該各テクスチャ情報は、例えば、各コンテンツに特有の衣装に対応する。また、マッピング部805は、対応するオブジェクトに、取得されたテクスチャをマッピングする。これにより、アバター301はコンテンツに応じた衣装で表示される。
 動画像情報生成部806は、取得されたモーションデータに応じて、テクスチャがマッピングされたアバター301を各コンテンツプレート310の対応する部分領域で動作させる動画像情報を生成する。合成部610は、コンテンツプレート生成部604で生成されたコンテンツプレートを表す画像情報に、オブジェクト制御部606で生成された各オブジェクトの動画像情報を合成した動画像情報を生成し、端末120に送信する。なお、上記においては、サーバ110側でアバタ―301の描画処理を行う場合について説明したが、端末120側で上記モデルデータ、モーションデータ、テクスチャ情報をダウンロードして、端末120側で描画処理を行うように構成してもよい。
 これにより、例えば、各コンテンツに対応した衣装のアバター301が複数、各アバター301に対応するユーザのライフアクティビティに応じた部分領域及び動作で対応するコンテンツプレート310上に表示される。言い換えれば、図6及び図7に示すように、例えば、各アバター301は、対応するコンテンツプレート上に当該コンテンツに対応した衣装で、例えば仕事、電車で移動、食事をしているなどを表す動作で表示され、更に、各動作に応じた部分領域に表示される。具体的には、図7からもわかるように、仕事中の各オブジェクトはコンテンツプレート310の主に左側の部分領域で、対応するユーザのライフアクティビティに応じた動作で表示されるなどである。また、当該各部分領域は相互に重複してもよいし、その領域の大きさが相互に異なるようにしてもよい。例えば、自転車で移動中のオブジェクトは動作範囲としての部分領域を広く設定し、仕事中の領域にも移動可能であるように構成してもよい。
 なお、上記サーバ110の構成は、上記に限定されるものではなく、種々の変形が可能である。例えば、モーションデータ取得部803は、同じユーザIDを含むアクティビティ情報について、抽出されたアクティビティ情報のコンテンツIDが直前に抽出されたアクティビティ情報のコンテンツIDと異なる場合、つまり、異なるコンテンツプレート310への移動を示す場合には、コンテンツプレート間の移動に関するアバター301の移動を表す所定のモーションデータを取得するとともに、上記アクティビティIDに対応するモーションデータを取得するように構成してもよい。ここで、当該所定のモーションデータとは、例えば、現在対応するアバター301が配置されているコンテンツプレート310の画面上方へ移動し、次に当該アバター301が配置されるコンテンツプレート310の上方から配置場所へ移動するようなモーションデータである。また、この場合、アバターが次にどこに移動するか他のユーザが視覚的に認識できるように、移動前のコンテンツプレート310において、移動先のコンテンツプレート310に対応する衣装に変わってから移動するように構成してもよい。なお、当該コンテンツプレート310間の移動に関するモーションデータも上記と同様にモーションデータ記憶部にコンテンツプレート310間の移動を識別するアクティビティIDに関連付けて記憶され、コンテンツIDが変化した場合に当該モーションデータが取得され、当該移動についての動作が表示されるように構成してもよい。また、合成部610により生成された動画像情報を圧縮する圧縮部(図示なし)を設け、当該圧縮された動画像情報が端末120に送信されるように構成してもよい。
 次に、図13を用いて、本実施の形態における情報処理システム100の端末120の機能的構成の一例について説明する。図13に示すように、端末120は、例えば、操作指示取得部901、操作情報送信部902、コンテンツID取得部903、アクティビティID取得部904、アクティビティ情報送信部905、動画像情報取得部906、動画像情報再生部907、ユーザID取得部908、端末情報取得部909、ログイン情報送信部910、端末ID取得部911を含む。なお、下記においては、上記第1の実施の形態と異なる点を主に説明し、同様である点については説明を省略する。
 操作指示取得部901は、端末120の操作部125に入力される操作指示を取得する。操作指示とは、例えば、仮想空間300において視点を移動させるための操作指示、コンテンツを選択するための操作指示、ライフアクティビティを入力するための操作指示などである。操作情報送信部902は、サーバ110に操作指示を、操作情報として、送信する。
 コンテンツID取得部903は、コンテンツ識別情報(コンテンツID)を取得する。例えば、所定の映画が再生されているような場合には、当該映画のコンテンツIDを取得する。また、当該コンテンツIDは、操作部125への操作指示に基づいて取得されてもよい。
 アクティビティID取得部904は、ユーザが歩いている、走っている、電車で移動している、食事しているなどを表すユーザのライフアクティビティを識別するアクティビティIDを取得する。当該ライフアクティビティは、例えば、アクティビティID取得部904が加速度センサを有し、当該加速度センサの出力に基づいて取得されるように構成してもよい。また、上記のようにユーザが実行しているアクティビティを操作指示として入力することにより取得されるように構成してもよい。
 ユーザID取得部908は、ユーザの識別情報(ユーザID)を取得する。具体的には、例えば、ユーザが操作部124を介して入力したユーザIDを取得する。なお、当該ユーザIDは、例えば、所定のカードをかざすなどその他の方法で取得されるように構成してもよい。
 アクティビティ情報送信部905は、取得したコンテンツID、アクティビティID、ユーザIDを含むアクティビティ情報をサーバ110に送信する。具体的には、例えば、アクティビティ情報送信部905は、当該端末120を使用しているユーザID、コンテンツID取得部903で取得されたコンテンツID、及びライフアクティビティ情報取得部601で取得されたアクティビティIDを、アクティビティ情報としてサーバ110に送信する。
 動画像情報取得部906は、送信したアクティビティ情報に応じて、サーバ110で生成された動画像情報を取得する。そして、動画像情報再生部907は、当該取得した動画像情報を、表示部124に表示する。なお、当該動画像情報の詳細については、上述のとおりである。
 なお、端末120の機能的構成は、上記に限定されるものではなく、種々の変形が可能である。例えば、当該動画像情報が、圧縮された動画像情報である場合には、当該動画像情報を伸長する伸長部を有してもよい。この場合、伸長されてから再生されることはいうまでもない。
 次に、図14を用いて、本実施の形態におけるサーバ110において、アバター301の動作を制御するためのフローの一例について説明する。なお、下記のフローは一例であって、これに限定されるものではない。
 アクティビティ情報取得部601は、各端末120から、順次アクティビティ情報取得する。具体的には、例えば、各端末120から、ユーザID、コンテンツID及びアクティビティIDを含むアクティビティ情報を取得する(S101)。アクティビティ情報抽出部801は、所定の基準に基づいて、各コンテンツプレート310に表示するアバター301に対応するアクティビティ情報を抽出する(S102)。
 配置領域決定部802は、抽出されたアクティビティ情報に基づいて、各ユーザIDに対応するアバター301の、対応するコンテンツプレート310及び当該コンテンツプレート310における配置領域を決定する(S103)。モーションデータ取得部803は、抽出されたアクティビティ情報のアクティビティIDに基づいて、例えば、モーションデータ記憶部608からアクティビティIDに対応するモーションデータを取得する(S104)。
 テクスチャ情報取得部804は、抽出されたアクティビティ情報のコンテンツIDに基づいて、アバター301にマッピングするテクスチャ情報を、テクスチャ情報取得部804から取得する(S105)。マッピング部805は、アバター301に、取得されたオブジェクトをマッピングする(S106)。
 動画像情報生成部806は、取得されたモーションデータに応じて、テクスチャがマッピングされたアバター301を、対応するコンテンツプレート310の部分領域で動作させる動画像情報を生成する(S107)。合成部610は、コンテンツプレート生成部604で生成されたコンテンツプレート画像情報内に、オブジェクト制御部606で生成された各アバター301の動画像情報を合成した動画像情報を生成し、対応する端末120に送信する(S108)。そして処理を終了する。なお、対応する端末120においては、当該動画像情報が再生され、例えば、上記図6を用いて説明したような動画像が端末120の表示部124に表示される。
 次に、本実施の形態において実際に端末120に配信され、端末120に表示される具体例について説明する。例えば、図15に示すように、一方の端末120(メイン端末)の表示部124には、上記コンテンツプレート310を含む画像情報が表示され、他方の端末120(サブ端末)には、メイン端末120で主に表示されているコンテンツプレート310に関する情報が表示される。ここで、当該コンテンツプレート310に関する情報とは、例えば、図15に示すように、当該コンテンツプレート310が属するカテゴリの名称、当該コンテンツプレート310に相当するゲームの名称、当該ゲームのコミュニティにおけるランキング、コンテンツプレート310に属するアバターの数などを含む。また、図15においては、メイン端末120は、ゲーム機器であって、表示部124は液晶テレビである例を示した。
 図16は、端末120(サブ端末)に表示される表示画面の他の一例を示す。図16に示すように、例えば、当該サブ端末120に配信される情報は、当該コミュニティサービスにおいてフレンドとして登録されているユーザに関する情報であって、フレンドとして登録されている他のユーザが、当該サブ端末120のユーザのゲームにおける成績を上回った場合、それを示す画像が、ポップアップ表示161される。なお、当該ポップアップ表示161は、ユーザがあらかじめポップアップ表示161のオン・オフを選択できるように構成してもよい。また、図17に示すように、当該端末120がタッチパネルを有する場合には、ユーザが当該画像情報の一部をタッチすることにより、当該ゲームが、当該ユーザがログインしている他の端末120で開始されるように構成してもよい。図17に示すように、例えば、レースゲームの成績を他のユーザが上回ったという情報がポップアップ表示されると、当該サブ端末120を使用しているユーザが当該ポップアップ表示161の所定の部分にタッチすることにより、メイン端末120(例えばゲーム機器)で、対応するレースゲームが開始され、その表示部124(例えばTV機器)でその表示画面が生成されるように構成してもよい。
 図18は、サブ端末に表示される画面のバリエーションについて説明するための図である。図18においては、一例として、ユーザがメイン端末120及びサブ端末120で上記コミュニティサービスにログインしている場合であって、ユーザがメイン端末120(例えば、携帯ゲーム機器)でゲームをプレイしている場合を示す。つまり、この場合、メイン端末120から、ユーザのアクティビティ情報がコミュニティを形成するサーバ110に送信される。当該コミュニティサービスは、上記のように、例えば、上記サーバ110で実現される。そして、当該アクティビティ情報に応じた仮想空間が端末120に表示される。
 この場合、図18右上に示すように、サブ端末120(例えば、携帯端末120)には、当該ゲームに関する掲示板を表示させたり、チャット機能を実現する画像が表示されるように構成してもよい。具体的には、例えば、当該画像には、当該ゲームの進行状況にあわせて、当該ゲームにおける同程度レベルや同程度の進捗の他のユーザからのコメントやメッセージが含まれる。なお、サブ端末120の数は、2以上であってもよく、この場合、各サブ端末120に複数の画像が表示されるように構成してもよい。当該複数の画像は同じ画像であってもよいし、一部または全部が重複する画像であってもよい。
 また、図18右中央に示すように、サブ端末120(例えば、携帯端末)の画面に、当該ゲームに関して、ユーザ同士で、当該コミュニティを通じて共通のミッション(例えば、ゲーム内でトロフィーを5個取得するなど)を作成した場合に、当該共通のミッションの内容が表示されたり、当該ユーザのメッセージが表示されるように構成してもよい。また、当該共通のミッションを達成した場合には、当該コミュニティ内において表彰式や反省会などのイベントが発生するように構成してもよい。
 更に、例えば、サーバ110が、ゲームの進行状況などのユーザの状況を把握し、適切にガイドするような画像情報が配信されるように構成してもよい。具体的には、例えば、図18右下に示すように、当該ゲームの進行状況に応じた操作画面やゲームに関するマップ、ヘルプ、ヒントなどが表示された画面が表示されるように構成してもよい。この場合、端末120にマップを示す地図情報がない場合には、サーバ110等からダウンロードして取得されるように構成してもよい。また、アクティビティ情報にユーザの位置情報が含まれ、当該位置情報に含まれるマップ上の位置が示されるように構成してもよい。また、ゲームに関するアイテムの選択画面が表示されるように構成してもよい。この場合、例えば、ユーザは当該端末120のアイテム選択画面でアイテムを選択することにより、メイン端末120に表示されているゲーム画面でその選択がゲーム内容に反映される。また、当該ガイドするための情報は、他のユーザから提供されるように構成してもよい。この場合、ガイドするための情報は、上記アクティビティに応じて、表示されるように構成してもよい。
 本発明は、上記第1及び第2の実施の形態に限定されるものではなく、上記第1及び第2の実施の形態で示した構成と実質的に同一の構成、同一の作用効果を奏する構成又は同一の目的を達成することができる構成で置き換えてもよい。例えば、ログインについては、ログイン済みの1の端末120とまだログインしていない端末120が所定の距離にある場合には、自動的にログインするように構成してもよい。また、例えば、1の端末120に所定の2次元バーコードを表示させたり、所定の音や信号を出力させることにより、他のログイン済みの端末120を介して、ログインできるように構成してもよい。具体的には、例えば、一方の端末120から所定の音響信号を出力し、他方のログイン済みの端末120で当該音響信号を録音してペアリングをとる、または、一方の端末120において所定の画像を表示して、他方のログイン済みの端末120に含まれるカメラで当該所定の画像を撮影し撮影した画像をあらかじめ保持された画像とペアリングをとることにより、ログインできるように構成してもよい。また、例えば、ログイン情報取得部131は、1の端末120を介して、他の端末120のログイン情報を取得するように構成してもよい。
 また、1の端末120は手帳機能を有し、当該端末120のユーザのアクティビティ情報に応じた情報が当該手帳における日付や時間とともに記録され、他のユーザがこれらを閲覧したりコメント等できるように構成してもよい。また、上記情報処理システム100で実現されるコミュニティは、例えば、ゲームのプログラムなどのコンテンツとは別に、ユーザ同士でグループを作り、当該グループで目標を作成し、当該目標を達成した場合には、当該コミュニティ内のポイントなどを獲得できるように構成してもよい。ここで、当該目標は、例えば、アクティビティ情報に関する目標であってもよい。
 また、例えば、各ユーザについてプロフィール画面を生成し、当該プロフィール画面で、各ゲームのユーザがプレイしたゲームの履歴などのコンテンツに関する履歴を表示できるようにしてもよい。この場合、例えば、カテゴリプレートの色と、当該履歴を表示する際に用いられる色を一致させるなど、他のユーザの履歴が容易に色で把握できるように構成してもよい。なお、例えば、特許請求の範囲における情報処理装置及び情報端末装置は、それぞれ、上記サーバ110及び端末120に対応する。また、上記第2の実施形態における機能的構成は、第1の実施形態で示した機能的構成と独立して用いてもよい。

Claims (12)

  1.  仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像を表す動画像情報を生成する情報処理装置において、
     順次前記複数のユーザのうち少なくとも1のユーザの行動を表すアクティビティ情報を取得するアクティビティ情報取得手段と、
     前記取得されたアクティビティ情報に応じて、前記オブジェクトを配置する、前記仮想空間における部分領域を決定する配置領域決定手段と、
     前記取得されたアクティビティ情報に応じて、前記アクティビティ情報に関連付けて記憶されたモーションデータを取得するモーションデータ取得手段と、
     前記部分領域において、前記取得されたモーションデータに応じて前記オブジェクトに動作させるオブジェクト制御手段と、
     を含むことを特徴とする情報処理システム。
  2.  前記仮想空間は、ユーザが使用するコンテンツ毎に異なる形状の領域を表す複数のコンテンツプレートを含み、
     前記部分領域は、前記複数のコンテンツプレートのうちの1のコンテンツプレートにおける部分領域であることを特徴とする請求項1記載の情報処理システム。
  3.  前記アクティビティ情報は、ユーザを識別するユーザ識別情報、前記各コンテンツプレートに関連付けられたコンテンツ識別情報、及び、ユーザの行動を表すアクティビティ識別情報を含み、
     前記モーションデータは、前記アクティビティ識別情報に関連付けられていることを特徴とする請求項2記載の情報処理システム。
  4.  前記情報処理システムは、更に、
     所定期間内に取得されたコンテンツ識別情報毎に、取得されたユーザ識別情報の数を計数する計数手段と、
     前記各コンテンツプレートの面積を変更する面積変更手段と、を含み、
     前記面積変更手段は、前記コンテンツ識別情報毎に計数されたユーザ識別情報の数に応じて、前記コンテンツプレートの面積を変更することを特徴とする請求項3記載の情報処理システム。
  5.  前記オブジェクト制御手段は、前記アクティビティ情報取得手段が直前のコンテンツ識別情報と異なるコンテンツ識別情報を含むアクティビティ情報を取得した場合には、前記異なるコンテンツ識別情報に応じて、前記オブジェクトを、該オブジェクトが現在配置されているコンテンツプレートと異なるコンテンツプレートに移動させることを特徴とする請求項3記載の情報処理システム。
  6.  前記情報処理システムは、更に、
     前記取得されたコンテンツ識別情報に応じて、前記コンテンツ識別情報毎に記憶された、前記オブジェクトに対してテクスチャとしてマッピングする各テクスチャ情報を取得するテクスチャ情報取得手段と、
     前記取得されたテクスチャ情報に基づいて、前記オブジェクトにマッピングすることを特徴とする請求項3記載の情報処理システム。
  7.  前記情報処理システムは、更に、
     前記各複数のユーザからの複数のアクティビティ情報から、前記仮想空間に配置するオブジェクトに対応する、1以上のアクティビティ情報を抽出するアクティビティ情報抽出手段を含み、
     前記配置領域決定手段は、前記抽出されたアクティビティ情報に応じて、前記部分領域を決定し、前記オブジェクト制御手段は、前記抽出されたアクティビティ情報に応じて前記モーションデータを取得する、
     ことを特徴とする請求項1記載の情報処理システム。
  8.  前記アクティビティ情報抽出手段は、ランダムに、前記1以上のアクティビティ情報を抽出することを特徴とする請求項7記載の情報処理システム。
  9.  仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像を表す動画像情報を生成するためのプログラムであって、
     順次前記複数のユーザのうち少なくとも1のユーザの行動を表すアクティビティ情報を取得するアクティビティ情報取得手段、
     前記取得されたアクティビティ情報に応じて、前記オブジェクトを配置する、前記仮想空間における部分領域を決定する配置領域決定手段、
     前記取得されたアクティビティ情報に応じて、前記アクティビティ情報に関連付けて記憶されたモーションデータを取得するモーションデータ取得手段、及び、
     前記部分領域において、前記取得されたモーションデータに応じて前記オブジェクトに動作させるオブジェクト制御手段、
     としてコンピュータを機能させるためのプログラム。
  10.  請求項9に記載のプログラムを記憶したコンピュータ読み取り可能な記録媒体。
  11.  仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像を表す動画像情報を生成する情報処理方法において、
     順次前記複数のユーザのうち少なくとも1のユーザの行動を表すアクティビティ情報を取得し、
     前記取得されたアクティビティ情報に応じて、前記オブジェクトを配置する、前記仮想空間における部分領域を決定し、
     前記取得されたアクティビティ情報に応じて、前記アクティビティ情報に関連付けて記憶されたモーションデータを取得し、
     前記部分領域において、前記取得されたモーションデータに応じて前記オブジェクトに動作させる、
     ことを特徴とする情報処理方法。
  12.  仮想空間において、複数のユーザに対応するオブジェクトを配置するとともに、前記仮想空間に配置される所定の視点から前記仮想空間を見た様子を示す動画像情報を取得する情報端末装置において、
     コンテンツを識別するコンテンツ識別情報を取得するコンテンツ識別情報取得手段と、
     ユーザの行動を識別するアクティビティ識別情報を取得するアクティビティ識別情報取得手段と、
     ユーザを識別するユーザ識別情報取得手段と、
     前記ユーザ識別情報、前記コンテンツ識別情報、前記ユーザ識別情報を含むアクティビティ情報を順次情報処理装置に送信するアクティビティ情報送信手段と、
     前記動画像情報を取得する動画像情報取得手段と、
     前記取得した動画像を表示する表示手段と、を含み、
     前記動画像情報は、前記コンテンツ識別情報に応じた前記仮想空間における部分領域において、前記オブジェクトを、前記アクティビティ識別情報に応じて取得されたモーションデータで動作させた動画像情報であることを特徴とする情報端末装置。
PCT/JP2012/066617 2012-06-28 2012-06-28 情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム WO2014002239A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2012/066617 WO2014002239A1 (ja) 2012-06-28 2012-06-28 情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム
CN201280074112.0A CN104395936B (zh) 2012-06-28 2012-06-28 信息处理系统、信息处理装置、信息终端装置、信息处理方法和信息处理程序
US14/408,027 US9754386B2 (en) 2012-06-28 2012-06-28 Information processing system, information processing apparatus, information terminal apparatus, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2012/066617 WO2014002239A1 (ja) 2012-06-28 2012-06-28 情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム

Publications (1)

Publication Number Publication Date
WO2014002239A1 true WO2014002239A1 (ja) 2014-01-03

Family

ID=49782468

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/066617 WO2014002239A1 (ja) 2012-06-28 2012-06-28 情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム

Country Status (3)

Country Link
US (1) US9754386B2 (ja)
CN (1) CN104395936B (ja)
WO (1) WO2014002239A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124731A (ja) * 2017-01-31 2018-08-09 ヤフー株式会社 選択装置、選択方法および選択プログラム
WO2021261188A1 (ja) * 2020-06-23 2021-12-30 パナソニックIpマネジメント株式会社 アバター生成方法、プログラム、アバター生成システム、及びアバター表示方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101633506B1 (ko) * 2015-01-15 2016-06-24 라인플러스 주식회사 소셜 그룹 커뮤니티 기능을 이용하여 서비스를 제공하는 시스템 및 방법

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050724A (ja) * 2009-08-04 2011-03-17 Smile-Lab Co Ltd 仮想モデル表示システム、及び仮想モデル表示方法
JP2011083508A (ja) * 2009-10-19 2011-04-28 Smile-Lab Co Ltd ビデオゲーム制御サーバ、ビデオゲーム制御方法、およびビデオゲーム制御プログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7193629B2 (en) * 2001-05-18 2007-03-20 Sony Computer Entertainment Inc. Display apparatus
JP3602519B2 (ja) 2002-07-12 2004-12-15 コナミ株式会社 ビデオゲーム装置、画像処理方法及びプログラム
CN1671444A (zh) * 2002-07-24 2005-09-21 皇家飞利浦电子股份有限公司 带有检测构件的游戏板和游戏单元
JP3700857B2 (ja) 2004-03-03 2005-09-28 コナミ株式会社 ゲームプログラム及びゲーム装置
JP3884043B2 (ja) 2005-02-28 2007-02-21 株式会社コナミデジタルエンタテインメント ゲーム装置、ゲーム制御方法、ならびに、プログラム
RU2006131759A (ru) * 2006-09-04 2008-03-10 Николай Иванович Пальченко (RU) Способ и система моделирования, представления и функционирования единого виртуального пространства как единой инфраструктуры для осуществления реальной и виртуальной хозяйственной и иной деятельности человечества
GB2447096B (en) * 2007-03-01 2011-10-12 Sony Comp Entertainment Europe Entertainment device and method
JP5100494B2 (ja) 2008-05-08 2012-12-19 株式会社エヌ・ティ・ティ・ドコモ 仮想空間提供装置、プログラム及び仮想空間提供システム
JP5407194B2 (ja) * 2008-06-24 2014-02-05 株式会社セガ ビデオゲーム装置、ビデオゲーム制御方法、ビデオゲーム制御プログラム、および、記録媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050724A (ja) * 2009-08-04 2011-03-17 Smile-Lab Co Ltd 仮想モデル表示システム、及び仮想モデル表示方法
JP2011083508A (ja) * 2009-10-19 2011-04-28 Smile-Lab Co Ltd ビデオゲーム制御サーバ、ビデオゲーム制御方法、およびビデオゲーム制御プログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018124731A (ja) * 2017-01-31 2018-08-09 ヤフー株式会社 選択装置、選択方法および選択プログラム
WO2021261188A1 (ja) * 2020-06-23 2021-12-30 パナソニックIpマネジメント株式会社 アバター生成方法、プログラム、アバター生成システム、及びアバター表示方法

Also Published As

Publication number Publication date
CN104395936B (zh) 2018-03-09
US20150178952A1 (en) 2015-06-25
US9754386B2 (en) 2017-09-05
CN104395936A (zh) 2015-03-04

Similar Documents

Publication Publication Date Title
JP6858737B2 (ja) 視聴プログラム、配信プログラム、視聴プログラムを実行する方法、配信プログラムを実行する方法、情報処理装置、および情報処理システム
CN109475774B (zh) 虚拟现实环境中的视图位置处的观众管理
JP2020093109A (ja) 情報処理装置およびユーザをアプリケーションに参加させる方法
US8593535B2 (en) Relative positioning of devices based on captured images of tags
JP6400280B2 (ja) 情報処理システムおよび情報処理装置
JP2020535879A (ja) エレクトロニックスポーツのバーチャルリアリティ観戦のための会場マッピング
JP5474876B2 (ja) 情報処理装置、サーバおよび情報処理システム
EP2919874B1 (en) Systems and methods for cloud processing and overlaying of content on streaming video frames of remotely processed applications
US20140304335A1 (en) Systems and methods for interactive experiences and controllers therefor
US20150287161A1 (en) Systems and Methods for Cloud Processing and Overlaying of Content on Streaming Video Frames of Remotely Processed Applications
CN104043245B (zh) 游戏控制器
US11954772B2 (en) Information processing device and image generating method for managing placement of user images
JP5841252B2 (ja) 情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム
WO2014002239A1 (ja) 情報処理システム、情報処理装置、情報端末装置、情報処理方法、情報処理プログラム
JP7094404B2 (ja) 視聴プログラム、配信プログラム、視聴プログラムを実行する方法、配信プログラムを実行する方法、情報処理装置、および情報処理システム
CN115193043A (zh) 一种游戏信息发送方法、装置、计算机设备及存储介质
JP2015230684A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
JP2015229065A (ja) 画像処理装置、画像処理システム、端末装置、画像処理方法及び画像処理プログラム
JP2020110352A (ja) ゲームプログラム、ゲーム方法、および情報処理装置
US20230330544A1 (en) Storage medium, computer, system, and method
WO2022113327A1 (ja) 方法、コンピュータ可読媒体、コンピュータシステム、および情報処理装置
WO2022137340A1 (ja) 情報処理方法、コンピュータ可読媒体、および情報処理装置
WO2022137343A1 (ja) 情報処理方法、コンピュータ可読媒体、および情報処理装置
WO2022113335A1 (ja) 方法、コンピュータ可読媒体、および情報処理装置
JP5668156B2 (ja) 処理装置および情報処理システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12880192

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 14408027

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12880192

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP