WO2014203716A1 - サーバ装置、端末装置及び処理方法 - Google Patents

サーバ装置、端末装置及び処理方法 Download PDF

Info

Publication number
WO2014203716A1
WO2014203716A1 PCT/JP2014/064635 JP2014064635W WO2014203716A1 WO 2014203716 A1 WO2014203716 A1 WO 2014203716A1 JP 2014064635 W JP2014064635 W JP 2014064635W WO 2014203716 A1 WO2014203716 A1 WO 2014203716A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
information
avatar
terminal
server
Prior art date
Application number
PCT/JP2014/064635
Other languages
English (en)
French (fr)
Inventor
毅 金子
正宏 塩井
伊藤 典男
嬋斌 倪
敦稔 〆野
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2014203716A1 publication Critical patent/WO2014203716A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/01Social networking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements

Definitions

  • the present invention relates to a virtual space providing system and a server device that allow users to communicate with each other by causing a plurality of avatars to appear in a virtual space on the network.
  • the present invention relates to a system and a server device that allow a plurality of users to view the same multimedia content such as video and audio at the same time and provide an appropriate advertisement content to the plurality of users.
  • a virtual space is generated on a network accessible to the user by the server, and each user creates and sets an avatar that represents himself / herself in the virtual space.
  • a system capable of virtually communicating with each other while operating is prepared.
  • Patent Document 1 In such a communication system, it is possible to meet physically distant users who are difficult to meet in the real world in the same virtual space and enjoy conversations, but more efficiently find communication partners from many users. Therefore, it is necessary to detect preference commonality using the user's blog information (Patent Document 1) and register user's hobby information and favorite product information in the avatar in advance. There has been proposed a technique for making the information exchangeable (Patent Document 2).
  • Patent Document 3 proposes a technique that enables registration of attributes such as qualifications so that a finer group can be selected.
  • Patent Document 4 proposes the unique information given to each user and information such as the avatar's action history and uses it as marketing information.
  • Patent No. 48888918 Japanese Patent Publication “JP 2012-230707 A” Japanese Patent Publication “JP-A-2006-108996” Japanese Patent Publication “Japanese Unexamined Patent Publication No. 2011-216073”
  • each user has entered his / her own characteristics and messages in advance in a virtual space or in a blog that is separately held, or the topic or participation in establishing a communication group. It is necessary to set qualifications. For this reason, work and settings are cumbersome, and only the superficial features and intentional content that each user has already recognized can be prepared and input, and the temporary changes may occur on the spot. It was very difficult to express simple emotions and feelings easily or reflect them in the service.
  • the information given to the avatar, the user's blog information, and the information set in the group name are mainly text-based information entered by the user, even if the use of action history information is added,
  • the information given to the avatar, the user's blog information, and the information set in the group name are mainly text-based information entered by the user, even if the use of action history information is added.
  • the present invention does not require a troublesome additional work by the user, and simply creates and edits the avatar in a timely manner by simply selecting a favorite part. It is an object of the present invention to provide a clustering means capable of extracting a user group in a timely manner from an arbitrary viewpoint such as a relationship.
  • a server device is a server device connected to a terminal device via a network, and one or more image parts selected by the user in the terminal device.
  • the user personality of the user is determined based on the image part information set in (1).
  • a terminal device In order to solve the above-described problem, a terminal device according to one aspect of the present invention, a user selects one or a plurality of image parts, transmits information specifying the selected image parts to the server device, A group list based on user personality or clustering among a plurality of users performed based on the user personality is received from the server device.
  • a processing method includes a terminal device and a server device connected via a network, and the server device selects one or more images selected by a user in the terminal device.
  • the user personality of the user is determined based on image part information set for the part.
  • a user group can be created from any point of view such as compatibility and friendly relations with the user only by creating and editing an avatar by a general method of selecting a favorite part without requiring a troublesome additional operation of the user. It is possible to provide a system having a clustering means that can extract the time.
  • Embodiment 2 of this invention It is a figure which shows the example of the relationship using the avatar color information in Embodiment 2 of this invention. It is a figure which shows the example of a combination of the male avatar average color with good compatibility previously with the avatar average color of the user whose sex is Embodiment 2 of this invention.
  • a large number of terminal devices 300a to 300c such as computers and smartphones are connected to a wired line such as a LAN or WAN, a mobile phone network, a wireless LAN, It is possible to connect to a network 101 such as the Internet via a wireless line, and to access the server 200 via the network 101.
  • the server 200 has an avatar editing function by selecting an avatar part, a virtual space providing function capable of appropriately arranging and moving the avatar, multimedia content and advertisement content in the virtual space A content distribution function that enables viewing, a function that provides a communication platform for inputting, displaying, and sharing chats, tweets, and the like.
  • the terminal 300 and the server 200 can transmit and receive data using communication methods such as HTTP (Hypertext Transfer Protocol), UDP (User Datagram Protocol), and RTSP (Real Time Streaming Protocol).
  • HTTP Hypertext Transfer Protocol
  • UDP User Datagram Protocol
  • RTSP Real Time Streaming Protocol
  • the terminal 300 receives virtual space information composed of an HTML file or the like sent from the server 200, and displays the virtual space on a display such as a liquid crystal display or an organic EL using an application such as a web browser. Furthermore, a function of receiving broadcast content from a broadcast wave or receiving multimedia content from the server 200 to play a moving image in a designated multimedia content area in the virtual space, according to a user operation, It has a function of appropriately inputting and displaying avatar movement, conversation between avatars, and the like, a function of receiving advertisement content from a server and displaying it in a designated advertisement content area in a virtual space, and the like.
  • the server 200 used in the present embodiment includes a control unit 201 that controls processing operations, a communication unit 202, and a storage device 203.
  • the control unit 201 is configured by an MPU (Micro-Processing Unit), a CPU (Central Processing Unit), or a combination thereof, and is a read-only memory in which a basic input / output system (BIOS) or the like is stored, although not illustrated. (ROM), a random access memory (RAM) having a program area and a data area, and the like are connected.
  • the communication unit 202 transmits and receives data to and from the terminal 300 via the network 101 such as the Internet.
  • the communication unit 202 uses a wired line such as a LAN or a WAN, a wireless LAN or a cellular phone is used.
  • a wireless line such as a network may be used. Data to be transmitted / received according to the line is converted into an appropriate IP packet, and a packet is transmitted / received based on information such as an IP address.
  • the storage device 203 is a storage such as a hard disk, a flash memory (SSD), an optical disk, a magneto-optical disk, and the like, as shown in FIG. 2, virtual space information 204, avatar parts information 205, user management information 206, personality, Calculation algorithm information 207, clustering algorithm information 208, multimedia content data 209, advertisement content data 210, communication management data 211, and the like are stored.
  • the storage device 203 includes an OS (Operating System) capable of transmitting and receiving various types of information and data according to a communication protocol such as TCP / IP, and an API (Application Programming Interface) group of web server application software such as Apache.
  • OS Operating System
  • API Application Programming Interface
  • Multimedia application software using Java, Javascript (registered trademark) and Java (registered trademark) applet downloaded from the server 200 to the terminal 300 and executed on the web browser of the terminal 300 are stored.
  • the virtual space information 204 is composed of files such as HTML, Javascript, and style sheets, and is interpreted by the web browser of the terminal 300 to display the virtual space on the display means of the terminal 300.
  • the virtual space information 204 includes data in a table format stored so as to be associated with an ID for specifying multimedia content, a user ID for specifying a user who is participating in an avatar in the virtual space, and the like. A dedicated virtual space for each multimedia content and for each user can be displayed.
  • the avatar parts information 205 which will be described in detail later, is information used when a user creates and edits an avatar to be projected on the virtual space as his / herself, and includes the hairstyle, eyes, and the like constituting the avatar. , Partial image data groups such as shirts and shoes are included.
  • User management information 206 includes information on the user who operates and uses the terminal 300, the user's avatar, personality data representing the user's personality and hobbies, and the like.
  • IDs for identifying broadcast content and multimedia content that are being viewed on the spot, viewing history of those contents, editing history of avatars, conversation history with other users, etc. are recorded. It may be possible to register user personal information such as gender and birthplace.
  • information such as disclosure availability and disclosure range may be attached to the various data included in the user management information 206.
  • the personality calculation algorithm information 207 and the clustering algorithm information 208 will be described in detail later using specific examples, but both use personal information stored in the server 200 and information input via the communication unit 202.
  • a program for executing calculation and clustering processing, or information indicating a processing procedure referred to when the program operates is included.
  • the multimedia content data 209 is data configured to include one or a plurality of data such as video, audio, and characters, and is transmitted to the terminal 300 in response to a user request and reproduced on the display unit of the terminal 300. Is done.
  • the content data 209 may be video and audio data prepared by a broadcasting station, a program production company, or the like, or may be video or audio data shot by a user with a video camera, a smartphone, or the like. Alternatively, the user may appropriately select video, audio, text, etc., and obtain and reproduce them in combination.
  • the server 200 stores a large number of multimedia content data 209. Therefore, the content data 209 includes program units, It is preferable that an ID or the like that can specify each data is attached in units of scenes, components of video, characters, etc.
  • the advertisement content data 210 is data configured to include video, image, audio, text, or the like alone or in plural, and is data that an advertiser can register in the server 200 in advance.
  • the target users may be wide-ranging or pinpointed, and various situations are assumed.
  • the target user It is preferable to be able to add tags, metadata, etc. that can narrow down.
  • the communication management data 211 is management data necessary for enabling communication such as chat and conversation between users using characters, voice, video, avatar operation, and the like.
  • ID of the user the ID of the user who made the statement, the attribute information of the statement (the user ID of the other party if replying to a specific user, the chat room ID if speaking within a specific chat room, “all” if speaking alone), Character and voice data representing itself, position (coordinate values, etc.) information and time (UTC etc.) information in the virtual space of the user avatar when a speech is input, and the user was watching when the speech was made Includes multimedia content ID and the like. Further, at this time, it is preferable that a range in which the utterance is disclosed can be designated for each utterance or each chat room.
  • a terminal 300 used in this embodiment includes a control unit 301 that controls processing operations, a communication unit 302, a user information management unit 303, a content processing unit 304, a broadcast receiving unit 305, a display unit 306,
  • the input unit 307 is configured.
  • control unit 301 and the communication unit 302 are the same as the control unit 201 and the communication unit 202 in the server 200, detailed description thereof is omitted.
  • the user information management unit 303 is a part of the user management information 206 stored in the server 200 that stores data related to a user who uses the terminal 300, manages a change history of the data, and the like. It is composed of a storage device such as a hard disk.
  • a single terminal 300 is a shared terminal used by a plurality of users
  • each user's data is associated with login information by an ID or the like and managed by the user information management unit 303. Based on this, it is possible to select appropriate data and processing for each user, which is more preferable.
  • the content processing unit 304 has at least a decoding function such as encoded video and audio data and a web browser function, and includes content received from broadcast, multimedia content 209 received from the server 200, and advertisements including video and audio.
  • a decoding function such as encoded video and audio data and a web browser function
  • the decoding method is selected and executed according to the content, or displayed on the display unit 306 while interpreting an HTML file, Javascript, style sheet, or the like and appropriately arranging and operating the content 210. I will let you.
  • the broadcast receiving unit 305 is a part that receives broadcast contents such as video, audio, and text via broadcast waves, and has functions such as an antenna, a tuner, and a channel selection.
  • the display unit 306 is configured by a display device such as a liquid crystal or an organic EL, or a drive driver thereof, and in accordance with content received from the content processing unit 304 via the control unit 301 and its display instruction, virtual space or multimedia content Etc. to the user.
  • a display device such as a liquid crystal or an organic EL, or a drive driver thereof, and in accordance with content received from the content processing unit 304 via the control unit 301 and its display instruction, virtual space or multimedia content Etc. to the user.
  • the input unit 307 is a part that receives an instruction from the user, and includes a touch panel, a remote controller, a keyboard, a mouse, and the like, and has a user input interface function. (Common processing flow) Next, a processing flow in the present embodiment will be described with reference to FIGS.
  • FIG. 4 is a diagram for explaining the entire processing flow when a user performs social viewing of broadcast content and multimedia content while communicating with other users via an avatar in a virtual space.
  • the user first creates or edits an avatar representing himself / herself by selecting individual parts from the avatar part information 205 stored in the server 200. At this time, the user can select parts according to his / her preference, aesthetics, or mood at that time, without being particularly aware of points other than creation and editing of avatars.
  • personality information such as the personality and personality of the user is more or less implicitly included in the selected part and the combination result of the part.
  • the personality calculation process described later is executed by the server 200 or the terminal 300, and personality data is added to the user management information 206.
  • This work and its result may be designed to notify the user, or it may be designed to inform nothing.
  • a large number of users in the virtual space are grouped into several groups based on a predetermined clustering algorithm that uses the personality data calculated in S200 to derive the similarity of the data, the compatibility between the data, and the relationship.
  • Clustering is performed, and an extracted group name, a list of user IDs included in the group, and the total number thereof are output. Details of these clustering processes and clustering algorithm examples will be described later.
  • the group name obtained as a result of clustering, and information such as the user ID clustered in the group and the number of users are presented to the user on the display unit 306 of the terminal 300, and the user selects the group as necessary. Can be selected.
  • all the results output from S300 may be displayed. For example, rearrangement is performed according to the number of users included in the group, and the top three groups are displayed in descending order of the number of users.
  • a display algorithm may be set.
  • S500 when a user selects a specific group, a plurality of users clustered in the group are extracted, and based on the IDs of the plurality of users, avatars and remarks of the users are displayed in the virtual space
  • information on all users included in the group may be displayed, or, for example, frequent remarks are made according to the display capacity (number of pixels, etc.) of the display unit 306 of the terminal 300, the display screen size, and the like.
  • Set an arbitrary display algorithm such as displaying only the users who are present, or predetermining the number of display users such as 20 and displaying only 20 randomly selected users in the group. You can also.
  • chat room when a user speaks, it is possible to set a chat room with a small group of 2 to 3 people so that the conversation between users can be easily performed.
  • group users such as “conversation” or “chat”
  • chat the remark display in the chat room already set up by other users Can be improved by displaying user action options such as “participate in conversation” and “enter chat room”.
  • FIG. 5 is a diagram showing a detailed processing flow of the avatar creation process S100 and the user personality calculation process S200 in FIG.
  • the user logs in to the terminal 300, and a user ID that identifies the user based on the login information is transmitted to the server 200.
  • the server 200 determines whether or not the user ID is new (S102), and if it is an existing user ID, the information of the ID is extracted from the user management information 206, and the avatar configuration information of the user is transmitted to the terminal 300 ( S103). Subsequently, the server 200 transmits the avatar part information 205 stored at that time to the terminal 300 (S104).
  • the terminal 300 displays the avatar based on the information, and also displays the avatar parts based on the received avatar part information 205 (S105), so that the user can edit the avatar. Like that.
  • the user avatar configuration information is transmitted to the server 200 (S107).
  • the server 200 updates the user avatar configuration information of the user in the user management information 206 based on the received user avatar configuration information (S108).
  • the user ID is newly set in the user management information 206 to create the user information, and the received user avatar configuration information is added therein.
  • the final avatar image is displayed (S109).
  • a user personality calculation process (to be described later) is performed (S201), and then the user personality information in the user management information 206 of the ID is newly written or updated (S202).
  • the user personality calculation process (S201) uses at least the avatar part information 205 and the user management information 206 stored in the server 200, so the process execution in the server 200 is preferable.
  • S201 may be executed by the terminal 300 while appropriately obtaining the necessary information from the server 200.
  • S202 may be performed after the calculated user personality information is transmitted from the terminal 300 to the server 200.
  • FIG. 6 is a diagram showing a detailed processing flow of the clustering process S300 and the group display process S400 in FIG.
  • content to be viewed is selected on the terminal 300 by a user operation.
  • the terminal 300 receives a group of contents that can be currently broadcasted and an information group of the multimedia contents 209 stored on the server 200, for example, in a list format. It is preferable that the user can select content while viewing the list.
  • a content ID for specifying the content is transmitted to the server 200.
  • the server 200 collates the multimedia content 209 stored in the storage device 203 with the user-selected content (S302), and the content ID If they match, streaming distribution of the corresponding multimedia content data to the terminal 300 is started (S303).
  • the viewing content ID information of the user ID included in the user management information 206 is updated (S304).
  • the virtual space information 204 associated with the content ID is extracted from the storage device 203, and the virtual space information is transmitted to the terminal 300 (S305).
  • the content processing unit 304 performs an appropriate decoding process.
  • the terminal 300 performs an appropriate decoding process after acquiring the content data, Display (S306).
  • the terminal 300 performs virtual space display (S307) based on the virtual space information 204 received from the server 200.
  • the server 200 extracts other users who are viewing the content based on the viewing content ID information in the user management information 206 based on the content ID, calculates the number of users, and transmits the number of viewers to the terminal 300.
  • the terminal 300 displays the number of viewers together with the content and the virtual space (S309).
  • the server 200 performs clustering processing (S310) based on a predetermined clustering algorithm using the user management information 206 based on the user ID that is viewing the content. Details of the clustering algorithm and the clustering process will be described later along with specific examples.
  • the viewing content is selected and the virtual space associated with the content is extracted.
  • the user can select the virtual space information 204 stored in the server 200 on the terminal 300. A favorite virtual space may be selected.
  • a group list is created by using one or a plurality of group names and user ID list information clustered in the group among the clustering results calculated by the server 200 in the clustering process. It transmits to the terminal 300 (S401).
  • the terminal 300 displays the received group list information (S402). At this time, if necessary, information such as the group name and the number of people used for display may be appropriately selected from the group list information.
  • FIG. 7 is a diagram showing a detailed processing flow of the filtering process S500 in FIG.
  • the server 200 extracts the user ID included in the group from the result of the clustering process S310, and transmits the user management information 206 corresponding to the user ID to the terminal 300 as group user information (S502). .
  • the terminal 300 displays the avatar corresponding to one or a plurality of users in the virtual space using the received group user information (S503).
  • the server 200 extracts, from the communication management data 211 in the selected group, information such as a comment corresponding to the user ID included in the group and a chat room ID in which the comment is performed, and the chat room ID. Or user utterance data is transmitted to the terminal 300 (S504).
  • the terminal 300 displays the group user's remarks and actions based on the received data (S505), and further, based on the attributes of the remarks (whether it is a remark within a specific chat room or a single tweet, etc.) Corresponding to the display timing and display position of the comment, for example, a “conversation” button that prompts a reply to the comment, a “join conversation” button that prompts participation in the chat room, and the like are displayed (S506).
  • FIG. 8 is a diagram showing a detailed processing flow of the bidirectional communication process S600 in FIG.
  • the chat room ID is transmitted to the server 200.
  • the server 200 extracts the message ID associated with the chat room and the user ID corresponding to the message ID from the communication management data 211, and the user management information based on the user ID.
  • User information participating in the chat room is extracted from 206 (S 602) and transmitted to the terminal 300.
  • the terminal 300 displays a corresponding avatar based on the received participant user information (S603), and displays an input form that allows a user using the terminal 300 to input a statement (S604).
  • the input message data is transmitted to the server 200, and after update and registration (S605) of the message management data in the communication management data 211 of the server 200 is performed,
  • the message ID is extracted using the chat room ID (S606), and the user message data related to the message ID is transmitted to the terminal 300.
  • the terminal 300 displays the remarks of the users participating in the chat room based on the received user remark data (S607).
  • the user confirms his / her own avatar and speech on the display unit 306 of the terminal 300 and also confirms the avatar and speech of other users participating in the chat room. Will be able to.
  • the user simply creates and edits his / her own avatar by selecting the avatar part. For example, tens of thousands of users Even when broadcasting content that is watching the same content at the same time is watched simultaneously with other users, it is possible to select several groups clustered to an appropriate number of people based on the user's personality information , You can check members (avatars) and remarks in the group, join the group and tweet alone, and have a conversation with a small number of members in the group in a chat room, etc. It becomes possible.
  • (Example of terminal display screen) 9 to 11 are diagrams showing examples of terminal display screens displayed on the display unit 306 of the terminal 300 at some characteristic points in the processing flow.
  • FIG. 9 is a diagram showing an example of a terminal display screen during avatar editing, and is an example of the avatar editing screen 900 at the time of S105 in FIG.
  • each avatar part can be selected based on the avatar part information 205 received in S104 from the server 200 displayed in the parts display area 902 while checking its own avatar in the avatar display area 901.
  • the user selects an avatar part on the screen 900, basically, while checking the image data for each part included in the avatar part information 205, Select avatar parts.
  • the avatar part information 205 when the avatar part information 205 is presented to the user, the image data of each part and the data indicating the classification are utilized, but the characteristics of each part included in each avatar part information are described. The information thus obtained may not be explicitly presented to the user.
  • FIG. 10 is a diagram showing an example of a terminal display screen during social viewing, and is an example of the social viewing screen 1000 at the time of S402 in FIG. Although illustration in FIG. 6 is omitted, it is also possible to display an avatar edit button 1006 for returning to the avatar creation process S100 in the social viewing screen 1000. Accordingly, it becomes easy for the user to change and edit the avatar parts such as clothes of his / her avatar. Further, for example, as shown in the example of FIG. 10, by securing an area 1002 for displaying advertisement content in the social viewing screen 1000, for example, the sponsor of the content displayed in the content display area 1001 It becomes easy for an advertiser who handles a product closely related to the content to display the advertising content on the terminal 300 in a form associated with the content.
  • FIG. 11 is a diagram showing an example of a terminal display screen during group social viewing, and is an example of the group social viewing screen 1100 at the time of S506 in FIG.
  • the group social viewing screen 1100 is displayed at the time of S506 in FIG.
  • the buttons for “speak” and “participate in conversation” are displayed immediately below the avatar being displayed as shown in the specific area 1104 corresponding to the position of the member's avatar and the speech.
  • the user personality calculation processing S201 and the clustering processing S310 in the following example are preferably performed by the control unit 201 of the server 200 as described above, but even if the same processing is performed by the control unit 301 of the terminal 300. no problem.
  • the processing at the terminal 300 may be preferable. It is also possible to monitor the traffic state of the network 101 based on the transmission / reception response speed and to switch between executing the processing in the server 200 or the terminal 300.
  • FIG. 12 is a diagram illustrating a detailed processing flow of the user personality calculation processing S201 in the first embodiment.
  • a plurality of avatar part IDs selected by the user are extracted using the user avatar configuration information included in the user management information 206.
  • a keyword given in advance for each avatar part ID included in the avatar part information 205 is extracted, and the keyword and the keyword in the plurality of avatar part IDs selected by the user are extracted. Aggregate the frequency of extraction. For example, it is assumed that, among avatar parts, keywords “sporty” and “cute” are assigned to a certain hairstyle part, and “sporty” and “elegant” are assigned to another hairstyle part. If a user edits an avatar and a large number of keywords such as “sporty” and “cutie” are extracted from all or some of the selected avatar parts, the user is aggregated at the time of editing the avatar. For example, data such as “sporty: 83%”, “cutie: 75%”, and the like are data.
  • FIG. 13 is a diagram illustrating a detailed processing flow of the clustering processing S310 in the first embodiment.
  • personality data of each user is acquired from the extracted user management information of the plurality of users.
  • the personality data is data including a keyword and its extraction frequency.
  • the clustering algorithm information 208 includes a group name extracted by the algorithm and a program, script, or the like in which the clustering procedure is described. For example, as an algorithm corresponding to the group name “similar”, “extract users who match both the keyword with the highest extraction frequency and the keyword with the lowest extraction frequency among the keyword ranking information of each user” As an algorithm corresponding to the group name “familiarity”, “the group member having the third highest keyword in the user's keyword ranking information is extracted, and the extraction frequency of the keyword is close (the extraction frequency is 25%). For example, a specific clustering algorithm such as “extracting a plurality of users (for example, 20% to 30%)” is conceivable, and the clustering algorithm information 208 specifies the name of a program file for executing the processing. Yes.
  • S804 user clustering is performed based on the algorithm, the group name and the user ID list included in the group are extracted, and the data of the group name and the user ID list are output as a result of the clustering process.
  • the user personality calculation process S201 and the clustering process S310 in the first embodiment allows the user to select and create and edit his / her avatar from the avatar part information 205, and to create other user groups based on various relationships. It will be possible to receive recommendations.
  • the clustering algorithm can set in advance various algorithms with different criteria (group names), so each time a new algorithm is set, Since the user can receive a new clustering result, for example, even when the same content is viewed many times, a service value can be provided such that a new communication partner can always be found without getting bored of the user. .
  • the advertisement can be efficiently presented.
  • the advertisement-related advertising content is displayed in the advertisement content display area 1002.
  • the “sporty” keyword is similarly metastasized.
  • the clustering process similar to the above can be performed by defining the clustering process S310 after S802 without performing the process of S801. .
  • personality data is extracted using a keyword assigned to each avatar part.
  • similar keywords may be extracted from metadata such as viewing content tags or electronic content. It can be given to information included in the program guide or extracted from the information and utilized. In this case, for example, by storing and using information such as the viewing content ID and the viewing content history for a certain period included in the user management information 206, the user's personality can be further calculated in detail. .
  • FIG. 14 is a diagram illustrating an example of the avatar part information 205 according to the first embodiment.
  • the avatar part information 205 includes at least a part ID, one or more classifications, images, and keywords.
  • the part ID identifies each avatar part, and is composed of, for example, alphabets and numbers such as PT0058.
  • the classification is for indicating which part of the avatar the part corresponds to. For example, the head, the right arm, or the like can be written. Note that, as shown in FIG. 9, the classification information is used when displaying each part on the terminal 300 when the avatar is edited by the user, thereby improving the convenience of the user's editing work.
  • the image is an image of each part itself, for example, PT0058. It can be described by an image file name such as jpg.
  • the keyword is one or a plurality of arbitrary words that represent the characteristics of the part.
  • FIG. 15 is a diagram illustrating an example of the user management information 206 according to the first embodiment.
  • the user management information 206 is stored on the server 200 or each terminal 300 in order to manage users who use the service when a specific service is provided to the user.
  • personal information such as user name, gender, and birthplace can be registered by input by the user himself / herself.
  • services can be provided while using similar personal information.
  • the description of the general user information and the use thereof is omitted, and the first embodiment is characterized. Only the part which becomes will be described.
  • the user management information 206 in the first embodiment includes at least user ID, viewing content ID, avatar configuration, and personality information.
  • the user ID is for specifying each user, and is composed of, for example, alphabets and numbers such as JP256378.
  • the viewing content ID is information for specifying the content that is updated every time the user selects broadcast content or multimedia content in the virtual space. For example, as in TV_ch4_Tnews5 or the like, whether the content is broadcast reception (TV), in the case of broadcasting, channel information (ch4), the name of the content broadcast at the time selected by the user (Tnews5), etc. Information can be included. In the case of broadcast content, there may be a code number for identifying the program in units of programs, so that the code number can be used as a viewing content ID.
  • the part ID described in the avatar part information 205 can be used, and the part IDs of a plurality of avatar parts currently selected by the user can be described.
  • the personality is stored by associating the personality data output in the user personality calculation process S201 shown in FIG. 5 with the user ID.
  • a list of user IDs clustered in the group As shown in FIG. 15, a plurality of clustering algorithms can be used, and depending on the clustering algorithm, the type and number of the output result data may be changed. Therefore, for example, Psn256378_0562.
  • a file name in a format such as csv that can be saved in a two-dimensional array information format, such as csv.
  • the file name includes information that can identify the user ID and information that can identify the clustering algorithm (in this example, for example, Alg0562.js).
  • color information used for the image of the part for each avatar part without adding metadata such as keywords to the avatar part.
  • clustering algorithms can be used.
  • the color information constituting the part for each avatar part is converted to RGB or CIELAB. It can be calculated as coordinates in the color space, and average color information in units of avatars can be calculated from the part color information and stored as personality in the user management information 206. Thereafter, the color information of each user is compared and collated based on a predetermined algorithm, and clustering is performed.
  • the color information of each user is combined with characteristic information (personality data) such as the preference and personality of the user.
  • the average color of the avatar is “yellow”.
  • FIG. 17 is a diagram illustrating an example of a relationship between male average avatar colors that are compatible well with each average avatar color of a user whose gender is female. For example, if the average avatar color of a user whose female is gender is “red”, other users who are male and whose average avatar color is “blue” or “white” are clustered. Processing such as “male” becomes possible.
  • the correlation of the avatar color information shown in FIG. 16 and FIG. 17 shows the relationship using the color name, and these are represented by a general Munsell color system, RGB, XYZ, CIELAB color system, etc.
  • color data including numerical values such as, it is possible to give a certain range when deriving the relationship between users, and to adjust the number of group members to be output as appropriate become able to.
  • Other users are extracted.
  • An algorithm that extracts other users may be used.
  • various psychological test methods using color can be applied. For example, along with the chromaticity information for each avatar part, by utilizing information on where the chromaticity information is located in the user's avatar, a psychological test called “color pyramid test” It is possible to use a technique. In this test, the user's “emotion and ego function”, “emotion stability, sensitivity and responsiveness, emotional maturity, adaptability, inward / outward” etc.
  • the group name is set to “goodness”, and users having the same result of “inward” and “outward” are clustered. It is also possible.
  • the user is required as a minimum work to receive the service of this system without performing troublesome work such as searching for a user who seems to be compatible with himself from many other users.
  • By selecting your favorite avatar part and creating your own avatar you will be able to receive recommendations from other user groups from the system, such as your friendship and friendship.
  • a virtual space providing system for a user to select an avatar part, create his / her own avatar and communicate with other users on the virtual space. Is not limited to this.
  • the user does not necessarily need to create an avatar, but creates a room, a garden, etc. for himself in the virtual space, or creates an avatar, a room, a garden, etc. created by another user.
  • the personality of the user may be determined based on the information by enabling the evaluation. Specifically, when creating a room in a virtual space, image parts such as walls, floors, furniture, doors, windows, rugs, curtains, etc. prepared in advance are selected, as shown in FIG.
  • a process capable of presetting a keyword for each part or calculating an average color for each part as shown in FIGS. 16 and 17 and the selected one or more pieces of part information A system configuration that determines user personality based on the user, so that the user can receive recommendations for other user groups from the system, such as friendliness and friendships, just by selecting a part. become. Similarly, by not only selecting the user's own parts, but also having a configuration that can evaluate “like” etc. for the parts selected by other users and their combinations, It is also possible to determine the personality of the user by combining the information and information based on each part.
  • the example of the virtual space providing system for the user to communicate with other users has been described, but the present invention is not limited to this. That is, it is not always necessary to provide a virtual space.
  • the user can select an image part such as an emoji or a stamp, When setting a tweet or blog on the network and describing it, blog parts, background images, their arrangement, pictograms, etc. may be selected. More specifically, when a user performs an action such as conversation, chat, diary, tweet, blog, and photo sharing in a system in which at least parts including images and combinations thereof can be shared with other users. Among them, the user can select image parts prepared in advance, and keywords as shown in FIG.
  • a system configuration having a process that can be calculated or can be calculated for each and a process for determining a user personality based on the selected one or more pieces of part information, the user can particularly increase his / her personality.
  • the information can be further configured by allowing the user to give an evaluation such as “Like” to the image parts such as blogs and photos of other users. It is also possible to determine the personality of the user in combination.
  • an example of an action that a user participates in a social network including a community, etc. communicates with another user, shares information such as a favorite image, and an application that supports the action.
  • application examples of the method according to the present invention can be considered in the same manner for other user behaviors and applications. For example, when a user creates a material such as a presentation, a document, or a graph using a PC, when preparing the material by selecting graphic parts of various colors and shapes prepared in advance, As in the embodiment, a keyword as shown in FIG. 14 is preset for each part for each part, or an average color as shown in FIG. 16 or 17 is calculated for each part.
  • the user By preparing a system configuration having a process capable of determining the user personality based on the selected one or more pieces of part information, the user is particularly aware of his personality Rather than just selecting various parts, when you join a social network after creating a document, you have a good friendship and friendly relationship with yourself. It is possible to receive the user groups recommendation from the system. Similar application examples can be considered, for example, what color, shape tag or marker is selected when correcting or proofreading a document, font used in that case, and Information such as what color to select can also be used in the user personality determination process, what color and shape part to select as a marker when using a map application, In an application such as a mobile device using a camera, it is possible to use information such as what deformation tool, color conversion, and decoration part selection.
  • SYMBOLS 100 ... Terminal server system, 101 ... Network, 200 ... Server, 300 ... Terminal, 900 ... Avatar edit screen, 901 ... Avatar display area, 902 ... Avatar parts display area, 1000 ... Social viewing screen, 1001 ... Content display area, 1002 ... Advertisement display area, 1003 ... Virtual space display area, 1004 ... Number of viewers display area, 1005 ... Group list display area, 1006 ... Avatar edit button, 1100 ... Group social viewing screen, 1103 ... Avatar and message display area of group user 1104 ... Chat etc. participation button

Abstract

 サーバ装置(200)と複数の端末装置(300)がネットワーク(101)を通じて接続されたシステム(100)であって、サーバ装置(200)に記憶された複数のアバタパーツに基づいてユーザパーソナリティ情報を算出し、当該ユーザパーソナリティ情報に基づいてユーザをクラスタリングして1または複数のグループを作成する。

Description

サーバ装置、端末装置及び処理方法
 本発明は、ネット上の仮想空間に複数のアバタを登場させて、ユーザ同士でコミュニケーションをとることができる仮想空間提供システム及びサーバ装置に関する。また、当該仮想空間において、複数のユーザで同時に同じ映像や音声等のマルチメディアコンテンツを視聴でき、それらの複数のユーザに対して広告主が適切な広告コンテンツを提供できるシステム及びサーバ装置に関する。
 近年、複数のユーザがインターネットを介して同時に参加することのできるロールプレイングゲーム等のネットワークゲームが普及している。
 この種のネットワークゲームでは、サーバにより、ユーザがアクセス可能なネットワーク上に仮想的な空間が生成され、当該仮想空間内で、各ユーザが自分自身を象徴するアバタを作成、設定し、当該アバタを操作しながら仮想的にユーザ同士でコミュニケーションをとることのできるシステムが準備される。
 そうしたコミュニケーションシステムにおいては、現実の世界では知り合うことが難しい物理的に遠方のユーザとも同じ仮想空間上で出会い、会話等を楽しむことができるが、多数のユーザの中からより効率よくコミュニケーション相手を見つけ出すことができるような仕組みが求められるため、ユーザのブログ情報を活用した嗜好共通性の検出(特許文献1)や、予めユーザの趣味情報や好みの商品情報等をアバタに登録できるようにしておき当該情報を交換可能にする(特許文献2)等といった技術が提案されている。
 また、他のユーザとのコミュニケーションをとりながら、映像や音声等のコンテンツをストリーミング視聴することが可能で、その際、当該視聴行動でコミュニケーショングループを形成するだけではなく、当該グループ毎に話題や参加資格等の属性を登録できるようにして、より細かいグループを選択可能にする技術(特許文献3)の提案もある。
 さらに、仮想空間内のユーザに対してある広告主が広告を出そうとする場合に、ユーザ毎に付けられた固有の情報やアバタの行動履歴等の情報を分析して、マーケティング情報として活用する方法(特許文献4)も提案されている。
日本国公開特許公報「特許第4884918号公報」 日本国公開特許公報「特開2012-230707号公報」 日本国公開特許公報「特開2006-108996号公報」 日本国公開特許公報「特開2011-216073号公報」
 しかしながら、前記従来技術では、各ユーザが仮想空間内や別途保有するブログ等において、積極的かつ明示的に自分自身の特徴やメッセージ等を予め入力したり、コミュニケーショングループ設置の際にその話題や参加資格を設定したりしておく必要がある。そのため、作業や設定が面倒で、各ユーザが既に認識している自分自身の表面的な特徴や意図的な内容しか準備、入力できなかった上に、その場その場で変化するような一時的な感情や気分を簡単に表現したり、サービスに反映させたりことは非常に困難であった。また、アバタに付与される情報も、ユーザのブログ情報も、グループ名に設定される情報も、主にユーザが入力したテキストベースの情報であるため、行動履歴情報の活用を追加したとしても、コミュニケーション相手を自動的に見つけ出す際に、ユーザ間の表面的意図的な共通性は検出可能だが、お互いの友好関係や相互依存関係等といった相性や関係性の検出は極めて困難であった。
 本発明はこのような問題点に鑑み、ユーザによる煩わしい追加作業を必要とせず、気に入ったパーツを選択するという簡単な作業により、適時アバタを作成、編集するだけで、当該ユーザとの相性や友好関係等の任意の観点でユーザグループを適時抽出するが可能な、クラスタリング手段を提供することを目的とする。
 上記課題を解決するために、本発明の一態様に係るサーバ装置は、端末装置とネットワークを介して接続されたサーバ装置であって、前記端末装置において、ユーザが選択した1または複数の画像パーツに設定された画像パーツ情報に基づき、前記ユーザのユーザパーソナリティを決定することを特徴としている。
 上記課題を解決するために、本発明の一態様に係る端末装置は、ユーザが1または複数の画像パーツを選択し、前記選択された画像パーツを特定する情報を前記サーバ装置へ送信し、前記ユーザパーソナリティ、または、該ユーザパーソナリティに基づいて行われた、複数のユーザ間のクラスタリングに基づくグループリストを前記サーバ装置から受信することを特徴としている。
 上記課題を解決するために、本発明の一態様に係る処理方法は、端末装置とサーバ装置がネットワークを介して接続され、前記サーバ装置が、前記端末装置においてユーザが選択した1または複数の画像パーツに設定された画像パーツ情報に基づき、前記ユーザのユーザパーソナリティを決定することを特徴としている。
 本発明により、ユーザの煩わしい追加作業を必要とせず、気に入ったパーツを選択するという一般的手法によるアバタの作成、編集作業だけで、当該ユーザとの相性や友好関係等の任意の観点でユーザグループを適時抽出することが可能な、クラスタリング手段を有するシステム提供ができる。
本発明の実施形態で使用する端末サーバシステムの全体構成を示す図である。 本発明の実施形態で使用するサーバの内部構成を示すブロック図である。 本発明の実施形態で使用する端末の内部構成を示すブロック図である。 本発明の実施形態における処理フローを示す図である。 本発明の実施形態におけるアバタ作成プロセスとユーザパーソナリティ算出プロセスの詳細な処理フローを示す図である。 本発明の実施形態におけるクラスタリングプロセスとグループ表示プロセスの詳細な処理フローを示す図である。 本発明の実施形態におけるフィルタリングプロセスの詳細な処理フローを示す図である。 本発明の実施形態における双方向コミュニケ-ションプロセスの詳細な処理フローを示す図である。 本発明の実施形態におけるアバタ編集時の端末表示画面例を示す図である。 本発明の実施形態におけるソーシャル視聴時の端末表示画面例を示す図である。 本発明の実施形態におけるグループソーシャル視聴時の端末表示画面例を示す図である。 本発明の実施形態1におけるユーザパーソナリティ算出処理の詳細な処理フローを示す図である。 本発明の実施形態1におけるクラスタリング処理の詳細な処理フローを示す図である。 本発明の実施形態1におけるアバタパーツ情報の例を示す図である。 本発明の実施形態1におけるユーザ管理情報の例を示す図である。 本発明の実施形態2におけるアバタ色情報を用いた関連性の例を示す図である。 本発明の実施形態2における性別が女性のユーザのアバタ平均色に対して、予め相性の良い男性のアバタ平均色の組合せ例を示す図である。
 以下、図面を参照しながら、本発明の実施形態について説明する。
(概要)
 図1に示すように、本実施形態で使用する端末サーバシステム100では、コンピュータやスマートフォン等の多数の端末装置300a~300cが、LANやWAN等の有線回線や、携帯電話網や無線LAN等の無線回線を経由して、インターネット等のネットワーク101へ接続することが可能で、当該ネットワーク101を経由して、サーバ200にアクセスすることができる。
 サーバ200は、端末装置300からのユーザ要求に応じて、アバタパーツ選択によるアバタ編集機能、当該アバタの適切な配置と移動が可能な仮想空間提供機能、当該仮想空間内でマルチメディアコンテンツや広告コンテンツを視聴できるようにするコンテンツ配信機能、チャットやつぶやき等を入力、表示、共有する等のコミュニケーションプラットフォームを提供する機能、等を有する。
 端末300とサーバ200は、HTTP(HypertextTransfer Protocol),UDP(User Datagram Protocol),RTSP(Real Time Streaming Protocol)等の通信方式を用いて、データの送受信を行うことができる。
 端末300は、サーバ200から送られてくるHTMLファイル等で構成された仮想空間情報を受信し、ウェブブラウザ等のアプリケーションを用いて、液晶や有機EL等のディスプレイに仮想空間を表示する。さらに、放送波から放送コンテンツを受信したり、サーバ200からマルチメディアコンテンツを受信したりして、仮想空間内の指定されたマルチメディアコンテンツ領域に動画を再生させる機能、ユーザの操作に応じて前記アバタの動きや、アバタ同士の会話等を適宜入力させたり表示したりする機能、サーバから広告コンテンツを受信して、仮想空間内の指定された広告コンテンツ領域に表示させる機能等を有する。
 以下、本実施形態で使用するサーバ200について、図を参照しながらさらに説明する。
 本実施形態で使用するサーバ200内部の要部構成について図2を参照しながら説明する。
(サーバ200の構成)
 図2に示すように、本実施形態で使用するサーバ200は、処理動作を制御する制御部201、通信部202、記憶装置203を備えている。制御部201は、MPU(Micro-Processing Unit)やCPU(CentralProcessing Unit)、もしくはそれらの組み合わせ等により構成され、図示していないが、基本入出力システム(BIOS)等が記憶されているリードオンリーメモリ(ROM)や、プログラム領域とデータ領域を有するランダムアクセスメモリ(RAM)等が接続されている。また、通信部202は、インターネット等のネットワーク101を経由して、端末300とのデータの送受信を行うものであり、LANやWAN等の有線回線を使うものであっても、無線LANや携帯電話網等の無線回線を使うものであってもよく、回線に応じて送受信したいデータを適切なIPパケットに変換し、IPアドレス等の情報に基づいたパケットの送受信を行う。
 記憶装置203は、ハードディスク、フラッシュメモリ(SSD)、光ディスク、光磁気ディスク等のストレージであり、その中に、図2のように、仮想空間情報204、アバタパーツ情報205、ユーザ管理情報206、パーソナリティ算出アルゴリズム情報207、クラスタリングアルゴリズム情報208、マルチメディアコンテンツデータ209、広告コンテンツデータ210、コミュニケーション管理データ211等が格納されている。
 また、記憶装置203には、TCP/IP等の通信プロトコルに従って各種の情報やデータを送受信することが可能なOS(Operating System)や、Apache等のウェブサーバアプリケーションソフトウェアのAPI(Application Programming Interface)群を利用するマルチメディアアプリケーションソフトウェアや、サーバ200から端末300にダウンロードされて端末300のウェブブラウザ上で実行されるJavascript(登録商標)やJava(登録商標)アプレット等が格納されている。
 仮想空間情報204は、HTML、Javascript、スタイルシート等のファイルで構成されており、端末300のウェブブラウザによって解釈され、端末300の表示手段上に仮想空間を表示させる。また、当該仮想空間情報204は、マルチメディアコンテンツを特定するIDや、仮想空間にアバタを参加させているユーザを特定するユーザID等と紐付けできるように記憶されたテーブル形式のデータを含み、マルチメディアコンテンツ毎、ユーザ毎の専用の仮想空間を表示させるようにしておくことができる。
 アバタパーツ情報205は、詳しいデータ構造等は後述するが、ユーザが自分自身の分身として仮想空間に投影するアバタを作成、編集する際等に使用される情報で、アバタを構成する、髪型、目、シャツ、靴等の部分的な画像データ群が含まれる。
 ユーザ管理情報206は、詳しいデータ構造等は後述するが、端末300を操作、使用するユーザとそのユーザのアバタ、ユーザの性格や趣味等を表すパーソナリティデータ等を含む情報である。また、その場その場で視聴している放送コンテンツやマルチメディアコンテンツを特定するIDや、それらのコンテンツの視聴履歴、アバタの編集履歴、他のユーザとの会話履歴等を記録するようにしておいてもよいし、性別や出身地等のユーザ個人情報を登録できるようにしておいてもよい。さらに、ユーザ管理情報206に含まれる前記種々のデータに対して、公開可否や公開範囲等の情報を付すようにしておいてもよい。
 パーソナリティ算出アルゴリズム情報207と、クラスタリングアルゴリズム情報208は、詳細は具体例を用いて後述するが、いずれもサーバ200に蓄積された情報や通信部202を経由して入力された情報を用いて、パーソナリティ算出、クラスタリング処理を実行するためのプログラム、もしくは、当該プログラムが動作する際に参照する処理手順を示すような情報が含まれる。
 マルチメディアコンテンツデータ209は、映像、音声、文字等のデータを単独、または複数含むように構成されたデータであり、ユーザ要求に応じて、端末300へ送信され、端末300の表示手段上で再生される。当該コンテンツデータ209は、放送局や番組制作会社等により準備された映像と音声のデータであっても、ユーザがビデオカメラやスマートフォン等で自ら撮影した映像や音声のデータ等であってもよいし、映像や音声、文字等をユーザが適宜選択し、組み合わせて取得、再生してもよい。また、特にIPTVやビデオオンデマンド等のサービスを提供するような場合、サーバ200には非常に多数のマルチメディアコンテンツデータ209が記憶されることになるため、当該コンテンツデータ209は、番組単位や、シーン単位、映像、文字等のコンポーネント単位等で、各データを特定可能なID等が付してあることが好ましい。
 広告コンテンツデータ210は、映像、画像、音声、文字等を単独、または複数含むように構成されたデータであり、広告主が予めサーバ200に登録できるデータである。広告される商品やサービスに応じて、ターゲットとするユーザは広範囲だったり、ピンポイントだったり、様々な状況が想定されるが、後述するユーザパーソナリティ算出処理やクラスタリング処理のアルゴリズムに基づいて、ターゲットユーザを絞り込むことができるようなタグやメタデータ等を付加できるようにしておくことが好ましい。
 コミュニケーション管理データ211は、文字、音声、映像、アバタの動作等を用いて、ユーザ同士が行うチャットや会話等のコミュニケーションを可能にするために必要となる管理データであり、例えば、発言毎に発言IDを付し、当該発言をしたユーザID、当該発言の属性情報(特定ユーザへの返信なら相手のユーザID、特定チャットルーム内での発言ならチャットルームID、独り言なら「all」等)、発言自体を表す文字や音声のデータ、発言が入力された際の当該ユーザアバタの仮想空間内の位置(座標値等)情報や時刻(UTC等)情報、発言された際にユーザが視聴していたマルチメディアコンテンツID等を含む。また、この際に、発言毎、もしくはチャットルーム毎に、発言を公開する範囲を指定できるようにしておくことが好ましい。
 以下、本実施形態で使用する端末300について、図を参照しながらさらに説明する。
 本実施形態で使用する端末300内部の要部構成について図3を参照しながら説明する。
(端末300の構成)
 図3に示すように、本実施形態で使用する端末300は、処理動作を制御する制御部301、通信部302、ユーザ情報管理部303、コンテンツ処理部304、放送受信部305、表示部306、入力部307で構成されている。
 制御部301と通信部302は、前記サーバ200における制御部201、通信部202と同様であるため、詳細説明は省略する。
 ユーザ情報管理部303は、サーバ200に記憶されているユーザ管理情報206のうち、当該端末300を使用するユーザに関するデータを記憶したり、当該データの変更履歴等を管理したりする部分であり、ハードディスク等の記憶装置で構成される。特に、1つの端末300を複数のユーザが使用するような共用端末の場合、ユーザ個々のデータをID等でログイン情報と紐付けてユーザ情報管理部303で管理しておくことで、ログイン情報に基づいてユーザ毎に適切なデータや処理を選択することができるようになり、より好ましい。
 コンテンツ処理部304は、少なくとも符号化された映像や音声データ等のデコード機能やウェブブラウザ機能を有し、放送から受信したコンテンツやサーバ200から受信したマルチメディアコンテンツ209、また映像や音声を含む広告コンテンツ210を表示部306で表示する際に、コンテンツに応じてデコード方式を選択、実行したり、HTMLファイルやJavascript、スタイルシート等を解釈して適切な配置や動作をさせながら表示部306に表示させたりする。
 放送受信部305は、放送波を経由して、映像や音声や文字等の放送コンテンツを受信する部分であり、アンテナ、チューナ、選局等の機能を有する。
 表示部306は、液晶や有機EL等のディスプレイデバイスやそれらの駆動ドライバ等で構成され、制御部301を経由してコンテンツ処理部304から受け取ったコンテンツとその表示指示に従って、仮想空間やマルチメディアコンテンツ等をユーザに提示する。
 入力部307は、ユーザからの指示を受信する部分であり、タッチパネル、リモコン、キーボードやマウス等で構成され、ユーザの入力インタフェース機能を有する。
(共通処理フロー)
 次に、本実施形態における処理フローを図4~図8を参照しながら説明する。
 図4は、ユーザが仮想空間内でアバタを介して、他のユーザとコミュニケーションをしながら、放送コンテンツやマルチメディアコンテンツのソーシャル視聴を行う場合の、処理フロー全体を説明するための図である。
 S100において、まず、ユーザは、サーバ200に記憶されたアバタパーツ情報205から個別パーツを選択することで、自分自身を表すアバタを作成したり、編集したりする。この際、ユーザは、アバタの作成、編集以外の点は特に意識することなく、自分の嗜好や審美眼、またはその時々の気分等に従って、パーツ選択を行うことができる。ただし、選択されたパーツや当該パーツの組合せ結果には、当該ユーザの個性や性格といったパーソナリティ情報が多かれ少なかれ暗示的に包含されている。
 そこで、S200において、後述するパーソナリティ算出処理をサーバ200、もしくは端末300で実行し、ユーザ管理情報206の中にパーソナリティデータを付加する。この作業とその結果は、当該ユーザに知らせるような設計にしてもよいし、何も知らせないような設計にすることも可能である。
 S300において、S200で算出されたパーソナリティデータを活用し、当該データの類似性やデータ間の相性、関係性等を導き出す所定のクラスタリングアルゴリズムに基づき、仮想空間内の多数のユーザをいくつかのグループにクラスタリングし、抽出されたグループ名と当該グループに含まれるユーザIDのリストとその総数等を出力する。なお、これらのクラスタリング処理とクラスタリングアルゴリズム例の詳細は後述する。
 S400においては、クラスタリング結果として得られたグループ名と、当該グループにクラスタリングされたユーザIDやその人数等の情報を、端末300の表示部306でユーザに提示し、ユーザが必要に応じて当該グループを選択できるようにする。この際、S300より出力された結果を全て表示するようにしてもよいし、例えば、グループに含まれるユーザ数で並べ替えを行い、ユーザ数の多い順に、上位3グループまで表示する等の任意の表示用アルゴリズムを設定しておいてもよい。
 S500において、特定のグループをユーザが選択した際、当該グループにクラスタリングされた複数のユーザを抽出し、当該複数のユーザのIDに基づいて、それらのユーザのアバタや発言等を仮想空間内に表示させる。この際、当該グループに含まれる全てのユーザに関する情報を表示させてもよいし、端末300の表示部306の表示容量(画素数等)や表示画面サイズ等に応じて、例えば、頻繁に発言しているユーザだけを表示したり、表示ユーザ数を予め20名等を決めておいて、グループ内でランダムに選択された20名のみを表示したり、といった任意の表示アルゴリズムを設定しておくこともできる。また、ユーザが発言する際に、2~3名等の小グループでチャットルームを設定して、ユーザ同士の会話が簡単にできるようにしておくことも可能で、その場合、例えば、前記20名等のグループユーザと当該ユーザの発言を表示する際、ユーザ単独のつぶやき等の発言表示に対しては「会話する」や「チャットする」、他ユーザが既に設置しているチャットルーム内の発言表示に対しては「会話に参加する」や「チャットルーム入場」等のユーザ行動の選択肢を表示することで、利便性を向上させることもできる。
 S600においては、S500でユーザが他ユーザの特定の発言に対して「会話する」や「会話に参加する」等の選択をした場合に、サーバ200に記憶されたコミュニケーション管理データ211の作成、参照、書き換え等を行いながら、当該他ユーザと、音声や文字等による双方向コミュニケーションができるようにする。
 図5は、図4におけるアバタ作成プロセスS100とユーザパーソナリティ算出プロセスS200の詳細な処理フローを示す図である。
 まず、S101において、ユーザが端末300にログインを行い、当該ログイン情報に基づいてユーザと特定するユーザIDがサーバ200へ送信される。当該ユーザIDが新規かどうかをサーバ200が判断(S102)し、既存ユーザのIDであれば、ユーザ管理情報206から当該IDの情報が抽出され、当該ユーザのアバタ構成情報が端末300へ送信(S103)される。続いて、サーバ200は、その時点で記憶されているアバタパーツ情報205を端末300へ送信(S104)する。次に、端末300では、アバタ構成情報を受信した場合は当該情報に基づいてアバタを表示するとともに、受信したアバタパーツ情報205に基づいてアバタパーツを表示(S105)し、ユーザによるアバタ編集が可能なようにする。当該アバタ編集の完了を判定(S106)した時点で、ユーザアバタ構成情報がサーバ200へ送信(S107)される。サーバ200は受信したユーザアバタ構成情報に基づいて、ユーザ管理情報206内の当該ユーザのユーザアバタ構成情報を更新(S108)する。この際、ユーザが新規である場合は、ユーザ管理情報206内に当該ユーザのIDを新たに設定して、当該ユーザの情報を作成し、その中に受信したユーザアバタ構成情報を追加する。また、端末300上では、最終的なアバタの画像を表示(S109)する。
 続いて、ユーザパーソナリティ算出プロセスS200では、後述するユーザパーソナリティ算出処理を行った(S201)後、当該IDのユーザ管理情報206におけるユーザパーソナリティ情報を新規に書き込むか、もしくは更新(S202)する。なお、ユーザパーソナリティ算出処理(S201)は、少なくともサーバ200に記憶されているアバタパーツ情報205とユーザ管理情報206を利用するため、サーバ200での処理実行が好ましく、その処理フローを例示したが、それらの必要な情報をサーバ200から適宜取得しながら、端末300でS201を実行するようにしてもよい。この場合は、算出されたユーザパーソナリティ情報を端末300からサーバ200へ送信した後、S202を行うとよい。
 図6は、図4におけるクラスタリングプロセスS300とグループ表示プロセスS400の詳細な処理フローを示す図である。
 まず、S301において、ユーザ操作により、視聴したいコンテンツが端末300上で選択される。図示していないが、この際、現在放送受信が可能なコンテンツ群や、サーバ200上に記憶されているマルチメディアコンテンツ209の情報群を、端末300が受信して、例えば、リスト形式等でユーザに提示し、当該リストを見ながらユーザがコンテンツを選択できるようにすると好ましい。コンテンツが選択されると、当該コンテンツを特定するコンテンツIDがサーバ200へ送信され、サーバ200は記憶装置203に蓄積されたマルチメディアコンテンツ209と、ユーザ選択コンテンツとを照合(S302)し、コンテンツIDが一致すれば該当するマルチメディアコンテンツデータを、端末300へストリーミング配信を開始(S303)する。次に、ユーザ管理情報206の中に含まれる、当該ユーザIDの視聴コンテンツID情報を更新(S304)する。また、記憶装置203から当該コンテンツIDと紐付けされた仮想空間情報204を抽出し、当該仮想空間情報を端末300へ送信(S305)する。端末300では、選択したコンテンツが放送コンテンツであればコンテンツ処理部304で適切なデコード処理を行い、サーバ200のマルチメディアコンテンツ209であればコンテンツデータ取得の後適切なデコード処理を行い、当該コンテンツを表示(S306)する。また、端末300は、サーバ200から受信した仮想空間情報204に基づき、仮想空間表示(S307)を行う。一方、サーバ200では、コンテンツIDに基づいて、ユーザ管理情報206における視聴コンテンツID情報に基づいて、当該コンテンツを視聴中の他のユーザを抽出し、その人数を算出、端末300へ視聴者数データを送信(S308)する。端末300はコンテンツ、仮想空間とともに、当該視聴者数を表示(S309)する。サーバ200では、当該コンテンツを視聴中のユーザIDに基づくユーザ管理情報206を用いて、所定のクラスタリングアルゴリズムに基づくクラスタリング処理(S310)を行う。このクラスタリングアルゴリズムとクラスタリング処理の詳細に関しては、具体例とともに後述する。なお、本例では、視聴コンテンツを選択して、当該コンテンツに紐付いた仮想空間を抽出する例を示したが、ユーザが端末300上で、サーバ200が記憶している仮想空間情報204の中から気に入った仮想空間を選択するようにしてもよい。
 続いて、グループ表示プロセスS400では、前記クラスタリングプロセスにおいてサーバ200が算出したクラスタリング結果のうち、1または複数のグループ名と当該グループにクラスタリングされたユーザIDリストの情報を用いて、グループリストを作成し端末300へ送信(S401)する。端末300では、受信したグループリスト情報を表示(S402)する。この際、必要に応じて、グループリスト情報から表示に用いるグループ名や人数等の情報を適宜取捨選択するようにしてもよい。
 図7は、図4におけるフィルタリングプロセスS500の詳細な処理フローを示す図である。
 まず、S501において、前記グループ表示プロセスS400で端末300上に表示されたグループリストから、ユーザがいずれかのグループを選択したかどうか判断し、選択された場合に当該グループのグループ名等の情報がサーバ200へ送信され、サーバ200は当該グループに含まれるユーザIDを前記クラスタリング処理S310の結果から抽出し、当該ユーザIDに対応するユーザ管理情報206をグループユーザ情報として端末300へ送信(S502)する。端末300は受信したグループユーザ情報を用いて、1または複数のユーザに対応するアバタを仮想空間内に表示(S503)する。一方、サーバ200は、当該選択されたグループにおけるコミュニケーション管理データ211から、当該グループに含まれるユーザIDに対応する発言と当該発言が行われたチャットルームID等の情報を抽出し、当該チャットルームIDやユーザ発言データを端末300へ送信(S504)する。端末300は当該受信データに基づいてグループユーザの発言や動作等を表示(S505)し、さらに、当該発言の属性(特定のチャットルーム内での発言か、単独のつぶやきか、等)に基づき、当該発言の表示タイミングや表示位置に対応させて、例えば、当該発言への返答を促す「会話する」ボタンや当該チャットルームへの参加を促す「会話に参加」ボタン等を表示(S506)する。
 図8は、図4における双方向コミュニケ-ションプロセスS600の詳細な処理フローを示す図である。
 S601において、前記S506のボタン選択により、チャットに参加(特定チャットルームに入室)したどうかの判断を行い、参加(入室)の場合は、当該チャットルームIDがサーバ200へ送信される。サーバ200は、受信したチャットルームIDに基づいて、コミュニケーション管理データ211から当該チャットルームに紐付けられた発言IDと当該発言IDに対応するユーザIDを抽出し、当該ユーザIDに基づいてユーザ管理情報206から当該チャットルームに参加しているユーザ情報を抽出(S602)し、端末300へ送信する。端末300では、受信した参加者ユーザ情報に基づいて、対応するアバタを表示(S603)し、かつ、端末300を利用中のユーザが発言を入力できるような入力フォームを表示(S604)する。ユーザが何かコメントを当該入力フォームから入力した場合、入力された発言データはサーバ200へ送信され、サーバ200のコミュニケーション管理データ211における発言管理データの更新や登録(S605)が行われた後、当該チャットルームIDを用いて発言IDを抽出(S606)し、当該発言IDに係るユーザ発言データが端末300へ送信される。端末300は、受信したユーザ発言データに基づいてチャットルームに参加しているユーザの発言を表示(S607)する。これにより、仮想空間内のチャットルームにおいて、ユーザは、自分自身のアバタと発言を端末300の表示部306で確認しながら、当該チャットルームに参加している他のユーザのアバタや発言も確認することができるようになる。
 以上のシステム構成と処理フローからわかるように、本実施形態により、ユーザは、単に自分自身のアバタを、アバタパーツの選択により作成、編集する作業を行うだけで、例えば、数万人のユーザが同時に同じコンテンツを視聴しているような放送コンテンツ等を他のユーザと同時に視聴する場合であっても、ユーザのパーソナリティ情報に基づいて適度な人数にクラスタリングされたいくつかのグループを選択することで、そのグループ内のメンバー(アバタ)や発言等を確認できたり、また、そのグループに参加して独り言をつぶやいたり、さらにそのグループ内の少人数メンバーとチャットルーム等で会話をしたりすることが可能となる。
(端末表示画面例)
 図9~図11は、前記処理フローのいくつかの特徴的な時点における、端末300の表示部306に表示される端末表示画面例を示した図である。
 図9はアバタ編集時の端末表示画面例を示す図であり、図5におけるS105の時点でのアバタ編集画面900の例である。この時点では、自分自身のアバタをアバタ表示領域901で確認しながら、パーツ表示領域902に表示される、サーバ200からS104で受信したアバタパーツ情報205により、各アバタパーツを選択することができる。なお、図9の画面例が示すように、ユーザは、当該画面900上でアバタパーツを選択する際、基本的には、アバタパーツ情報205に含まれるパーツ毎の画像データを確認しながら、各アバタパーツの選択を行う。言い換えると、本発明のシステムにおいては、アバタパーツ情報205をユーザに提示する際、各パーツの画像データと分類を示すデータは活用するが、各アバタパーツ情報に含まれるパーツ毎の特徴等が記載された情報を、ユーザに明示的に提示しなくてもよい。
 図10は、ソーシャル視聴時の端末表示画面例を示す図であり、図6におけるS402の時点でのソーシャル視聴画面1000の例である。図6での図示は省略したが、当該ソーシャル視聴画面1000の中に、アバタ作成プロセスS100へ戻るためのアバタ編集ボタン1006を表示しておくことも可能で、それによって、その場その場の気分に応じて、ユーザが自分のアバタの衣服等のアバタパーツを変更、編集することが容易になる。また、例えば、図10の例ように、広告コンテンツを表示するための領域1002をソーシャル視聴画面1000の中に確保しておくことで、例えば、コンテンツ表示領域1001に表示されるコンテンツのスポンサーや当該コンテンツに関連が深い商品を取り扱っている広告主が、当該コンテンツに紐付けた形で、広告コンテンツを端末300上に表示させることが容易となる。
 図11は、グループソーシャル視聴時の端末表示画面例を示す図であり、図7におけるS506の時点でのグループソーシャル視聴画面1100の例である。例えば、この画面1100の例が示す通り、コンテンツ表示領域1001とともに、クラスタリングされたグループメンバーのアバタとその発言等が特定領域1103に表示されるため、コンテンツを視聴しながらグループメンバーとコミュニケーションをとることが容易となる。また、前記「会話する」や「会話に参加」のボタンは、メンバーのアバタや発言の位置に対応して特定領域1104に示すように、発言表示中のアバタのすぐ下等に表示されるため、「会話する」のボタンを選択することで、特定メンバーの発言に対する反応や発言を入力したり、「会話に参加」のボタンを選択することで、特定メンバーが設置しているチャットルームに参加したりすることが容易にできるようになる。なお、当該ボタンを選択して、発言の入力を行った場合には、サーバ200が管理しているコミュニケーション管理データに当該発言を特定できる発言IDを付してデータが登録される際に、選択されたボタンに対応するチャットルームID等の情報が属性情報として付与されることが好ましい。
 以下、具体的なクラスタリングアルゴリズム例を参照しながら、ユーザパーソナリティ算出処理S201とクラスタリング処理S310における、より詳細な処理フローと、当該処理フローで活用される、アバタパーツ情報205、ユーザ管理情報206に関して、図を参照しながら、より詳細に説明する。なお、以下の例における、ユーザパーソナリティ算出処理S201とクラスタリング処理S310は、前記の通り、サーバ200の制御部201で行われることが好ましいが、同じ処理が端末300の制御部301で行われても問題ない。例えば、ネットワーク101の環境等の影響でサーバ200と端末300の間の通信速度が遅くなっているような状況においては、端末300での処理の方が好ましい場合もあるため、サーバ200や端末300の送受信レスポンス速度等により、ネットワーク101のトラフィックの状況を監視し、当該処理をサーバ200で実施するか、端末300で実施するか切り替えられるようにすることもできる。
 本発明の実施例として、アバタパーツ毎に当該パーツの特徴を表すキーワードをメタデータとして付与しておき、それらのキーワードをアバタ単位で集計することで、ユーザパーソナリティを算出して、パーソナリティデータを作成し、当該パーソナリティデータに基づいて、ユーザのクラスタリングを行うクラスタリングアルゴリズムの例を示す。
(ユーザパーソナリティ算出処理)
 図12は、実施形態1におけるユーザパーソナリティ算出処理S201の詳細な処理フローを示す図である。
 S701において、まず、ユーザ管理情報206に含まれるユーザのアバタ構成情報を用いて、ユーザに選択された複数のアバタパーツIDを抽出する。
 S702において、抽出されたアバタパーツIDに基づき、アバタパーツ情報205に含まれる、アバタパーツID毎に予め付与されたキーワードを抽出し、ユーザに選択された複数のアバタパーツIDにおいて、キーワードと当該キーワードの抽出頻度を集計する。例えば、アバタパーツのうち、ある髪型パーツには「スポーティ」と「キュート」のキーワードが付与されており、別の髪型パーツには「スポーティ」と「エレガント」が付与されているとする。ユーザがアバタの編集を行って、選択された全てのもしくは一部のアバタパーツから特に「スポーティ」や「キューティ」といったキーワードが多く抽出されたとすると、当該ユーザに対して当該アバタ編集時点で集計されるデータは、例えば、「スポーティ:83%」、「キューティ:75%」等のようなデータとなる。
 S703において、当該抽出されたキーワードに関して、抽出頻度に基づくランキングを作成する。前記の例であれば、「1位:スポーティ:83%」、「2位:キューティ:75%」等のようなデータとなる。
 従って、本実施形態1においては、ユーザパーソナリティ算出処理S201の結果としては、抽出されたキーワードとその抽出頻度が、例えば、頻度の高い順番にランキングされたデータが出力されることとなる。
(クラスタリング処理)
 図13は、実施形態1におけるクラスタリング処理S310の詳細な処理フローを示す図である。
 S801において、ユーザ管理情報206に含まれる視聴コンテンツIDに基づいて、S801の時点で同一のコンテンツを視聴しているユーザを抽出する。
 S802において、当該抽出された複数ユーザのユーザ管理情報から、各ユーザのパーソナリティデータを取得する。前述の通り、本実施形態1の場合、当該パーソナリティデータは、キーワードとその抽出頻度を含むデータである。
 S803において、予め決められたクラスタリングアルゴリズム情報208を取得する。当該クラスタリングアルゴリズム情報208には、当該アルゴリズムにより抽出されるグループの名称と、当該クラスタリング処理の手順が記載されたプログラムやスクリプト等が含まれる。例えば、グループ名が「似てるかも」に対応するアルゴリズムとして「各ユーザのキーワードランキング情報のうち、最も抽出頻度の高いキーワードと最も抽出頻度の低いキーワードの両方が一致するユーザを抽出する」や、グループ名「好相性」に対応するアルゴリズムとして「ユーザのキーワードランキング情報のうち、上位から3番目のキーワードが共通するグループメンバーを抽出し、当該キーワードの抽出頻度の数値が近い(抽出頻度が25%に対して、例えば20%~30%の)複数のユーザをさらに抽出する」等の具体的なクラスタリングアルゴリズムが考えられ、クラスタリングアルゴリズム情報208には当該処理を実施するプログラムファイル名等が指定されている。
 S804において、当該アルゴリズムに基づいて、ユーザのクラスタリングを行い、グループ名と当該グループに含まれるユーザIDリストを抽出し、当該グループ名とユーザIDリストのデータがクラスタリング処理の結果として出力される。
 以上、本実施形態1におけるユーザパーソナリティ算出処理S201とクラスタリング処理S310によって、ユーザが自身のアバタをアバタパーツ情報205から選択して作成、編集するだけで、様々な関係性に基づく他のユーザグループのレコメンドを受け取ることが可能となる。また、本実施形態1からわかる通り、前記クラスタリングアルゴリズムは、様々な基準(グループ名)でそれぞれに特色のあるアルゴリズムを予め設定しておくことができるため、新たなアルゴリズムが設定される度に、ユーザは新たなクラスタリング結果を受信できるため、例えば、同一のコンテンツを何度も視聴する場合等においてもユーザを飽きさせることなく、常に新たなコミュニケーション相手が発見できるといったサービス価値を提供できるようになる。
 さらに、当該ユーザに対して広告を提示したい広告主にとっては、当該広告を効率よく提示することが可能となる。例えば、自動車の広告を出したい広告主の場合、前述の通り、自動車に関連のあるコンテンツがコンテンツ表示領域1001に表示されている際に、広告コンテンツ表示領域1002に自動車関連の広告コンテンツを表示させている場合、ユーザが「似てるかも」のクラスタリングを要求し、かつ、クラスタリングされたグループメンバーの「最も抽出頻度の高いキーワード」が「スポーティ」であれば、同様に「スポーティ」のキーワードをメタデータに持つような別の自動車関連の広告コンテンツを広告コンテンツデータ210から抽出して表示領域1002に表示することによって、当該広告コンテンツにより大きな興味を持つユーザグループに対して、広告コンテンツを効率よく提示することが可能となる。
 なお、本実施形態においては、図6に示した処理フロー例と同様に、予めユーザがコンテンツを選択した後、クラスタリング処理を行う例に関して詳述したが、ユーザがコンテンツを特に何も視聴せずに仮想空間での多ユーザとのコミュニケーションのみを行う場合には、前記S801の処理を行わずに、S802以降をクラスタリング処理S310と定義することで、前記と同様のクラスタリング処理を実施することができる。
 また、本実施形態では、前記の通り、アバタパーツ毎に付与されたキーワードを活用してパーソナリティデータを抽出する例を示したが、同様のキーワードを、視聴コンテンツのタグ等のメタデータや、電子番組ガイドに含まれる情報等に付与しておいたり、当該情報から抽出して活用したりすることもできる。この場合、例えば、ユーザ管理情報206に含まれる視聴コンテンツIDや一定期間における視聴コンテンツ履歴等の情報を蓄積しておき、活用することで、さらにユーザのパーソナリティを詳細に算出することが可能となる。
 以下、本実施形態1において、サーバ200に記憶されているアバタパーツ情報205とユーザ管理情報206に関して、図を参照しながらより具体的に説明する。
(アバタパーツ情報)
 図14は、本実施形態1におけるアバタパーツ情報205の例を示す図である。
 アバタパーツ情報205には、少なくともパーツID、1または複数の分類、画像、キーワードが含まれる。パーツIDは各アバタパーツを特定するもので、例えば、PT0058等のようなアルファベットと数字等で構成される。分類は、当該パーツがアバタのどの部分に対応するものかを示すためのものであり、例えば、頭部や右腕等の記し方ができる。なお、この分類情報は、図9で示したように、ユーザによるアバタ編集時に、各パーツを端末300上に表示する際に利用することで、ユーザの編集作業の利便性を向上させることができる。画像は、各パーツの画像そのものであり、例えばPT0058.jpg等のように画像ファイル名で記すことができる。キーワードは、当該パーツの特徴を表すような、1または複数の任意の単語であり、例えば、「スポーティ」や「キュート」、「強い」、「暗い」等のような形容詞を登録することができる。なお、当該アバタパーツ情報205は、パーツ毎に予めパーツを作成した者等が作成して、登録しておくことができるものである。
(ユーザ管理情報)
 図15は、本実施形態1におけるユーザ管理情報206の例を示す図である。
 ユーザ管理情報206は、ユーザに対して、特定のサービスが提供される場合に、当該サービスを利用するユーザを管理するために、サーバ200もしくは各端末300上に記憶されるものであり、一般的に、ユーザ名や性別、出身地等の個人情報を、ユーザ本人による入力で登録できるものである。本実施形態1においても、同様の個人情報を活用しながら、サービス提供を行うことができるが、ここでは、それらの一般的なユーザ情報とその活用に関する説明は省略し、本実施形態1において特徴となる部分のみ説明する。
 本実施形態1におけるユーザ管理情報206は、少なくともユーザID、視聴コンテンツID、アバタ構成、パーソナリティの各情報を含む。ユーザIDは、各ユーザを特定するためのものであり、例えば、JP256378等のようなアルファベットと数字等で構成される。視聴コンテンツIDは、ユーザが仮想空間内で放送コンテンツやマルチメディアコンテンツを選択する度に更新される、当該コンテンツを特定するための情報である。例えば、TV_ch4_Tnews5等のように、当該コンテンツが放送受信か否か(TV)や、放送の場合であればチャンネル情報(ch4)や、ユーザが選択した時刻に放送されているコンテンツ名(Tnews5)等の情報を含むことができる。放送コンテンツであれば、番組単位で当該番組を特定するコード番号が付されている場合もあるため、当該コード番号を視聴コンテンツIDとして活用することも可能である。アバタ構成には、前記アバタパーツ情報205で説明したパーツIDを活用することが可能で、ユーザが現在選択している複数のアバタパーツのパーツIDを記すことができる。パーソナリティは、図5に記載のユーザパーソナリティ算出処理S201で出力されるパーソナリティデータを、ユーザIDに紐付けて記憶されるものであり、本実施形態1においては、図13に示した通り、クラスタリングアルゴリズムで抽出されるグループ名と、当該グループにクラスタリングされたユーザIDのリストが含まれる。当該結果データを図15内に直接記載することも可能だが、クラスタリングアルゴリズムは複数活用することができる上に、クラスタリングアルゴリズムによっては、出力される結果データの種類や数等が変化することも考えられるため、例えば、Psn256378_0562.csv等のように、2次元の配列情報形式で保存しておくことが可能な、csv等の形式のファイル名を記すことができるようにしておくとよい。この場合、ユーザIDを特定できる情報やクラスタリングアルゴリズム(本例の場合、例えば、Alg0562.js等)を特定できる情報がファイル名に含まれていることが好ましい。
 本発明の別の実施例として、アバタパーツに特にキーワード等のメタデータを付与しなくても、例えば、アバタパーツ毎に当該パーツの画像に用いられている色情報(色相、明度、彩度等)を算出し、当該色情報をアバタ単位で集計したり、アバタ単位の平均を求めたりして、ユーザの特徴を表すパーソナリティデータを作成し、当該パーソナリティデータに基づいて、ユーザのクラスタリングを行うような、クラスタリングアルゴリズムも活用できる。
 本実施形態2の場合のクラスタリングアルゴリズムとしては、例えば、まず、ユーザ管理情報206におけるアバタ構成情報よりアバタパーツのIDを抽出した後、当該アバタパーツ毎に当該パーツを構成する色情報をRGBやCIELAB色空間の座標として算出し、さらに、当該パーツ色情報からアバタ単位の平均色情報を算出して、ユーザ管理情報206におけるパーソナリティとして記憶させることができる。その後、各ユーザの色情報を用いて所定のアルゴリズムに基づき、比較、照合してクラスタリングを行うが、ここで、各ユーザの色情報を当該ユーザの嗜好や性格等の特徴情報(パーソナリティデータ)ととらえることで、単に共通性だけでなく、様々な関連性を基にクラスタリングを行うことが可能となる。例えば、図16は、本実施形態2におけるアバタ色情報を用いた関連性の例を示す図であり、この図16の関連性を予め決めておくことで、アバタの平均色が「黄色」のユーザに対して、「紫色」や「水色」の他のユーザをクラスタリングし、グループ名を「依存関係」としたり、アバタの平均色が「赤色」のユーザに対して、「緑色」の他のユーザをクラスタリングし、グループ名を「あこがれ」としたり、アバタの平均色が「水色」のユーザに対して、「紺色」や「緑色」の他のユーザをクラスタリングし、グループ名を「友好関係」としたり、といったクラスタリング処理を行うことが可能となる。
 また、前記のように、ユーザ管理情報205に性別情報を含むようにしておいて、かつ、当該ユーザのアバタの平均色情報と組み合わせたようなクラスタリングも可能である。例えば、図17は、性別が女性のユーザの各アバタ平均色に対して、予め相性の良い男性のアバタ平均色の関連性の例を示した図である。例えば、性別が女性のユーザのアバタ平均色が「赤色」の場合に、性別が男性で当該アバタ平均色が「青色」や「白色」の他のユーザをクラスタリングし、グループ名を「好相性な男性」とする等の処理が可能となる。
 さらに、図16や図17に示すアバタ色情報の相関関係は、色名を用いた関係性を示しているが、これらを一般的なマンセル表色系やRGB、XYZ、CIELAB等の表色系等の数値を含む色データに変換しておくことで、ユーザとユーザとの関係性を導き出す際に、ある程度の幅を持たせることができ、出力されるグループメンバーの数を適宜調整することもできるようになる。例えば、前述の「赤色」のユーザに対して「緑色」の他のユーザをクラスタリングする例であれば、「緑色」を表す(R,G,B)=(0,256,0)に相当する他のユーザを抽出するが、その際に、例えば、抽出されるユーザが数名しか居ない等の場合に、グループメンバー数が20名になるまで前記「緑色」のRGBデータに数値的に近い他のユーザを抽出するようなアルゴリズムにしておいてもよい。
 同様に、図16や図17においては、色情報における色相に関係する数値のみを活用しているが、アバタ平均色として算出される色情報における彩度や明度に相当する数値を併せて活用してもよい。例えば、前述のアバタ平均色が「水色」のユーザに対して「紺色」や「緑色」の他のユーザをクラスタリングする際、「水色」の彩度と明度を考慮して、「紺色」や「緑色」のユーザ抽出の後に、それぞれの彩度と明度を比較して、彩度と明度が同程度のユーザをさらに抽出するようにしてもよい。
 また、パーツの色を活用したクラスタリングアルゴリズムの他の例として、色を用いた各種の心理テスト手法を応用することも可能である。例えば、アバタパーツ毎の色度情報とともに、当該色度情報が、ユーザのアバタにおいてどのような位置に配置されているかという情報も活用することで、「カラー・ピラミッド・テスト」と呼ばれる心理テストの手法を用いることが可能である。当該テストでは、色の選択とその配置パターン等によって、例えば、ユーザの「情動性と自我機能」や「情緒安定性、感受性や反応性、情緒的成熟度、適応力、内向・外向」等を診断可能であるため、この場合のクラスタリングアルゴリズム例としては、例えば、グループ名を「好相性」としておいて、「内向」の程度と「外向」の程度が同程度の結果を持つユーザをクラスタリングする、といったことも可能である。
 以上からわかる通り、ユーザは、多数の他のユーザの中から自分で相性の良さそうなユーザを探す等の煩わしい作業を行うことなく、本システムのサービスを受けるために最低限必要な作業として、自分が気に入ったアバタパーツを選択しながら自分自身のアバタを作成するだけで、自分自身と好相性や友好関係等といった他のユーザグループのレコメンドをシステムから受け取ることができるようになる。
 前記実施形態においては、仮想空間上で、ユーザがアバタパーツを選択して自分自身のアバタを作成し、他のユーザとコミュニケーション等をとるための仮想空間提供システムの例を記載したが、本発明はこれに限定されるものではない。すなわち、仮想空間提供システムにおいて、ユーザは必ずしもアバタを作成する必要はなく、仮想空間上に部屋や庭等を自分用に作成したり、または、他のユーザが作成したアバタや部屋や庭等を評価できるようにしたり、することで当該情報に基づいて、ユーザのパーソナリティを決定するようにしてもよい。具体的には、仮想空間上の部屋を作成する際に、予め準備された、壁、床、家具、ドア、窓、ラグ、カーテン等の画像パーツを選択するようにし、図14に示すようなキーワードをパーツ毎に予め設定したり、もしくは、図16や図17に示すような平均色をパーツ毎に算出したり、することが可能なプロセスと、当該選択された1つまたは複数のパーツ情報に基づいてユーザパーソナリティを決定するプロセスと、を有するシステム構成により、ユーザはパーツを選択するだけで、自分自身と好相性や友好関係等といった他のユーザグループのレコメンドをシステムから受け取ることができるようになる。同様に、ユーザが自分用のパーツを選択するだけでなく、他のユーザが選択したパーツやその組み合わせに対して「いいね」等の評価をすることができるような構成にしておくことにより、その情報と各パーツに基づく情報とを組み合わせて、当該ユーザのパーソナリティ決定を行うことも可能である。
 前記実施形態においては、ユーザが、他のユーザとコミュニケーション等をとるための仮想空間提供システムの例を記載したが、本発明はこれにも限定されるものではない。すなわち、必ずしも仮想空間が提供される必要はなく、ユーザが他のユーザとネットワーク経由で会話やチャットを行う際に、絵文字やスタンプ等の画像パーツを選択できるようにしたり、ユーザが自分の日記やつぶやきやブログ等をネットワーク上に設置、記載する際に、ブログパーツや背景画像、それらの配置や絵文字等を選択するようにしたり、してもよい。より具体的には、ユーザが、少なくとも画像を含むパーツやその組み合わせを、他のユーザと共有できるようなシステムにおいて、会話、チャット、日記、つぶやき、ブログ、写真共有等の行為を行う場合に、その中でユーザが予め準備された画像パーツを選択できるようにしておき、図14に示すようなキーワードをパーツ毎に予め設定したり、もしくは、図16や図17に示すような平均色をパーツ毎に算出したり、することが可能なプロセスと、当該選択された1つまたは複数のパーツ情報に基づいてユーザパーソナリティを決定するプロセスと、を有するシステム構成によって、ユーザは、特に自身のパーソナリティを意識することなく、会話等を楽しんでいる際に、パーツを選択するだけで、自分自身と好相性や友好関係等といった他のユーザグループのレコメンドをシステムから受け取ることができるようになる。また、この場合においても、ユーザが、他のユーザのブログや写真等の画像パーツに対して、「いいね」等の評価を与えることができるような構成にしておくことで、さらに、その情報を組み合わせて、当該ユーザのパーソナリティ決定を行うことも可能である。
 以上の実施形態において、ユーザが、コミュニティ等を含むソーシャルネットワークに参加して、他のユーザとコミュニケーションをとったり、気に入った画像等の情報を共有したり、する行動とその行動を支援するアプリケーションに関する例を記載したが、本発明における手法の応用例は、他のユーザ行動やアプリケーションにおいても同様に考えることが可能である。例えば、ユーザが、PCを用いてプレゼンテーションや文書やグラフ等の資料を作成する際、予め準備された、様々な色や形の図形パーツ等を選択して、当該資料を構成する場合において、前記実施形態と同様に、各パーツに対して、図14に示すようなキーワードをパーツ毎に予め設定したり、もしくは、図16や図17に示すような平均色をパーツ毎に算出したり、することが可能なプロセスと、当該選択された1つまたは複数のパーツ情報に基づいてユーザパーソナリティを決定するプロセスと、を有するシステム構成を準備することによって、ユーザは、特に自身のパーソナリティを意識することなく、各種のパーツを選択するだけで、資料作成の後に、ソーシャルネットワークに参加した際、自分自身と好相性や友好関係等といった他のユーザグループのレコメンドをシステムから受け取ることができるようになる。同様の応用例は、他にも考えることが可能で、例えば、文書の修正や校正等を行う際に、どのような色、形の付箋やマーカを選択するか、その際に用いるフォントやその色は何を選択するか、等の情報も、ユーザパーソナリティ決定プロセスに活用可能だし、地図を用いたアプリケーションを利用する際に、マーカとしてどのような色や形のパーツを選択するか、また、カメラを用いたモバイル機器等のアプリケーションにおいて、どのような変形ツールや色変換、デコレーションパーツの選択を行うか等の情報を活用することも可能である。
 以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成や処
理フローはこの実施形態記載の例に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
100…端末サーバシステム、101…ネットワーク、200…サーバ、300…端末、900…アバタ編集画面、901…アバタ表示領域、902…アバタパーツ表示領域、1000…ソーシャル視聴画面、1001…コンテンツ表示領域、1002…広告表示領域、1003…仮想空間表示領域、1004…視聴者数表示領域、1005…グループリスト表示領域、1006…アバタ編集ボタン、1100…グループソーシャル視聴画面、1103…グループユーザのアバタと発言表示領域、1104…チャット等参加ボタン

Claims (5)

  1. 端末装置とネットワークを介して接続されたサーバ装置であって、
    前記端末装置において、ユーザが選択した1または複数の画像パーツに設定された画像パーツ情報に基づき、前記ユーザのユーザパーソナリティを決定する
    ことを特徴とするサーバ装置。
  2. 前記画像パーツがアバタを構成するアバタパーツであり、
    前記端末装置において、前記アバタパーツの1または複数を前記ユーザが選択することにより、前記ユーザが仮想空間内にアバタを作成できる
    ことを特徴とする請求項1に記載のサーバ装置。
  3. 前記ユーザパーソナリティに基づいて、複数のユーザ間のクラスタリングを行う
    ことを特徴とする請求項1または請求項2に記載のサーバ装置。
  4. ユーザが1または複数の画像パーツを選択し、
    前記選択された画像パーツを特定する情報を請求項1~3のいずれかに記載のサーバ装置へ送信し、
    前記ユーザパーソナリティ、または、前記クラスタリングに基づくグループリストを前記サーバ装置から受信する
    ことを特徴とする端末装置。
  5. 端末装置とサーバ装置がネットワークを介して接続され、
    前記サーバ装置が、前記端末装置においてユーザが選択した1または複数の画像パーツに設定された画像パーツ情報に基づき、前記ユーザのユーザパーソナリティを決定する
    ことを特徴とする処理方法。
     
     
PCT/JP2014/064635 2013-06-20 2014-06-02 サーバ装置、端末装置及び処理方法 WO2014203716A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013129349A JP2016153925A (ja) 2013-06-20 2013-06-20 サーバ装置、端末装置及び処理方法
JP2013-129349 2013-06-20

Publications (1)

Publication Number Publication Date
WO2014203716A1 true WO2014203716A1 (ja) 2014-12-24

Family

ID=52104458

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/064635 WO2014203716A1 (ja) 2013-06-20 2014-06-02 サーバ装置、端末装置及び処理方法

Country Status (2)

Country Link
JP (1) JP2016153925A (ja)
WO (1) WO2014203716A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197460A (ja) * 2018-05-11 2019-11-14 株式会社ピース企画 クラスタ生成装置、クラスタ生成方法及びクラスタ生成プログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020149137A (ja) * 2019-03-11 2020-09-17 株式会社ビービット 行動パターン分析装置、方法及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332091A (ja) * 2004-05-18 2005-12-02 Softbank Human Capital Corp 情報提供システム及び方法
JP2007328699A (ja) * 2006-06-09 2007-12-20 Yafoo Japan Corp 類似キャラクタデータ検索方法、サーバおよびプログラム
JP2007328706A (ja) * 2006-06-09 2007-12-20 Yafoo Japan Corp 付加情報データを送信する方法、サーバおよびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005332091A (ja) * 2004-05-18 2005-12-02 Softbank Human Capital Corp 情報提供システム及び方法
JP2007328699A (ja) * 2006-06-09 2007-12-20 Yafoo Japan Corp 類似キャラクタデータ検索方法、サーバおよびプログラム
JP2007328706A (ja) * 2006-06-09 2007-12-20 Yafoo Japan Corp 付加情報データを送信する方法、サーバおよびプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019197460A (ja) * 2018-05-11 2019-11-14 株式会社ピース企画 クラスタ生成装置、クラスタ生成方法及びクラスタ生成プログラム

Also Published As

Publication number Publication date
JP2016153925A (ja) 2016-08-25

Similar Documents

Publication Publication Date Title
Hacker et al. Virtually in this together–how web-conferencing systems enabled a new virtual togetherness during the COVID-19 crisis
Lueck Friend-zone with benefits: The parasocial advertising of Kim Kardashian
US10311482B2 (en) Method and apparatus for adjusting a digital assistant persona
US20230231923A1 (en) System And Method For Modifying A Preference
US11336594B2 (en) Information processing system and information processing method
US9532104B2 (en) Method and server for the social network-based sharing of TV broadcast content related information
JP5122433B2 (ja) 情報通信システムおよび情報通信方法
Lee Effects of branded e-stickers on purchase intentions: The perspective of social capital theory
WO2016177287A1 (zh) 互动信息处理方法、客户端、服务平台和存储介质
WO2016078185A1 (zh) 一种网络互动方法及相关设备、系统
WO2015146207A1 (ja) サーバ、クライアント、制御方法、および記憶媒体
US10599916B2 (en) Methods and systems for playing musical elements based on a tracked face or facial feature
KR101530122B1 (ko) 소셜 네트워크 서비스 제공방법 및 이를 위한 서버
CN105187295B (zh) 一种在客户端实现气泡展示的方法及客户端、服务器和系统
CN113938696B (zh) 基于自定义虚拟礼物的直播互动方法、系统及计算机设备
WO2014203716A1 (ja) サーバ装置、端末装置及び処理方法
JP2016207217A (ja) 管理装置及び嗜好性特定方法
JP2022168309A (ja) サーバ装置、携帯端末、イベント運営方法及びプログラム
JP6535399B2 (ja) サーバ装置、携帯端末、イベント運営方法及びプログラム
US20180140952A1 (en) Gaming server and method to generate information-rich profiles
Timke Social Media and Advertising
JP6548770B2 (ja) サーバ装置、携帯端末、イベント運営方法及びプログラム
JP5925935B1 (ja) 管理装置及び嗜好性特定方法
Kour Digital detoxification: a content analysis of user generated videos uploaded on youtube by facebook quitters
Littau et al. Interactivity, social presence, and journalistic use of Twitter

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14813704

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14813704

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP