WO2023233849A1 - 情報処理装置、情報処理方法及び記録媒体 - Google Patents

情報処理装置、情報処理方法及び記録媒体 Download PDF

Info

Publication number
WO2023233849A1
WO2023233849A1 PCT/JP2023/015342 JP2023015342W WO2023233849A1 WO 2023233849 A1 WO2023233849 A1 WO 2023233849A1 JP 2023015342 W JP2023015342 W JP 2023015342W WO 2023233849 A1 WO2023233849 A1 WO 2023233849A1
Authority
WO
WIPO (PCT)
Prior art keywords
group
distributor
user
unit
information processing
Prior art date
Application number
PCT/JP2023/015342
Other languages
English (en)
French (fr)
Inventor
孝悌 清水
奈南 沖村
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023233849A1 publication Critical patent/WO2023233849A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a recording medium.
  • Patent Document 1 discloses a technology that provides feedback to a performer (distributor) of the movement and emotional reaction data of a viewer (user) avatar in response to the movements of a performer (distributor) avatar using display formats, tactile sensations, etc. ing.
  • a communication unit that transmits distribution content provided by a distributor to a plurality of user terminals; or a group selection unit that selects a first group that is two or more groups, and a connection control unit that controls connection so that users belonging to the first group and the distributor can communicate bidirectionally;
  • An information processing device is provided.
  • distribution content provided by a distributor is distributed to a plurality of user terminals, and a third group that is one or more groups is selected from a plurality of groups to which two or more users each belong.
  • an information processing method executed by a computer the method comprising: selecting one group; and controlling a connection so that a user belonging to the first group and the distributor can communicate in both directions; provided.
  • a distribution unit that distributes distribution content provided by a distributor to a plurality of user terminals, and one or more groups to which two or more users each belong.
  • a computer-readable non-transitory recording medium is provided having recorded thereon.
  • FIG. 1 is an explanatory diagram of an overview of an information processing system according to the present disclosure.
  • FIG. 3 is an image diagram of two-way communication by the distribution server 30 according to the present disclosure.
  • FIG. 1 is a block diagram showing an example of the configuration of a distributor terminal 10 according to the present embodiment.
  • FIG. 2 is a block diagram showing an example of the configuration of a user terminal 20 according to the present embodiment.
  • FIG. 2 is a block diagram showing an example of the configuration of a distribution server 30 according to the present embodiment.
  • 3 is an explanatory diagram showing a specific example of connection control by a connection control unit 324.
  • FIG. 7 is an explanatory diagram for explaining screen images of each terminal in the specific example of FIG. 6.
  • FIG. 7 is an explanatory diagram showing another specific example of connection control by the connection control unit 324.
  • FIG. It is a flowchart showing an example of the operation of the distribution server 30 according to the present embodiment.
  • 12 is a flowchart illustrating an operational example of implementing bidirectional communication controlled by the distribution server 30 according to the present embodiment.
  • FIG. 7 is an explanatory diagram for explaining an example of a screen image of each terminal in a first modified example of the present disclosure.
  • 12 is a flowchart illustrating an operational example of implementing bidirectional communication controlled by the distribution server 30 according to a first modification of the present disclosure.
  • FIG. 2 is a block diagram illustrating a hardware configuration example of an information processing device 900 that implements a distributor terminal 10, a user terminal 20, and a distribution server 30 according to an embodiment of the present disclosure.
  • One embodiment of the present disclosure relates to an information processing system including an information processing device that can improve the user's experience value in live distribution.
  • an information processing system that transmits distributed content provided by a distributor to a user will be described.
  • the distribution content provided by the distributor is, for example, entertainment content such as live music, comedy shows, and online games, remote education content, remote support content, remote training lessons, etc., and the contents of the content are not limited.
  • entertainment content such as live music, comedy shows
  • remote education content such as live music, comedy shows
  • remote support content remote training lessons, etc.
  • FIG. 1 is an explanatory diagram of an overview of an information processing system according to the present disclosure.
  • the information processing system according to the present disclosure includes a distributor terminal 10 used by a distributor D, a plurality of user terminals 20 used by each of a plurality of users U, and a distribution server 30.
  • the distributor terminal 10, the user terminal 20, and the distribution server 30 are configured to be able to communicate via the network 40.
  • each of the users U belongs to one of the groups G among the plurality of groups G.
  • the distributor terminal 10 is an information processing terminal used by the distributor D. Video, audio, text, or movement is input to the distributor terminal 10. The distributor terminal 10 transmits information indicating input video, audio, text, movement, etc. to the distribution server 30.
  • the distributor terminal 10 may be composed of a plurality of information processing terminals, or may be a single information processing terminal.
  • the distributor terminal 10 is a PC (Personal Computer), and a camera 11 is connected to the distributor terminal 10.
  • the distributor terminal 10 shown in FIG. 1 transmits image data of the distributor D obtained by the camera 11 to the distribution server 30.
  • the distributor terminal 10 is configured of various devices such as a tablet terminal, a smartphone, an HMD (Head Mounted Display), a game terminal, a television device, a wearable device, a motion capture device, and a microphone, or a combination of the above-mentioned various devices. It's okay.
  • the distributor terminal 10 may have the function of the camera 11 built-in.
  • the user terminal 20 is an information processing terminal used by the user U. Video, audio, text, or movement is input to the user terminal 20 .
  • the user terminal 20 transmits information indicating input video, audio, text, movement, etc. to the distribution server 30.
  • the user terminal 20 receives distributed content provided by the distributor D from the distribution server 30. Further, the user terminal 20 performs output processing to enable the user U to view the distributed content received from the distribution server 30.
  • user U1 uses user terminal 20-1.
  • user U2 uses user terminal 20-2
  • user U3 uses user terminal 20-3.
  • Users U1 to U3 may be viewing the distributed content at different locations, or may be viewing the distributed content at the same location.
  • the user terminal 20 may be composed of a plurality of information processing terminals, or may be a single information processing terminal.
  • FIG. 1 shows an example in which the user terminal 20-1 is an HMD, the user terminal 20-2 is a PC, and the user terminal 20-3 is a smartphone. In addition to the example shown in FIG.
  • the user terminal 20 may include various devices such as a tablet terminal, a game terminal, a television device, a wearable device, a camera, a motion capture device, and a microphone, or a combination of the above-mentioned devices. Good too.
  • each of the users U who use the user terminal 20 belongs to one of the groups G among the plurality of groups G.
  • user U1, user U2, and user U3 belong to group G1.
  • user U4, user U5, and user U6 belong to group G2.
  • the number of users belonging to group G is three, but the number of users U belonging to group G may be any number of two or more.
  • the number of users U belonging to group G may be, for example, 3 to 6, which is a suitable number for communication. Further, the number of users U belonging to group G may be different for each group G.
  • the number of groups G is not particularly limited, and may be determined according to the number of users U.
  • the distribution server 30 is an information processing device that transmits distribution content provided by the distributor D to the user terminal 20.
  • the distribution content transmitted to the user terminal 20 may be data such as video, audio, text, etc. transmitted from the distributor terminal 10. Further, the distribution server 30 may transmit information on the virtual space and information on a distributor object corresponding to the distributor D placed in the virtual space to the user terminal 20 as distribution content.
  • the distribution server 30 can realize live distribution by transmitting the distribution content provided by the distributor D to the user terminal 20 in real time. Note that the distribution server 30 may realize live distribution by transmitting virtual space information to the user terminal 20 in advance and transmitting distributor object information to the user terminal 20 in real time.
  • FIG. 2 is an image diagram of two-way communication by the distribution server 30 according to the present disclosure.
  • users U belonging to groups G1-G4 are provided with conventional unidirectional distribution.
  • the user U belonging to the group G5 is provided with a distribution accompanied by a special experience in which the user can communicate interactively with the distributor D.
  • the experience of users U belonging to groups G1 to G4 is like watching the alter ego of broadcaster D
  • the experience of user U belonging to group G5 is two-way communication with broadcaster D. It is an experience that is like watching the reality of broadcaster D.
  • the distribution server 30 of the embodiment according to the present disclosure can meet the needs of users who cannot participate in events held offline.
  • the distribution server 30 selects one or more groups G from a plurality of groups G.
  • the distribution server 30 realizes two-way communication between the user U and the distributor D by transmitting data such as video, audio, text, etc. transmitted from the user U belonging to the selected group G to the distributor terminal 10. You may.
  • the distribution server 30 transmits the information of the user object corresponding to the user U, which is transmitted from the user U belonging to the selected group G, to the distributor terminal 10, so that the user U and the distributor D can interact with each other. Communication may be realized.
  • FIG. 3 is a block diagram showing an example of the configuration of the distributor terminal 10 according to the present embodiment.
  • the distributor terminal 10 includes a communication section 110, a control section 120, an input section 130, an output section 140, and an operation section 150.
  • the communication unit 110 communicates with the distribution server 30 and sends and receives data. For example, the communication unit 110 distributes information indicating video, audio, or movement acquired by the input unit 130, information such as characters input to the operation unit 150, or information on a distributor object corresponding to distributor D. Send to server 30. The communication unit 110 also receives information indicating video, audio, or text, information on a user object corresponding to the user U, information on a virtual space, etc. from the distribution server 30.
  • the control unit 120 controls the overall operation of the distributor terminal 10. For example, the control unit 120 causes the communication unit 110 to transmit information indicating video, audio, movement, etc. acquired by the input unit 130, or information such as characters input to the operation unit 150. Further, the control unit 120 causes the output unit 140 to output the video, audio, text, virtual space information, etc. received from the distribution server 30 by the communication unit 110.
  • the control unit 120 generates information on the distributor object based on information indicating the video or movement, etc., input to the input unit 130.
  • the distributor object may be, for example, a 3D or 2D live-action avatar, or a 3D or 2D CG character.
  • control unit 120 updates the information on the distributor object based on the motion information input to the input unit 130, which is information indicating motion. For example, when the hand movement information of distributor D is input to the input unit 130, the control unit 120 updates the information on the distributor object so that the distributor object moves its hand. When the facial movement information of distributor D is input to the input unit 130, the control unit 120 may update the information on the distributor object so as to change the facial expression of the distributor object.
  • the control unit 120 may hold the virtual space information received from the distribution server 30. Further, the control unit 120 may perform a process of newly generating virtual space information by arranging the distributor object indicated by the generated distributor object information in the virtual space. Further, the control unit 120 may perform a process of generating new virtual space information by arranging the user object indicated by the user object information received by the communication unit 210 in the virtual space.
  • the control unit 120 may generate information about the virtual space in which the user object is placed from the viewpoint of the distributor object.
  • the virtual space of the viewpoint of the distributor object may or may not include the distributor object.
  • the input unit 130 acquires information indicating video, audio, text, movement, etc. detected by the sensor.
  • the input unit 130 may acquire information detected by a sensor such as a camera, microphone, keyboard, mouse, touch pad, IMU (Inertial Measurement Unit), IR sensor, or biosensor.
  • a sensor such as a camera, microphone, keyboard, mouse, touch pad, IMU (Inertial Measurement Unit), IR sensor, or biosensor.
  • the input unit 130 obtains, for example, an image of the distributor D captured by the camera 11. Furthermore, the input unit 130 may acquire the voice of the distributor D detected by the microphone or the sound emitted by the distributor D. The input unit 130 also inputs information related to the broadcaster object in the virtual space, detected by the keyboard and input by the broadcaster D, such as position information or motion information of the broadcaster object, or information on the property of the broadcaster object. Information etc. may also be acquired. In addition, the input unit 130 may acquire information on the movement (position, posture, limb movement, head movement, etc.) of the distributor D detected by the IMU, or information on the distributor D's movement detected by the camera. Information such as facial movements (eye, eyebrow, mouth movements, etc.) and line of sight movements may be acquired. Note that the input unit 130 may acquire information input by multiple types of sensors.
  • the output unit 140 has a function of outputting information etc. received from the distribution server 30 by the communication unit 110.
  • the output unit 140 may be realized by a 2D display, a 3D display, a projector, a stereoscopic hologram presentation device, or the like.
  • the output unit 140 may display information about the virtual space as an image on a 2D display.
  • the output unit 140 may be a sound output device such as a speaker or headphones. Further, the output unit 140 may be configured by a combination of the various devices described above.
  • the operation unit 150 receives an operation by the distributor D to input instructions or information to the distributor terminal 10.
  • the distributor D may use characters input by operating the operation unit 150 as part of the distributed content.
  • the distributor D may select a group G with which to perform two-way communication by operating the operation unit 150.
  • the operation unit 150 may receive instructions for operations performed by the distribution server 30.
  • the operation unit 150 may receive an instruction to start live distribution.
  • the operation unit 150 may receive an instruction to transition to a scene where the broadcaster D and the user U can communicate bidirectionally during live distribution.
  • live distribution is performed by distinguishing between scenes where two-way communication is difficult, such as live music performances, and scenes where two-way communication is possible. Is possible.
  • FIG. 4 is a block diagram showing an example of the configuration of the user terminal 20 according to this embodiment.
  • the user terminal 20 includes a communication section 210, a control section 220, an input section 230, an output section 240, and an operation section 250.
  • the communication unit 210 communicates with the distribution server 30 and sends and receives data. For example, the communication unit 210 transmits video, audio, or movement information acquired by the input unit 230, information such as characters input to the operation unit 250, or information on a user object corresponding to the user U to the distribution server 30. Send.
  • the communication unit 210 also receives information indicating video, audio, and text, information on a distributor object corresponding to distributor D, information on virtual space, etc. from the distribution server 30.
  • the information received from the distribution server 30 includes distribution content provided by the distributor D.
  • the information indicating video, audio, and text that the communication unit 210 receives from the distribution server 30 may include information transmitted from another user U who belongs to the same group G as the user U. Further, the communication unit 210 may receive information on user objects corresponding to other users U who belong to the same group G as the user U from the distribution server 30.
  • the control unit 220 controls the overall operation of the user terminal 20. For example, the control unit 220 causes the communication unit 210 to transmit information indicating video, audio, movement, etc. acquired by the input unit 230, and information such as characters input to the operation unit 150. Further, the control unit 220 causes the output unit 240 to output the video, audio, text, virtual space information, etc. received from the distribution server 30 by the communication unit 210.
  • the control unit 220 generates user object information based on the information indicating the video or movement, etc., input to the input unit 230.
  • the user object may be, for example, a 3D or 2D live-action avatar, or a 3D or 2D CG character.
  • control unit 220 updates the information of the user object based on motion information, which is information indicating movement, input to the input unit 230. For example, when user U's hand movement information is input to the input unit 230, the control unit 220 updates the user object information so that the user object moves its hand. When the facial movement information of the user U is input to the input unit 230, the control unit 220 may update the information of the user object so as to change the facial expression of the user object.
  • the control unit 220 may hold the virtual space information received from the distribution server 30. Further, the control unit 220 may perform a process of newly generating virtual space information by arranging the user object indicated by the generated user object information in the virtual space. Furthermore, the control unit 220 creates a new virtual space by placing the distributor object and user object indicated by the distributor object information and user object information received by the communication unit 210 in the virtual space. Processing to generate information may also be performed.
  • the control unit 220 may generate information about the virtual space in which the distributor object and other user objects are placed from the user object's perspective.
  • the user object may or may not be included in the virtual space of the user object's viewpoint.
  • the input unit 230 acquires information indicating video, audio, text, movement, etc. detected by the sensor.
  • the input unit 230 may acquire information detected by a sensor such as a camera, microphone, keyboard, mouse, touch pad, IMU, IR sensor, or biosensor.
  • the input unit 230 obtains, for example, an image of the user U captured by a camera. Furthermore, the input unit 230 may acquire the voice of the distributor D detected by the microphone or the sound emitted by the distributor D. The input unit 230 also provides information about the user object in the virtual space detected by the keyboard and input by the user U into the keyboard, such as position information or motion information of the user object, or information about possessions of the user object, etc. may be obtained. In addition, the input unit 230 may acquire information on the user U's movements (position, posture, limb movements, head movements, etc.) detected by the IMU, or the user U's face acquired by the camera. Information such as movement of the user (eye, eyebrow, mouth movement, etc.) and line of sight movement may also be acquired. Note that the input unit 230 may acquire information input by multiple types of sensors.
  • the output unit 240 has a function of outputting information etc. received from the distribution server 30 by the communication unit 210.
  • the output unit 240 may be realized by a 2D display, a 3D display, a projector, a stereoscopic hologram presentation device, or the like.
  • the output unit 240 may display information about the virtual space as an image on a 2D display.
  • the output unit 240 may be a sound output device such as a speaker or headphones. Further, the output unit 240 may be configured by a combination of the various devices described above.
  • the operation unit 250 receives an operation by the user U to input instructions or information to the user terminal 20. Instructions and information input into the operation unit 250 are transmitted to the distribution server 30 by the communication unit 210. For example, by operating the operation unit 250, the user U may use a chat function to transmit a reaction to the distributed content in real time in the form of text or stamps. Alternatively, the user U may use a so-called tipping system in which the user U sends an item that can be exchanged for cash to the distributor D in the distributed content by operating the operation unit 250.
  • the user U may specify the group G to which he or she belongs by operating the operation unit 250.
  • the user U may specify the group G to which he or she belongs, for example, by inputting the group ID into the operation unit 250.
  • the user U may input his or her own profile information by operating the operation unit 250.
  • the profile information includes information such as user U's gender, age, and music preferences, for example.
  • the user U may select a genre for viewing the live distribution from among the genres displayed on the output unit 240.
  • FIG. 5 is a block diagram showing an example of the configuration of the distribution server 30 according to this embodiment. As shown in FIG. 5, the distribution server 30 includes a communication section 310 and a control section 320.
  • the communication unit 310 communicates with the distributor terminal 10 and the user terminal 20 via the network 40.
  • the communication unit 310 communicates with the distributor terminal 10 and the user terminal 20 under the control of the connection control unit 324.
  • the communication unit 310 transmits distributed content provided by distributor D to a plurality of user terminals 20.
  • the control unit 320 controls the overall operation of the distribution server 30.
  • the control unit 320 controls operations in the distribution server 30, for example, in response to instructions received from the distributor terminal 10 by the communication unit 310.
  • the control unit 320 functions as a group selection unit 321, a calculation unit 322, a virtual space generation unit 323, and a connection control unit 324.
  • the group selection unit 321 selects one or more groups G from a plurality of groups G to which two or more users U belong. For example, the group selection unit 321 selects the first group, which is the group G that has the right to have two-way communication with the distributor D, from the plurality of groups G.
  • a connection control unit 324 which will be described later, controls the connection so that the user U and the distributor D who belong to the first group can communicate in both directions.
  • the group selection unit 321 may select the group G based on, for example, conditions related to the degree of excitement or contribution calculated by the calculation unit 322, which will be described later.
  • the group selection unit 321 may select group G based on an instruction from the distributor terminal 10 received by the communication unit 310.
  • the group selection unit 321 may newly select group G based on predetermined conditions. For example, the group selection unit 321 may newly select group G based on conditions related to the degree of excitement or contribution calculated by the calculation unit 322, which will be described later. Specifically, the group selection unit 321 may newly select the group G with the highest degree of excitement or contribution. Alternatively, the group selection unit 321 may newly select the group G based on whether the group has been selected by the distributor D or not. In that case, the group selection unit 321 reselects the group G based on the instruction from the distributor terminal 10 received by the communication unit 310.
  • the group selection unit 321 may reselect a new group G based on the time that has passed since a certain group G was selected. For example, the group selection unit 321 may sequentially reselect the groups G so that the time from when the group G is selected until when a new group G is selected is equal for each group G. Furthermore, the group selection unit 321 may sequentially reselect the groups G such that the group G with a higher degree of excitement or contribution takes longer to be selected.
  • the number of groups G selected by the group selection section 321 may be a predetermined number, or may be dynamically changed based on the load status of communication performed by the communication section 310. Further, the number of groups G selected by the group selection section 321 may be determined based on calculation results by the calculation section 322, which will be described later. For example, the group selection unit 321 may determine the number of selections of group G based on the average value of the excitement level or contribution level of group G.
  • the group selection unit 321 has a function of determining users U who belong to each group G.
  • the group selection unit 321 may randomly determine the users U belonging to each group G.
  • the group selection unit 321 may decide to make the users U whose profile information matches belong to the same group G based on the profile information of each user U transmitted by the user terminal 20. Further, the group selection unit 321 may determine the users U belonging to the group G based on the designation of the group G to which the user U belongs, which is transmitted from the user terminal 20.
  • the calculation unit 322 calculates the degree of excitement or contribution of each user U belonging to the same group G based on the communication between the users U belonging to the same group G.
  • the calculation unit 322 calculates the excitement level of the user U based on the video, audio, text, or movement input to the user U, for example. Specifically, the calculation unit 322 may calculate the excitement level of the user U such that the longer the time for which the user U inputs the voice, the higher the excitement level of the user U becomes. Further, the calculation unit 322 may calculate the excitement level of the user U such that the more characters input by the user U, the higher the excitement level of the user U becomes.
  • the calculation unit 322 may calculate the degree of contribution of the user U based on how much the video, audio, text, or movement input by the user U matches the conditions specified by the distributor D. Specifically, the calculation unit 322 may calculate the degree of contribution of the user U based on whether the keyword specified by the distributor D has been input by the user U. Further, the calculation unit 322 may calculate the degree of contribution of the user U such that the more the billed amount in the tipping system used by the user U becomes, the higher the degree of contribution of the user U becomes.
  • the calculation unit 322 may calculate the degree of excitement or contribution of each of the plurality of groups G based on communication between users U belonging to the same group G. For example, the calculation unit 322 may calculate the excitement level or contribution level of group G by adding up the excitement level or contribution level of each user U belonging to group G.
  • the degree of excitement and contribution of the user U or group G calculated by the calculation unit 322 may be transmitted to the user terminal 20 by the communication unit 310 and displayed on the user terminal 20.
  • a ranking table of the excitement level of group G may be displayed on the user terminal 20.
  • the group selection unit 321 selects a new group G that is capable of two-way communication with the distributor D based on the conditions regarding the level of excitement, the user U can determine how he or she will behave by checking the ranking table. You can decide. That is, by displaying the degree of excitement or contribution calculated by the calculation unit 322 on the user terminal 20, it is possible to further enhance the sense of realism of live distribution.
  • the virtual space generation unit 323 generates a virtual space in which the distributor object and the user object are placed.
  • the virtual space generation unit 323 may determine the placement location of the object corresponding to the distributor D or the user U in the virtual space.
  • the virtual space generation unit 323 may place an object corresponding to the distributor D or the user U in the virtual space.
  • the virtual space generation unit 323 may generate a distributor object and a user object based on information indicating video, movement, etc. received from the distributor terminal 10 or the user terminal 20.
  • connection control unit 324 controls communication of the communication unit 310.
  • the connection control unit 324 controls the connection so that the user U and the distributor D who belong to the group G selected by the group selection unit 321 can communicate bidirectionally.
  • the connection control unit 324 causes the communication unit 310 to transmit information on a user object transmitted from a user U belonging to a group G selected by the group selection unit 321 to a distributor terminal 10 used by a distributor D. May be controlled.
  • the connection control unit 324 may transmit information such as video, audio, or text transmitted from the user U belonging to the group G selected by the group selection unit 321 to the distributor terminal 10.
  • FIG. 6 is an explanatory diagram showing a specific example of connection control by the connection control unit 324.
  • the group selection unit 321 selects the group G1 as the group G that can communicate with the distributor D in both directions.
  • the distributor terminal 10 transmits distributor data Y to the distribution server 30. Further, the user terminal 20 transmits user data X to the distribution server 30. Distributor data Y and user data X each include distributor object information and user object information.
  • Distributor data Y and user data X each include distributor object information and user object information.
  • distribution content C1 transmitted to user terminal 20-1 includes user data X2 and X3 and distributor data Y.
  • the connection control unit 324 controls the connection so that the user U and the distributor D who belong to the group G1 selected by the group selection unit 321 can communicate in both directions.
  • the connection control unit 324 controls communication so that the information CD that includes user data X1 to X3 and is sent to the distributor terminal 10 is transmitted to the distributor terminal 10.
  • the user U belonging to the group G1 can communicate with the distributor D in both directions.
  • the distributor data Y and the user data Two-way communication with high experiential value is provided.
  • FIG. 7 is an explanatory diagram for explaining screen images of each terminal in the specific example of FIG. 6.
  • Video of the virtual space V in which the distributor object OD and the user object O are arranged is output to the screens of the distributor terminal 10 and the user terminal 20.
  • the video of the virtual space V1 generated by the control unit 220 of -1 is output.
  • the screen of the distributor terminal 10 also displays the virtual space V1 generated by the control unit 120 of the distributor terminal 10 based on the user data X1 to X3 and the distributor data Y.
  • the video is output.
  • connection control unit 324 controls the distribution contents C4 to C6 including user data X and distributor data Y transmitted from other users belonging to the group G2 to be transmitted to the users U4 to U6, respectively. Therefore, users U4 to U6 can communicate with each other. On the other hand, since the information CD sent to the distributor terminal 10 does not include the user data X4 to X6, the user U belonging to the group G2 cannot communicate with the distributor D in both directions.
  • the screen of the user terminal 20-4 shown in FIG. Based on this, the video of the virtual space V2 generated by the control unit 220 of the user terminal 20-4 is output.
  • FIG. 8 is an explanatory diagram showing another specific example of connection control by the connection control unit 324.
  • the communication performed by the distributor terminal 10 and the user terminals 20-1 to 20-3, which is controlled by the connection control unit 324 is the same as in the specific example described using FIG. be.
  • the connection control unit 324 controls not to receive user data X from user terminals 20 belonging to group G2 that are not selected by the group selection unit 321.
  • the connection control unit 324 controls the distribution contents C4 to C6 including only the distributor data Y to be transmitted to each of the users U4 to U6.
  • connection control unit 324 selects which live distribution among the plurality of live distributions the distribution content is transmitted to the user based on the genre selected by the user U, which is received from the user terminal 20 by the communication unit 310. It may also be determined whether to transmit it to the terminal 20. In that case, the connection control unit 324 controls the connection of the communication unit 310 based on the determination. Furthermore, if live distribution regarding the genre selected by user U is not being performed, the connection control unit 324 allows users U belonging to the same group G to communicate with each other until the live distribution starts. The connection may be controlled so that
  • FIG. 9 is a flowchart showing an example of the operation of the distribution server 30 according to this embodiment.
  • each user U specifies the group G to which he/she belongs and logs into the distribution system for viewing the distribution content provided by the distributor D (S104).
  • the group selection unit 321 of the distribution server 30 determines the users U who belong to each group G based on the designation of the group G to which the user U belongs, which is received by the communication unit 310.
  • each user U selects a genre in which to view the live distribution by operating the user terminal 20 (S108).
  • the connection control unit 324 controls communication by the communication unit 310 so that users U belonging to the same group G can communicate with each other. For example, the connection control unit 324 transmits user object information, video, and audio received from user terminals 20 used by other users U belonging to the same group G to the user terminals 20 used by users U belonging to the same group G. , controls communication by the communication unit 310 to transmit information such as characters.
  • the output unit 240 of the user terminal 20 outputs a video of a virtual space including user objects corresponding to other users U belonging to the group G. User U communicates with other users U belonging to the same group G (S112).
  • the user U When the instruction from the distributor terminal 10 is received by the communication unit 310 and the live distribution by the distributor D regarding the genre selected by the user U is started (S116/Yes), the user U is given a message from the distributor D. Unidirectional delivery is provided. Specifically, the output unit 240 of the user terminal used by the users belonging to each group G outputs the video of the virtual space including the distributor object received from the distribution server 30 by the communication unit 210. Furthermore, the communication unit 310 of the distribution server 30 transmits information such as video, audio, text, etc. received from the distributor terminal 10 to each user terminal 20.
  • control unit 320 causes the user U and the distributor D to perform two-way communication. control (S124).
  • FIG. 10 is a flowchart illustrating an operational example of implementing bidirectional communication controlled by the distribution server 30 according to the present embodiment.
  • the group selection unit 321 selects a group G that performs two-way communication with the distributor D. (S128).
  • the connection control unit 324 controls the communication in the communication unit 310 so that the user U who belongs to the group G who has the right to have two-way communication with the distributor D can communicate with the distributor D (S132).
  • the connection control unit 324 controls the user object information transmitted from the user U belonging to the group G selected by the group selection unit 321 to be transmitted to the distributor terminal 10 used by the distributor D.
  • the connection control unit 324 transmits information such as video, audio, text, etc. transmitted from the user U belonging to the group G selected by the group selection unit 321 to the distributor terminal 10.
  • the control unit 320 When the group selection unit 321 newly selects the group G that has the right to bidirectional communication (S136/Yes), the control unit 320 returns the process to S132 again, and the connection control unit 324 selects the newly selected group G.
  • the user U belonging to G and the distributor D are controlled to be able to communicate.
  • the process proceeds to S140.
  • the process proceeds to S144 in FIG. If the scene in which two-way communication with the distributor D is possible does not end (S140/No), the control unit 320 returns the process to S136 again.
  • the distribution server 30 receives the instruction from the distributor terminal 10 through the communication unit 310, and repeats the operations of S136 to S140 until the scene in which two-way communication with the distributor D is possible ends.
  • the control unit 320 controls to end the live distribution. . After the live distribution ends, the control unit 320 returns the process to S112 again.
  • the control unit 320 causes the communication unit 310 to transmit the information from the user terminals 20 to each It is determined whether a new selection of user U's favorite genre has been received. When user U newly selects a favorite genre (S152/Yes), control unit 320 returns the process to S112 again. Even when a favorite genre is not newly selected by user U (S152/No) and the communication unit 310 does not receive a selection to log out from the distribution system from the user terminal 20 (S156/No), the control unit 320 , the process returns to S112 again. When the communication unit 310 receives a selection of logout from the distribution system from the user terminal 20 (S156/Yes), the control unit 320 logs out the user U who uses the user terminal 20 from the distribution system (S160).
  • the distribution server 30 according to the present disclosure allows users U belonging to the same group G to communicate with each other.
  • a configuration may be considered in which information such as text or audio received from the user U who views the live broadcast is transmitted to all the users U.
  • the users U receive all the calls from other users U, there is a possibility that the information sends from the other users U will feel like a nuisance.
  • the distribution server 30 according to the present disclosure since the user terminal 20 only receives information transmission from a limited number of users U, it is possible to provide comfortable live distribution to the users U.
  • the user U when receiving information from the user terminal 20 about the group G to which the user U using the user terminal 20 belongs, it is possible to determine that a plurality of users U belong to the same group G. In this case, the user U can only receive information sent from other users U that the user U knows, and it is possible to further increase the value of the user U's experience.
  • the communication unit 310 transmits the information on the user object transmitted from the user U belonging to the group G to the distributor terminal 10 and the user terminal 20.
  • a configuration may also be considered in which information on user objects corresponding to all users U who view live distribution is transmitted to the distributor terminal 10 and the user terminal 20.
  • the rendering load of the virtual space by the distributor terminal 10 and the user terminal 20 can be reduced compared to the comparative example.
  • the communication load between the distributor terminal 10, the user terminal 20, and the distribution server 30 can be reduced.
  • the group selection unit 321 reselects a new group G that has the right to communicate with the distributor D based on predetermined conditions. According to this configuration, more users U can perform two-way communication with the distributor D, although the number of channels on which two-way communication is possible is limited. For example, even if the distributed content is live distributed to tens of thousands of people, the value of the experience for many users U can be increased by having Group G, who has the right to communicate interactively, making the rounds.
  • Modification example according to this embodiment >> The operation example of the distribution server 30 according to this embodiment has been described above.
  • the technology according to the present disclosure is not limited to the embodiments described above.
  • a modified example of the distribution server 30 according to the present disclosure will be described with reference to FIGS. 11 and 12.
  • the group selection unit 321 further has a function of selecting a second group, which is one or more groups, from the plurality of groups G that have not been selected as the group G with the right to bidirectional communication.
  • a connection control unit 324 which will be described later, controls the connection so that the communication between the users U belonging to the monitored group G, which is the second group, is transmitted to the distributor D.
  • the group selection unit 321 may reselect a new group G to be monitored based on predetermined conditions. For example, the group selection unit 321 may reselect a new group G to be monitored based on an instruction from the distributor terminal 10 received by the communication unit 310.
  • the group selection unit 321 may reselect a new group G to be monitored based on the time that has passed since a certain group G to be monitored was selected. For example, the group selection unit 321 selects groups G to be monitored one after another so that the time it takes to select a new group G to be monitored after group G is selected is equal for each group G to be monitored. You can fix it.
  • the connection control unit 324 further has a function of controlling the connection so that the communication between the users U belonging to the group G to be monitored is transmitted to the distributor D.
  • the connection control unit 324 transmits information on the user object corresponding to the user U belonging to the monitoring target group G selected by the group selection unit 321 to the distributor terminal 10 used by the distributor D for monitoring.
  • the communication unit 310 may be controlled in such a manner.
  • the screen of the distributor terminal 10 displays an image of a virtual space including user objects belonging to group G that can communicate bidirectionally with distributor D, and a video of a virtual space including user objects belonging to group G to be monitored. Both images of the virtual space are displayed.
  • the connection control unit 324 may transmit information such as video, audio, or text transmitted from the user U belonging to the monitoring target group G selected by the group selection unit 321 to the distributor terminal 10. .
  • FIG. 11 is an explanatory diagram for explaining an example of a screen image of each terminal in the first modification of the present disclosure.
  • user U who uses user terminal 20-1 belongs to group G1
  • user U who uses user terminal 20-3 belongs to group G2
  • user U who uses user terminal 20-4 belongs to group G1.
  • group G3 belongs to group G3.
  • group selection unit 321 selects the group G1 as the group G that can communicate with the distributor D in both directions.
  • group selection unit 321 selects group G2 as group G to be monitored.
  • a video of the virtual space VD in which the distributor object OD and the user object O corresponding to the user U belonging to the group G1 are arranged is output. Further, on the screen of the distributor terminal 10, an image of the monitoring virtual space VO in which the distributor object OD and the user object O corresponding to the user U belonging to the group G2 are arranged is output.
  • users U belonging to groups G2 and G3 are provided with conventional unidirectional distribution.
  • Distributor D communicates with user U belonging to group G1 while viewing the video in virtual space VD.
  • the distributor D checks the video of the monitoring virtual space VO and monitors the communication between the users U belonging to the group G2, which is the group G to be monitored.
  • the distributor D can use the video of the virtual space including the user object belonging to the group G to be monitored as a material for determining the selection of the group G with which the distributor D can communicate bidirectionally.
  • the group selection unit 321 reselects a new group G to be monitored, the video of the virtual space VO for monitoring is switched to the video of a virtual space that includes user objects belonging to other groups G.
  • FIG. 12 is a flowchart illustrating an operational example of implementing bidirectional communication controlled by the distribution server 30 according to the first modification of the present disclosure.
  • connection control unit 324 transmits communication between users U belonging to group G to be monitored to distributor D.
  • the connection is controlled as follows (S134).
  • the control unit 320 returns the process to S134 again.
  • the connection control unit 324 controls the connection so that the communication between the users U belonging to the newly selected group G to be monitored is transmitted to the distributor D.
  • the control unit 320 determines whether a group G with two-way communication rights has been newly selected ( S136).
  • the distributor D can determine which group G has a new right to bidirectional communication based on the content of the communication between the users U belonging to the group G to be monitored.
  • the control unit 320 returns the process to S132 again.
  • the process proceeds to S140.
  • the control unit 320 In response to an instruction from the distributor terminal 10 received by the communication unit 310, if the scene in which two-way communication is possible ends (S140/Yes), the process proceeds to S144 in FIG. If the scene in which two-way communication with the distributor D is possible does not end (S140/No), the control unit 320 returns the process to S135.
  • the distribution server 30 receives the instruction from the distributor terminal 10 through the communication unit 310, and repeats the operations from S132 to S140 until the scene in which two-way communication with the distributor D is possible ends.
  • Second modification> The operation example of the distribution server 30 according to the first modified example of the present disclosure has been described above with reference to FIG. 12. Next, a second modification according to the present disclosure will be described.
  • the virtual space generation unit 323 arranges only the broadcaster object and the user object corresponding to the user U belonging to the group G.
  • a specific virtual space is created.
  • the specific virtual space may be a space that matches the scenario of the distributed content. Scenarios of the distributed content include, for example, a talk session, sightseeing tour, drive, boat ride, fireworks display, exhibition tour, and museum tour. For example, if the scenario of the distributed content is a drive, the specific virtual space is inside a car.
  • the virtual space generation unit 323 selects a plurality of locations in the virtual space for each of the user objects representing the user U belonging to the group G selected by the group selection unit 321, which have different experience values regarding communication with the distributor D. It may be determined from the type of location. For example, when the virtual space generated by the virtual space generation unit 323 is inside the car described above, the virtual space generation unit 323 determines to place the distribution object in the driver's seat, and It may be determined that the corresponding user objects are placed in the front passenger seat or the back seat, respectively.
  • the user terminal 20 may perform a process of generating virtual space information according to the placement location of the user object determined by the virtual space generation unit 323.
  • the virtual space generation unit 323 may determine the placement location of each user object in the virtual space based on the degree of excitement or contribution of each user U calculated by the calculation unit 322.
  • the virtual space generation unit 323 may change the placement location of each user object in the virtual space as time passes.
  • the virtual space generation unit 323 may determine the placement location of each user object in the virtual space based on an instruction from the distributor terminal 10 received by the communication unit 310.
  • connection control unit 324 determines a communication method with the distributor D for each user U belonging to the group G selected by the group selection unit 321.
  • the connection control unit 324 may determine the communication method with the distributor D from among a plurality of methods having different experience values for communicating with the distributor D.
  • connection control unit 324 may control the connection of audio information so that only a certain user U can have a conversation with the distributor D. Furthermore, when transmitting the audio information transmitted from the distributor D to the user U, the connection control unit 324 may determine the loudness and clarity of the audio for each user U. Further, the connection control unit 324 may determine the communication method for each user U with the distributor D based on the degree of excitement or contribution of each user U calculated by the calculation unit 322.
  • the third modification of the present disclosure has been described above.
  • a two-way distribution system configuration in which two or more distributors D can participate may also be used. good.
  • the group selection unit 321 may select, for each distributor D, a group G with different two-way communication rights. Further, the group selection unit 321 may select a group G that has one bidirectional communication right.
  • the connection control unit 324 may control the connection so that all the distributors D can communicate with the users U belonging to the group G who have the right to communicate bidirectionally.
  • a video of a virtual space including user objects belonging to group G to which user U, who uses user terminal 20 to which distribution content is transmitted, belongs is output on the screen of user terminal 20.
  • the video output to the screen of the user terminal 20 is not limited to this example.
  • a video of a virtual space including user objects belonging to group G with which two-way communication is being performed is displayed. May be displayed. Further, information such as video, audio, text, etc. transmitted from the group G with which the two-way communication is being performed may be transmitted to the user terminal 20 used by the user U who is provided with unidirectional distribution.
  • the distribution content is transmitted from the distribution server 30 to the user terminal 20, but the distribution content may also be transmitted from the distribution server 30 to the user terminal 20 via the cloud.
  • the distribution server 30 may transmit distribution content to multiple clouds. In that case, the distribution content may be transmitted to the user terminal 20 from one of the plurality of clouds based on the area where the user terminal 20 is present.
  • the calculation unit 322 may calculate the degree of excitement and the degree of contribution, but the calculation unit 322 may calculate other indices.
  • the calculation unit 322 may calculate the concentration level of the user U when the distributed content is distance learning content.
  • the communication unit 310 receives information indicating how the user U moves the fingertip as the user U's movement information from the user terminal 20.
  • the calculation unit 322 may calculate the concentration level of the user U based on the movement information. In this case, by implementing two-way communication, the distributor D, who is a teacher, can encourage the user U to concentrate.
  • the calculation unit 322 may calculate the degree of progress of the user U when the distributed content is remote learning content or remote support content. Specifically, when the distributed content is distance learning content, the communication unit 310 receives the answer to the question input by the user U, who is a student, from the user terminal 20. The calculation unit 322 may calculate the degree of progress based on the user U's problem accuracy rate or problem progress status. In this case, the distributor D, who is a teacher, can give a lecture suitable for the user U by implementing two-way communication.
  • the communication unit 310 receives the number of parts assembled by the user U, who is the worker, from the user terminal 20.
  • the calculation unit 322 may calculate the degree of progress based on the user U's achievement of the parts assembly quota. In this case, by implementing two-way communication, distributor D, who is a factory leader or manager, can encourage user U to improve his or her work.
  • the calculation unit 322 may calculate the movement score of the user U when the distributed content is a remote training lesson such as golf, body building, yoga, playing a musical instrument, or singing.
  • the communication unit 310 receives movement information of the user U, who is a student, from the user terminal 20, and transmits the movement indicated by the movement information and the broadcaster terminal 10 used by the distributor D, who is a teacher.
  • the motion score of the user U is calculated based on the consistency with the correct motion. In this case, by implementing two-way communication, the distributor D, who is a teacher, can urge the user U to improve his or her behavior.
  • FIG. 13 is a block diagram illustrating a hardware configuration example of an information processing apparatus 900 that implements the distributor terminal 10, the user terminal 20, and the distribution server 30 according to the embodiment of the present disclosure. Note that the information processing device 900 does not necessarily need to have all of the hardware configuration shown in FIG. 13. Further, part of the hardware configuration shown in FIG. 13 may not exist in the distributor terminal 10, the user terminal 20, or the distribution server 30.
  • the information processing device 900 includes a CPU 901, a ROM (Read Only Memory) 903, and a RAM 905. Further, the information processing device 900 may include a host bus 907, a bridge 909, an external bus 911, an interface 913, an input device 915, an output device 917, a storage device 919, a drive 921, a connection port 923, and a communication device 925.
  • the information processing device 900 includes a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or an ASIC (Application Specific) instead of or together with the CPU 901. It may also have a processing circuit called an integrated circuit.
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls the entire operation within the information processing device 900 or a part thereof according to various programs recorded in the ROM 903, RAM 905, storage device 919, or removable recording medium 927.
  • the ROM 903 stores programs used by the CPU 901, calculation parameters, and the like.
  • the RAM 905 temporarily stores programs used in the execution of the CPU 901 and parameters that change as appropriate during the execution.
  • the CPU 901, the ROM 903, and the RAM 905 are interconnected by a host bus 907, which is an internal bus such as a CPU bus. Further, the host bus 907 is connected via a bridge 909 to an external bus 911 such as a PCI (Peripheral Component Interconnect/Interface) bus.
  • PCI Peripheral Component Interconnect/Interface
  • the input device 915 is a device operated by the user, such as a button, for example.
  • Input device 915 may include a mouse, keyboard, touch panel, switch, lever, and the like.
  • Input device 915 may also include a microphone that detects the user's voice.
  • the input device 915 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an external connection device 929 such as a mobile phone that is compatible with the operation of the information processing device 900.
  • Input device 915 includes an input control circuit that generates an input signal based on information input by the user and outputs it to CPU 901. By operating this input device 915, the user inputs various data to the information processing device 900 and instructs processing operations.
  • the input device 915 may include an imaging device and a sensor.
  • the imaging device includes, for example, an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), and various members such as a lens for controlling the formation of a subject image on the imaging element. actual using This is a device that captures images of space and generates captured images.
  • the imaging device may be one that captures still images or may be one that captures moving images.
  • the sensor is, for example, a variety of sensors such as a distance sensor, an acceleration sensor, a gyro sensor, a geomagnetic sensor, a vibration sensor, a light sensor, and a sound sensor.
  • the sensor acquires information about the state of the information processing device 900 itself, such as the attitude of the casing of the information processing device 900, and information about the surrounding environment of the information processing device 900, such as brightness and noise around the information processing device 900.
  • the sensor may also include a GPS (Global Positioning System) sensor that receives a GPS (Global Positioning System) signal and measures the latitude, longitude, and altitude of the device.
  • GPS Global Positioning System
  • the output device 917 is configured with a device that can visually or audibly notify the user of the acquired information.
  • the output device 917 may be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro-Luminescence) display, or a sound output device such as a speaker or headphones.
  • the output device 917 may include a PDP (Plasma Display Panel), a projector, a hologram, a printer device, or the like.
  • the output device 917 outputs the results obtained by the processing of the information processing device 900 as a video such as text or an image, or as a sound such as audio or sound.
  • the output device 917 may include a lighting device that brightens the surroundings.
  • the storage device 919 is a data storage device configured as an example of a storage unit of the information processing device 900.
  • the storage device 919 is configured by, for example, a magnetic storage device such as a HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • This storage device 919 stores programs and various data executed by the CPU 901, various data acquired from the outside, and the like.
  • the drive 921 is a reader/writer for a removable recording medium 927 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory, and is built into the information processing device 900 or attached externally.
  • the drive 921 reads information recorded on the attached removable recording medium 927 and outputs it to the RAM 905.
  • the drive 921 also writes records to the attached removable recording medium 927.
  • the connection port 923 is a port for directly connecting a device to the information processing device 900.
  • the connection port 923 may be, for example, a USB (Universal Serial Bus) port, an IEEE1394 port, a SCSI (Small Computer System Interface) port, or the like. Further, the connection port 923 may be an RS-232C port, an optical audio terminal, an HDMI (registered trademark) (High-Definition Multimedia Interface) port, or the like.
  • the communication device 925 is, for example, a communication interface configured with a communication device for connecting to the network 40.
  • the communication device 925 may be, for example, a communication card for a wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), Wi-Fi (registered trademark), or WUSB (Wireless USB). Further, the communication device 925 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communications, or the like.
  • the communication device 925 for example, transmits and receives signals and the like to and from the Internet and other communication devices using a predetermined protocol such as TCP/IP.
  • the network 40 connected to the communication device 925 is a wired or wireless network, such as the Internet, a home LAN, infrared communication, radio wave communication, or satellite communication.
  • a communications department that transmits distributed content provided by a distributor to multiple user terminals; a group selection unit that selects a first group that is one or more groups from a plurality of groups to which two or more users each belong; a connection control unit that controls a connection so that users belonging to the first group and the distributor can communicate in both directions;
  • An information processing device comprising: (2) further comprising a virtual space generation unit that generates a virtual space in which user objects corresponding to users belonging to the same group are arranged;
  • the communication unit transmits information on a user object corresponding to a user belonging to the first group to a distributor terminal used by the distributor, based on control by the connection control unit.
  • the communication unit transmits the distribution content including information on a distributor object corresponding to the distributor placed in the virtual space to a user terminal used by the user. Processing equipment.
  • the information of the user object is updated based on motion information input to the user terminal, the communication unit receives updated information of the user object;
  • the information processing device according to (1) or (3) above.
  • the communication unit transmits video information, audio information, or text information transmitted from users belonging to the first group to a distributor terminal used by the distributor, based on control by the connection control unit.
  • the information processing device according to any one of (1) to (4) above.
  • the group selection unit selects a second group that is one or more groups from a plurality of groups that are not selected as the first group by the group selection unit,
  • the connection control unit controls the connection so that communication between users belonging to the second group is transmitted to the distributor.
  • the information processing device according to any one of (2) to (5) above.
  • the group selection unit reselects the first group based on predetermined conditions.
  • the information processing device according to any one of (1) to (6) above.
  • the predetermined condition is whether a group is selected by the distributor, the group selection unit selects the group selected by the distributor as the new first group;
  • the information processing device further includes a calculation unit that calculates the degree of excitement or contribution of each of the plurality of groups based on the communication between users belonging to the same group,
  • the predetermined condition is a condition related to the degree of excitement or contribution calculated by the calculation unit,
  • the information processing device according to (7) above.
  • the number of the first groups selected by the group selection section is a predetermined number;
  • the information processing device according to any one of (1) to (9) above.
  • (11) The number of the first groups selected by the group selection section is determined based on a calculation result by the calculation section.
  • the virtual space generation unit When the first group is selected by the group selection unit, the virtual space generation unit generates a specific virtual space in which the broadcaster object and the user object corresponding to the user belonging to the first group are arranged. generate space, The information processing device according to (3) above. (13) The virtual space generation unit determines the placement location in the virtual space of each of the user objects corresponding to the users belonging to the first group selected by the group selection unit, based on the experience value of communication with the distributor. Deciding from multiple different types of locations, The information processing device according to (3) or (12) above.
  • the information processing device further includes a calculation unit that calculates the degree of excitement or contribution of each user belonging to the same group based on the content of the communication performed between the users belonging to the same group, The information processing device according to 13, wherein the virtual space generation unit determines the placement location based on the degree of excitement or contribution of each of the users calculated by the calculation unit.
  • the connection control unit sets a communication method with the distributor for each of the users belonging to the first group selected by the group selection unit to a plurality of types having different experience values regarding communication with the distributor. Determine from the method of The information processing device according to any one of (1) to (14) above.
  • the communication unit receives from the user terminal information about the group to which a user using the user terminal belongs.
  • the information processing device according to any one of (1) to (15) above.
  • An information processing method performed by a computer including: (18) computer, a distribution unit that distributes distribution content provided by a distributor to multiple user terminals; a group selection unit that selects a first group that is one or more groups from a plurality of groups to which two or more users each belong; a connection control unit that controls a connection so that users belonging to the first group and the distributor can communicate in both directions;

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】ライブ配信におけるユーザと配信者の双方向コミュニケーションを実現する。 【解決手段】配信者が提供する配信コンテンツを複数のユーザ端末に送信する通信部と、各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択するグループ選択部と、前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御する接続制御部と、を備える、情報処理装置。

Description

情報処理装置、情報処理方法及び記録媒体
 本開示は、情報処理装置、情報処理方法及び記録媒体に関する。
 近年、配信者が配信コンテンツをユーザにリアルタイムで提供するライブ配信を行う技術が普及してきている。ライブ配信においては、ユーザのリアクションを出演者にフィードバックすることで、ユーザが臨場感を楽しむことが可能である。例えば、特許文献1では、演者(配信者)アバターの動作に対する視聴者(ユーザ)アバターの動作および感情の反応データを、表示態様および触覚等で演者(配信者)にフィードバックを行う技術が開示されている。
特開2021-77257号公報
 ここで、ユーザの体験価値をさらに向上するために、ユーザと配信者の双方向コミュニケーションを可能にすることが求められる。しかし、配信コンテンツを視聴可能なチャネル数に対して、双方向コミュニケーションが可能なチャネル数の資源には限りがある。
 そこで、本開示では、ライブ配信におけるユーザと配信者の双方向コミュニケーションを実現する新規かつ改良された情報処理装置、情報処理方法、及び記録媒体を提案する。
 上記課題を解決するために、本発明のある観点によれば、配信者が提供する配信コンテンツを複数のユーザ端末に送信する通信部と、各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択するグループ選択部と、前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御する接続制御部と、を備える、情報処理装置が提供される。
 また、本開示によれば、配信者が提供する配信コンテンツを複数のユーザ端末に配信する配信することと、各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択することと、前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御することと、を含む、コンピュータにより実行される情報処理方法が提供される。
 また、本開示によれば、コンピュータを、配信者が提供する配信コンテンツを複数のユーザ端末に配信する配信部と、各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択するグループ選択部と、前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御する接続制御部と、として機能させるためのプログラムが記録されている、コンピュータが読み取り可能な非一時的な記録媒体が提供される。
本開示に係る情報処理システムの概要の説明図である。 本開示に係る配信サーバ30による双方向コミュニケーションのイメージ図である。 本実施形態による配信者端末10の構成の一例を示すブロック図である。 本実施形態によるユーザ端末20の構成の一例を示すブロック図である。 本実施形態による配信サーバ30の構成の一例を示すブロック図である。 接続制御部324による接続制御の具体例を示す説明図である。 図6の具体例における、各端末の画面イメージを説明するための説明図である。 接続制御部324による接続制御の別の具体例を示す説明図である。 本実施形態による配信サーバ30の動作例を示すフローチャートである。 本実施形態による配信サーバ30によって制御される双方向コミュニケーションの実施の動作例を示すフローチャートである。 本開示の第一の変形例における、各端末の画面イメージの一例を説明するための説明図である。 本開示の第一の変形例による配信サーバ30によって制御される双方向コミュニケーションの実施の動作例を示すフローチャートである。 本開示の実施形態に係る配信者端末10、ユーザ端末20、および配信サーバ30を実現する情報処理装置900のハードウェア構成例を示すブロック図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字またはハイフンと異なる数字の組み合わせを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。
 なお、説明は以下の順序で行うものとする。
 1.本開示の一実施形態による情報処理システムの概要
 2.本実施形態による機能構成例
  2-1.配信者端末10の機能構成例
  2-1.ユーザ端末20の機能構成例
  2-2.配信サーバ30の機能構成例
 3.本実施形態による動作処理例
 4.本実施形態による作用効果例
 5.本実施形態による変形例
  5-1.第一の変形例
  5-2.第二の変形例
  5-3.第三の変形例
  5-4.その他の変形例
 6.ハードウェア構成
 7.補足
 <<1.本開示の一実施形態による情報処理システムの概要>>
 本開示の一実施形態は、ライブ配信におけるユーザの体験価値を向上することが可能な情報処理装置を含む、情報処理システムに関する。本実施形態では、配信者によって提供される配信コンテンツをユーザに送信する情報処理システムについて説明する。配信者によって提供される配信コンテンツは、例えば、音楽ライブ、漫才、オンラインゲーム等のエンターテインメントコンテンツ、遠隔教育コンテンツ、遠隔支援コンテンツ、遠隔トレーニング・レッスン等であり、コンテンツの内容は限定されない。以下、図1を参照し、本開示に係る情報処理システムの概要を説明する。
 図1は、本開示に係る情報処理システムの概要の説明図である。本開示に係る情報処理システムは、図1に示すように、配信者Dが利用する配信者端末10と、複数のユーザUの各々が利用する複数のユーザ端末20と、配信サーバ30と、を有する。図1に示したように、配信者端末10と、ユーザ端末20と、配信サーバ30とは、ネットワーク40を介して通信可能に構成されている。また、ユーザUの各々は、複数のグループGのうち、いずれかのグループGに属する。
 配信者端末10は、配信者Dが利用する情報処理端末である。配信者端末10には、映像、音声、文字または動きが入力される。配信者端末10は、入力された映像、音声、文字または動き等を示す情報を、配信サーバ30に送信する。
 なお、配信者端末10は、複数の情報処理端末から構成されてもよいし、単一の情報処理端末であってもよい。図1に示した例では、配信者端末10は、PC(Personal Computer)であり、当該配信者端末10にカメラ11が接続されている。図1に示した配信者端末10は、カメラ11によって得られた配信者Dの画像データを配信サーバ30に送信する。なお、配信者端末10は、タブレット端末、スマートフォン、HMD(Head Mounted Display)、ゲーム端末、テレビ装置、ウェアラブルデバイス、モーションキャプチャ装置、マイク等の各種装置単体、または、上記各種装置の組み合わせにより構成されてもよい。また、上記では配信者端末10にカメラ11が接続される例を説明したが、配信者端末10がカメラ11の機能を内蔵してもよい。
 ユーザ端末20は、ユーザUが利用する情報処理端末である。ユーザ端末20には、映像、音声、文字または動きが入力される。ユーザ端末20は、入力された映像、音声、文字または動き等を示す情報を、配信サーバ30に送信する。ユーザ端末20は、配信サーバ30から、配信者Dが提供する配信コンテンツを受信する。また、ユーザ端末20は、配信サーバ30から受信した配信コンテンツをユーザUが視聴可能にするための出力処理を実行する。
 図1に示した例では、ユーザU1はユーザ端末20-1を利用している。同様に、ユーザU2はユーザ端末20-2を、ユーザU3はユーザ端末20-3を利用している。ユーザU1~ユーザU3は、それぞれ、別の場所で配信コンテンツを視聴していてもよいし、同じ場所で配信コンテンツを視聴していてもよい。なお、ユーザ端末20は、複数の情報処理端末から構成されてもよいし、単一の情報処理端末であってもよい。図1には、ユーザ端末20-1がHMDであり、ユーザ端末20-2がPCであり、ユーザ端末20-3がスマートフォンである例を示している。ユーザ端末20は、図1に示した例のほか、タブレット端末、ゲーム端末、テレビ装置、ウェアラブルデバイス、カメラ、モーションキャプチャ装置、マイク等の各種装置単体、または、上記各種装置の組み合わせにより構成されてもよい。
 また、ユーザ端末20を利用するユーザUの各々は、複数のグループGのうち、いずれかのグループGに属する。図1に示した例では、ユーザU1とユーザU2とユーザU3は、グループG1に属する。また、ユーザU4とユーザU5とユーザU6は、グループG2に属する。なお、図1に示した例では、グループGに属するユーザの数が3名である例を示したが、グループGに属するユーザUの人数は、2名以上の任意の人数でよい。グループGに属するユーザUの人数は、例えば、コミュニケーションを行うのに適した人数である、3~6名であってもよい。また、グループGに属するユーザUの人数は、グループGごとに異なる人数であってもよい。そして、グループGの数は特に限定されず、ユーザUの数に応じて決定されてもよい。
 配信サーバ30は、配信者Dが提供する配信コンテンツを、ユーザ端末20に送信する、情報処理装置である。ユーザ端末20に送信する配信コンテンツは、配信者端末10から送信される映像、音声、文字等のデータであってもよい。また、配信サーバ30は、仮想空間の情報、および当該仮想空間に配置する配信者Dに対応する配信者オブジェクトの情報を、配信コンテンツとしてユーザ端末20に送信してもよい。配信サーバ30は、配信者Dが提供する配信コンテンツを、リアルタイムでユーザ端末20に送信することで、ライブ配信を実現可能である。なお、配信サーバ30は、仮想空間の情報を事前にユーザ端末20に送信し、配信者オブジェクトの情報をリアルタイムでユーザ端末20に送信することで、ライブ配信を実現してもよい。
 (課題の整理)
 上述の情報処理システムによれば、配信者Dが提供する配信コンテンツをリアルタイムで複数のユーザ端末20に送信することにより、ライブ配信を行うことが可能である。ここで、ユーザUの体験価値をさらに向上するためには、ユーザUと配信者Dの双方向コミュニケーションを可能にすることが求められる。しかし、配信コンテンツを視聴可能なチャネル数に対して、双方向コミュニケーションが可能なチャネル数の資源には限りがある。
 そこで、本開示による実施形態の配信サーバ30は、あるグループGに属するユーザUと配信者Dが、双方向でコミュニケーション可能になるよう、通信を制御する。図2は、本開示に係る配信サーバ30による双方向コミュニケーションのイメージ図である。図2において、グループG1~G4に属するユーザUには、従来の単方向配信が提供される。一方、グループG5に属するユーザUには、配信者Dと双方向でコミュニケーション可能な、特別体験を伴う配信が提供される。ここで、グループG1~G4に属するユーザUの体験が配信者Dの分身を視聴するような体験であるのに対して、グループG5に属するユーザUの体験は、配信者Dとの双方向コミュニケーションが可能な、配信者Dの実体を視聴するような体験である。リアルタイムで配信者Dと双方向コミュニケーションを行うことによって、ユーザUは配信者Dから認知される機会を得られる。そのため、本開示による実施形態の配信サーバ30は、オフラインで開催されるイベントに参加できないユーザのニーズを叶えることが可能である。
 図1を参照して配信サーバ30の説明に戻ると、配信サーバ30は、複数のグループGから、1または2以上のグループGを選択する。配信サーバ30は、選択されたグループGに属するユーザUから送信される映像、音声、文字等のデータを、配信者端末10に送信することで、ユーザUと配信者Dの双方向コミュニケーションを実現してもよい。また、配信サーバ30は、選択されたグループGに属するユーザUから送信された、ユーザUに対応するユーザオブジェクトの情報を配信者端末10に送信することで、ユーザUと配信者Dの双方向コミュニケーションを実現してもよい。
 以上、本開示の一実施形態による情報処理システムの概要について説明した。続いて、本実施形態による情報処理システムに含まれる各装置の具体的な構成について図面を参照して説明する。
 <<2.本実施形態による機能構成例>>
 <2-1.配信者端末10の機能構成例>
 まず、配信者Dが配信コンテンツを提供する際に用いられる配信者端末10の構成について、図3を参照して説明する。
 図3は、本実施形態による配信者端末10の構成の一例を示すブロック図である。図3に示すように、配信者端末10は、通信部110と、制御部120と、入力部130と、出力部140と、操作部150と、を有する。
 (通信部)
 通信部110は、配信サーバ30と通信接続し、データの送受信を行う。例えば、通信部110は、入力部130によって取得された映像、音声または動きを示す情報、操作部150に入力された文字等の情報、または配信者Dに対応する配信者オブジェクトの情報を、配信サーバ30に送信する。また、通信部110は、配信サーバ30から、映像、音声または文字を示す情報、ユーザUに対応するユーザオブジェクトの情報、または仮想空間の情報等を受信する。
 (制御部)
 制御部120は、配信者端末10における動作全般を制御する。例えば、制御部120は、入力部130によって取得された映像、音声、または動き等を示す情報、または操作部150に入力された文字等の情報を通信部110に送信させる。また、制御部120は、通信部110によって配信サーバ30から受信された映像、音声、文字および仮想空間の情報等を出力部140に出力させる。
 制御部120は、入力部130に入力された映像または動き等を示す情報に基づいて、配信者オブジェクトの情報を生成する。配信者オブジェクトは、例えば、3Dまたは2Dの実写アバターであってもよいし、3Dまたは2DのCGキャラクタであってもよい。
 また、制御部120は、入力部130に入力された、動きを示す情報である動き情報に基づいて、配信者オブジェクトの情報を更新する。例えば、入力部130に配信者Dの手の動き情報が入力された場合、制御部120は、配信者オブジェクトの手を動かすよう、配信者オブジェクトの情報を更新する。入力部130に配信者Dの顔の動き情報が入力された場合、制御部120は、配信者オブジェクトの表情を変化させるよう配信者オブジェクトの情報を更新してもよい。
 制御部120は、配信サーバ30から受信された仮想空間の情報を保持してもよい。また、制御部120は、生成された配信者オブジェクトの情報が示す配信者オブジェクトを、当該仮想空間に配置することで、新たに仮想空間の情報を生成する処理を行ってもよい。また、制御部120は、通信部210によって受信されたユーザオブジェクトの情報が示すユーザオブジェクトを、当該仮想空間に配置することで、新たに仮想空間の情報を生成する処理を行ってもよい。
 制御部120は、配信者オブジェクトの視点での、ユーザオブジェクトが配置された仮想空間の情報を生成してもよい。配信者オブジェクトの視点の仮想空間には、当該配信者オブジェクトが含まれてもよく、含まれなくてもよい。
 (入力部)
 入力部130は、センサによって検出される映像、音声、文字または動き等を示す情報を取得する。例えば、入力部130は、カメラ、マイクロフォン、キーボード、マウス、タッチパッド、IMU(Inertial Measurement Unit)、IRセンサ、生体センサ等のセンサによって検出された情報を取得してもよい。
 入力部130は、例えば、カメラ11によって撮像された配信者Dの映像を取得する。また、入力部130は、マイクロフォンによって検出された配信者Dの音声または配信者Dが発した音を取得してもよい。また、入力部130は、キーボードによって検出された、配信者Dによって入力される、仮想空間における配信者オブジェクトに関する情報、例えば、配信者オブジェクトの位置情報またはモーション情報、または配信者オブジェクトの所有物の情報等を取得してもよい。また、入力部130は、IMUによって検出された配信者Dの動き(位置、姿勢、手足の動き、頭部の動き等)の情報を取得してもよいし、カメラによって取得された配信者Dの顔の動き(目、眉、口の動き等)および視線の動き等の情報を取得してもよい。なお、入力部130は、複数種類のセンサによって入力された情報を取得してもよい。
 (出力部)
 出力部140は、通信部110によって配信サーバ30から受信された情報等を出力する機能を有する。例えば出力部140は、2Dディスプレイ、3Dディスプレイ、プロジェクター、若しくは、立体ホログラムの呈示装置等により実現され得る。出力部140は、例えば、仮想空間の情報を、映像として2Dディスプレイに表示してもよい。また、出力部140はスピーカまたはヘッドホンなどの音出力装置等であってもよい。また、出力部140は、上記各種装置の組み合わせにより構成されてもよい。
 (操作部)
 操作部150は、配信者Dが配信者端末10に指示または情報を入力するための操作を受け付ける。例えば、配信者Dは、操作部150を操作することによって入力した文字を、配信コンテンツの一部としてもよい。また、配信者Dは、操作部150を操作することで、双方向コミュニケーションを行うグループGを選択してもよい。
 また、操作部150は、配信サーバ30で行う動作の指示を受け付けてもよい。操作部150は、例えば、ライブ配信の開始の指示を受け付けてもよい。操作部150は、ライブ配信を行っている際に、配信者DとユーザUが双方向でコミュニケーション可能なシーンに遷移させる指示を受け付けてもよい。操作部150が配信者Dによる双方向コミュニケーション可能なシーンに遷移させる指示を受け付けることで、音楽ライブ演奏中等の双方向コミュニケーションが難しいシーンと、双方向コミュニケーション可能なシーンとを区別してライブ配信を行うことが可能である。
 <2-2.ユーザ端末20の機能構成例>
 次に、ユーザUが配信コンテンツを視聴する際に用いられるユーザ端末20の構成について図4を参照して説明する。
 図4は、本実施形態によるユーザ端末20の構成の一例を示すブロック図である。図4に示すように、ユーザ端末20は、通信部210と、制御部220と、入力部230と、出力部240と、操作部250と、を有する。
 (通信部)
 通信部210は、配信サーバ30と通信接続し、データの送受信を行う。例えば、通信部210は、入力部230によって取得された映像、音声または動きの情報、操作部250に入力された文字等の情報、またはユーザUに対応するユーザオブジェクトの情報を、配信サーバ30に送信する。また、通信部210は、配信サーバ30から、映像、音声、文字を示す情報、配信者Dに対応する配信者オブジェクトの情報、および仮想空間の情報等を受信する。配信サーバ30から受信する情報は、配信者Dによって提供される配信コンテンツを含む。また、通信部210が配信サーバ30から受信する映像、音声、文字を示す情報は、ユーザUと同一のグループGに属する他のユーザUから送信された情報を含んでもよい。また、通信部210は、配信サーバ30から、ユーザUと同一のグループGに属する他のユーザUに対応するユーザオブジェクトの情報を受信してもよい。
 (制御部)
 制御部220は、ユーザ端末20における動作全般を制御する。例えば、制御部220は、入力部230によって取得された映像、音声、または動き等を示す情報、および操作部150に入力された文字等の情報を通信部210に送信させる。また、制御部220は、通信部210によって配信サーバ30から受信された映像、音声、文字および仮想空間の情報等を出力部240に出力させる。
 制御部220は、入力部230に入力された映像または動き等を示す情報に基づいて、ユーザオブジェクトの情報を生成する。ユーザオブジェクトは、例えば、3Dまたは2Dの実写アバターであってもよいし、3Dまたは2DのCGキャラクタであってもよい。
 また、制御部220は、入力部230に入力された、動きを示す情報である動き情報に基づいて、ユーザオブジェクトの情報を更新する。例えば、入力部230にユーザUの手の動き情報が入力された場合、制御部220は、ユーザオブジェクトの手を動かすよう、ユーザオブジェクトの情報を更新する。入力部230にユーザUの顔の動き情報が入力された場合、制御部220は、ユーザオブジェクトの表情を変化させるようユーザオブジェクトの情報を更新してもよい。
 制御部220は、配信サーバ30から受信された仮想空間の情報を保持してもよい。また、制御部220は、生成されたユーザオブジェクトの情報が示すユーザオブジェクトを、当該仮想空間に配置することで、新たに仮想空間の情報を生成する処理を行ってもよい。また、制御部220は、通信部210によって受信された、配信者オブジェクトの情報およびユーザオブジェクトの情報が示す、配信者オブジェクトおよびユーザオブジェクトを、当該仮想空間に配置することで、新たに仮想空間の情報を生成する処理を行ってもよい。
 制御部220は、ユーザオブジェクトの視点での、配信者オブジェクトおよび他のユーザオブジェクトが配置された仮想空間の情報を生成してもよい。ユーザオブジェクトの視点の仮想空間には、当該ユーザオブジェクトが含まれてもよく、含まれなくてもよい。
 (入力部)
 入力部230は、センサによって検出される映像、音声、文字または動き等を示す情報を取得する。例えば、入力部230は、カメラ、マイクロフォン、キーボード、マウス、タッチパッド、IMU、IRセンサ、生体センサ等のセンサによって検出された情報を取得してもよい。
 入力部230は、例えば、カメラによって撮像されたユーザUの映像を取得する。また、入力部230は、マイクロフォンによって検出された配信者Dの音声または配信者Dが発した音を取得してもよい。また、入力部230は、キーボードによって検出された、ユーザUによってキーボードに入力される、仮想空間におけるユーザオブジェクトの情報、例えば、ユーザオブジェクトの位置情報またはモーション情報、またはユーザオブジェクトの所有物の情報等を取得してもよい。また、入力部230は、IMUによって検出されたユーザUの動き(位置、姿勢、手足の動き、頭部の動き等)の情報を取得してもよいし、カメラによって取得されたユーザUの顔の動き(目、眉、口の動き等)および視線の動き等の情報を取得してもよい。なお、入力部230は、複数種類のセンサによって入力された情報を取得してもよい。
 (出力部)
 出力部240は、通信部210によって配信サーバ30から受信された情報等を出力する機能を有する。例えば出力部240は、2Dディスプレイ、3Dディスプレイ、プロジェクター、若しくは、立体ホログラムの呈示装置等により実現され得る。出力部240は、仮想空間の情報を、映像として2Dディスプレイに表示してもよい。また、出力部240はスピーカまたはヘッドホンなどの音出力装置等であってもよい。また、出力部240は、上記各種装置の組み合わせにより、構成されてもよい。
 (操作部)
 操作部250は、ユーザUがユーザ端末20に指示または情報を入力するための操作を受け付ける。操作部250に入力された指示および情報は、通信部210によって配信サーバ30に送信される。例えば、ユーザUは、操作部250を操作することにより、チャット機能を利用して配信コンテンツに対する反応を文字またはスタンプなどでリアルタイムに送信してもよい。または、ユーザUは、操作部250を操作することにより、配信コンテンツにおいて、配信者Dに換金可能なアイテムを送る、いわゆる投げ銭システムを利用してもよい。
 また、ユーザUは、操作部250を操作することにより、自身が属するグループGを指定してもよい。ユーザUは、例えば、操作部250にグループIDを入力することで、自身が属するグループGを指定してもよい。
 また、ユーザUは、操作部250を操作することにより、自身のプロファイル情報を入力してもよい。プロファイル情報は、例えば、ユーザUの性別、年齢、および音楽の好み等の情報を含む。また、ユーザUは、操作部250を操作することにより、出力部240に表示されたジャンルの中から、ライブ配信を視聴するジャンルを選択してもよい。
 <2-3.配信サーバ30の機能構成例>
 次に、配信者Dによって提供される配信コンテンツを送信する配信サーバ30の構成について図5を参照して説明する。
 図5は、本実施形態による配信サーバ30の構成の一例を示すブロック図である。図5に示すように、配信サーバ30は、通信部310と、制御部320と、を有する。
 (通信部)
 通信部310は、ネットワーク40を介して、配信者端末10およびユーザ端末20と通信する。通信部310は、接続制御部324による制御に基づき、配信者端末10およびユーザ端末20と通信する。通信部310は、例えば、配信者Dが提供する配信コンテンツを複数のユーザ端末20に送信する。
 (制御部)
 制御部320は、配信サーバ30における動作全般を制御する。制御部320は、例えば、通信部310によって配信者端末10から受信された指示に応じて、配信サーバ30における動作を制御する。特に、本実施形態においては、制御部320は、グループ選択部321と、算出部322と、仮想空間生成部323と、接続制御部324と、として機能する。
 (グループ選択部)
 グループ選択部321は、2以上のユーザUが属する複数のグループGから、1または2以上のグループGを選択する。例えば、グループ選択部321は、複数のグループGから、配信者Dとの双方向コミュニケーションの権利を持つグループGである第1のグループを選択する。後述する接続制御部324は、当該第1のグループに属するユーザUと配信者Dが、双方向でコミュニケーション可能になるよう、接続を制御する。グループ選択部321は、例えば、後述する算出部322によって算出された盛り上がり度または貢献度に関する条件に基づいて、グループGを選択してもよい。グループ選択部321は、通信部310によって受信された、配信者端末10からの指示に基づいて、グループGを選択してもよい。
 また、グループ選択部321は、所定の条件に基づき、新たにグループGを選択し直してもよい。例えば、グループ選択部321は、後述する算出部322によって算出された盛り上がり度または貢献度に関する条件に基づいて新たにグループGを選択してもよい。具体的には、グループ選択部321は、盛り上がり度または貢献度が最も高いグループGを、新たに選択してもよい。または、グループ選択部321は、配信者Dによってグループが選択されたか否かに基づいて、新たにグループGを選択し直してもよい。その場合、通信部310によって受信された、配信者端末10からの指示に基づいて、グループ選択部321は、新たにグループGを選択し直す。
 また、グループ選択部321は、あるグループGが選択されてから経過した時間に基づいて、新たにグループGを選択し直してもよい。例えば、グループ選択部321は、グループGが選択されてから新たにグループGが選択されるまでの時間が、各グループGで公平になるように、順次グループGを選択し直してもよい。また、グループ選択部321は、盛り上がり度または貢献度が高いグループGほど選択される時間が長くなるよう、順次グループGを選択し直してもよい。
 また、グループ選択部321によって選択されるグループGの数は、所定の数であってもよいし、通信部310によって行われる通信の負荷状況に基づいて、動的に変化してもよい。また、グループ選択部321によって選択されるグループGの数は、後述する算出部322による算出結果に基づいて決定されてもよい。例えば、グループ選択部321は、グループGの盛り上がり度または貢献度の平均値に基づいてグループGの選択数を決定してもよい。
 なお、グループ選択部321は、各グループGに属するユーザUを決定する機能を有する。グループ選択部321は、各グループGに属するユーザUをランダムに決定してもよい。グループ選択部321は、ユーザ端末20によって送信された、ユーザUの各々のプロファイル情報に基づいて、プロファイル情報がマッチするユーザUを同一のグループGに所属させることを決定してもよい。また、グループ選択部321は、ユーザ端末20から送信された、ユーザUが所属するグループGの指定によって、グループGに属するユーザUを決定してもよい。
 (算出部)
 算出部322は、同一のグループGに属するユーザU同士で行われるコミュニケーションに基づき、同一のグループGに属するユーザUの各々の盛り上がり度または貢献度を算出する。算出部322は、例えば、ユーザUに入力される映像、音声、文字または動きに基づきユーザUの盛り上がり度を算出する。具体的には、算出部322は、ユーザUから音声が入力される時間が長いほど、ユーザUの盛り上がり度が高くなるよう、ユーザUの盛り上がり度を算出してもよい。また、算出部322は、ユーザUから入力される文字の数が多いほど、ユーザUの盛り上がり度が高くなるよう、ユーザUの盛り上がり度を算出してもよい。
 算出部322は、配信者Dによって指定された条件に、ユーザUに入力される映像、音声、文字または動きがどれだけ合致するかに基づいて、ユーザUの貢献度を算出してもよい。具体的には、算出部322は、ユーザUの貢献度を配信者Dによって指定されたキーワードがユーザUによって入力されたか否かに基づいて算出してもよい。また、算出部322は、ユーザUによって利用された投げ銭システムにおける課金額が多いほど、ユーザUの貢献度が高くなるよう、ユーザUの貢献度を算出してもよい。
 また、算出部322は、同一のグループGに属するユーザU同士で行われるコミュニケーションに基づき、複数のグループGの各々の盛り上がり度または貢献度を算出してもよい。例えば、算出部322は、グループGに属するユーザUの各々の盛り上がり度または貢献度を足し合わせてグループGの盛り上がり度または貢献度を算出してもよい。
 算出部322によって算出されたユーザUまたはグループGの盛り上がり度および貢献度は、通信部310によってユーザ端末20に送信され、ユーザ端末20に表示されてもよい。例えば、グループGの盛り上がり度の順位表が、ユーザ端末20に表示されてもよい。グループ選択部321が盛り上がり度に関する条件に基づいて新たに配信者Dと双方向コミュニケーション可能なグループGを選択する場合に、ユーザUは、当該順位表を確認することで、自身がどう振る舞うかを決定できる。すなわち、算出部322によって算出された盛り上がり度または貢献度がユーザ端末20に表示されることで、ライブ配信の臨場感をより高めることが可能である。
 (仮想空間生成部)
 仮想空間生成部323は、配信者オブジェクトおよびユーザオブジェクトが配置される仮想空間を生成する。仮想空間生成部323は、配信者DまたはユーザUに対応するオブジェクトの、仮想空間における配置場所を決定してもよい。仮想空間生成部323は、配信者DまたはユーザUに対応するオブジェクトを仮想空間に配置してもよい。仮想空間生成部323は、配信者端末10またはユーザ端末20から受信した映像または動き等を示す情報に基づいて配信者オブジェクトおよびユーザオブジェクトを生成してもよい。
 (接続制御部)
 接続制御部324は、通信部310の通信を制御する。接続制御部324は、グループ選択部321によって選択されたグループGに属するユーザUと配信者Dが、双方向でコミュニケーション可能になるよう接続を制御する。例えば、接続制御部324は、グループ選択部321によって選択されたグループGに属するユーザUから送信されたユーザオブジェクトの情報を、配信者Dが利用する配信者端末10に送信するよう通信部310を制御してもよい。また、接続制御部324は、グループ選択部321によって選択されたグループGに属するユーザUから送信された映像、音声、または文字等の情報を、配信者端末10に送信してもよい。
 図6は、接続制御部324による接続制御の具体例を示す説明図である。図6で説明する例においては、グループ選択部321によって、グループG1が、配信者Dと双方向でコミュニケーション可能なグループGとして選択されたとする。
 図6に示すように、配信者端末10は、配信者データYを配信サーバ30に送信する。また、ユーザ端末20は、ユーザデータXを配信サーバ30に送信する。配信者データYおよびユーザデータXは、それぞれ、配信者オブジェクトの情報およびユーザオブジェクトの情報を含む。図6においては、配信者端末10に送信される情報CDおよびユーザ端末20に送信される情報(配信コンテンツ)Cに、どのデータが含まれるかが示されている。例えば、ユーザ端末20-1に送信される配信コンテンツC1は、ユーザデータX2およびX3、および配信者データYを含む。
 接続制御部324は、グループ選択部321によって選択されたグループG1に属するユーザUと配信者Dが、双方向でコミュニケーション可能になるよう接続を制御する。ここでは、接続制御部324は、ユーザデータX1~X3を含む、配信者端末10に送信される情報CDが、配信者端末10に送信されるよう通信を制御する。これによって、グループG1に属するユーザUは、配信者Dと双方向でコミュニケーションを行える。なお、配信者データYおよびユーザデータXには音声情報が含まれてもよく、配信者端末10に送信される情報CDおよびユーザUに送信される情報Cに音声情報が含まれることで、より体験価値の高い双方向コミュニケーションが提供される。
 図7は、図6の具体例における、各端末の画面イメージを説明するための説明図である。配信者端末10およびユーザ端末20の画面には、配信者オブジェクトODおよびユーザオブジェクトOが配置された仮想空間Vの映像が出力される。図7に示すユーザ端末20-1の画面には、配信コンテンツC1に含まれるユーザデータX2およびX3、および配信者データYと、自身の端末に入力されたユーザデータX1に基づいて、ユーザ端末20-1の制御部220によって生成される仮想空間V1の映像が出力される。そして、配信者端末10の画面にも、ユーザ端末20-1と同様に、ユーザデータX1~X3および配信者データYに基づいて、配信者端末10の制御部120によって生成される仮想空間V1の映像が出力される。
 なお、ここまで配信者端末10とユーザ端末20-1の画面に同様の映像が出力される例を示したが、配信者端末10とユーザ端末20-1の画面には、同一の仮想空間V1を示す映像が出力されていればよく、視点が異なる別の映像が表示されてもよい。
 図6を参照して接続制御部324の説明に戻る。接続制御部324は、グループG2に属する他のユーザから送信されるユーザデータXおよび配信者データYを含む配信コンテンツC4~C6を、それぞれ、ユーザU4~U6に送信するよう制御する。そのため、ユーザU4~U6は、相互にコミュニケーションが可能である。一方、配信者端末10に送信される情報CDは、ユーザデータX4~X6を含まないため、グループG2に属するユーザUは、配信者Dと双方向でコミュニケーションできない。
 上記で説明したように、図7に示すユーザ端末20-4の画面には、配信コンテンツC4に含まれるユーザデータX5およびX6、および配信者データYと、自身の端末に入力されたユーザデータX4に基づいて、ユーザ端末20-4の制御部220によって生成される仮想空間V2の映像が出力される。
 次に、図8を参照して、接続制御部324による接続制御の別の具体例を説明する。図8は、接続制御部324による接続制御の別の具体例を示す説明図である。図8で説明する例においては、接続制御部324によって制御される、配信者端末10およびユーザ端末20-1~20-3によって行われる通信は、図6を用いて説明した具体例と同様である。一方、接続制御部324は、グループ選択部321により選択されていないグループG2に属するユーザ端末20から、ユーザデータXを受信しないよう制御する。一方、接続制御部324は、配信者データYのみを含む配信コンテンツC4~C6を、ユーザU4~U6の各々に送信するよう制御する。接続制御部324により前述の接続制御が行われることで、図6を参照して説明した具体例と比較して、通信部310によって行われる通信の負荷を抑えることが可能である。
 なお、ここまで、1名の配信者Dによって1のライブ配信が行われる例を示したが、配信者Dは2名以上であってもよく、複数の配信者Dがそれぞれ別のライブ配信を行ってもよい。その場合には、接続制御部324は、通信部310によってユーザ端末20から受信された、ユーザUによって選択されたジャンルに基づいて、複数のライブ配信のうち、どのライブ配信についての配信コンテンツをユーザ端末20に送信するか決定してもよい。その場合、接続制御部324は、当該決定に基づき通信部310の接続を制御する。また、ユーザUによって選択されたジャンルに関するライブ配信が行われていない場合は、接続制御部324は、ライブ配信が開始されるまでの間も、同一のグループGに属するユーザU同士がコミュニケーション可能になるよう、接続を制御してもよい。
 <<3.本実施形態による動作処理例>>
 続いて、本実施形態による配信サーバ30の動作例を説明する。図9は、本実施形態による配信サーバ30の動作例を示すフローチャートである。
 まず、各ユーザUは、ユーザ端末20を操作することで、自身が属するグループGを指定して、配信者Dによって提供される配信コンテンツを視聴するための配信システムにログインする(S104)。配信サーバ30のグループ選択部321は、通信部310によって受信された、ユーザUの所属するグループGの指定によって、各々のグループGに属するユーザUを決定する。続いて、各ユーザUは、ユーザ端末20を操作することで、ライブ配信を視聴するジャンルを選択する(S108)。
 接続制御部324は、同一のグループGに属するユーザU同士がコミュニケーション可能になるよう、通信部310による通信を制御する。例えば、接続制御部324は、同一のグループGに属するユーザUが利用するユーザ端末20に、当該グループGに属する他のユーザUが利用するユーザ端末20から受信したユーザオブジェクトの情報および映像、音声、文字等の情報を送信するよう通信部310による通信を制御する。ユーザ端末20の出力部240は、当該グループGに属する他のユーザUに対応するユーザオブジェクトを含む仮想空間の映像を出力する。ユーザUは、同一のグループGに属する他のユーザUとコミュニケーションを行う(S112)。
 通信部310によって配信者端末10からの指示が受信され、ユーザUによって選択されたジャンルに関する配信者Dによるライブ配信が開始されると(S116/Yes)、ユーザUには、配信者Dからの単方向配信が提供される。具体的には、各々のグループGに属するユーザが利用するユーザ端末の出力部240は、通信部210によって配信サーバ30から受信された配信者オブジェクトを含む仮想空間の映像を出力する。また、配信サーバ30の通信部310は、各々のユーザ端末20に、配信者端末10から受信した映像、音声、文字等の情報を送信する。
 続いて、通信部310が、配信者端末10から、コミュニケーションが可能なシーンに遷移する指示を受信すると(S120/Yes)、制御部320は、ユーザUと配信者Dの双方向コミュニケーションの実施を制御する(S124)。
 ここで、図10を参照してS124にて行われる動作を詳しく説明する。図10は、本実施形態による配信サーバ30によって制御される双方向コミュニケーションの実施の動作例を示すフローチャートである。
 通信部310が、配信者端末10からユーザUと配信者Dの双方向コミュニケーションの実施の開始の指示を受信すると、グループ選択部321は、配信者Dとの双方向コミュニケーションを行うグループGを選択する(S128)。接続制御部324は、配信者Dとの双方向コミュニケーション権利のあるグループGに属するユーザUと配信者Dがコミュニケーション可能になるよう、通信部310での通信を制御する(S132)。例えば、接続制御部324は、グループ選択部321によって選択されたグループGに属するユーザUから送信されたユーザオブジェクトの情報を、配信者Dが利用する配信者端末10に送信するよう制御する。また、接続制御部324は、グループ選択部321によって選択されたグループGに属するユーザUから送信された映像、音声、文字等の情報を、配信者端末10に送信する。
 グループ選択部321によって、新たに双方向コミュニケーション権利のあるグループGが選択されると(S136/Yes)、制御部320は処理を再びS132に戻し、接続制御部324は、新たに選択されたグループGに属するユーザUと配信者Dがコミュニケーション可能になるよう制御する。
 グループ選択部321によって、新たに双方向コミュニケーション権利のあるグループGが選択されなかった場合(S136/No)、処理はS140に進められる。通信部310によって受信される配信者端末10からの指示に応じて、双方向コミュニケーション可能なシーンが終了した場合(S140/Yes)、処理は図9のS144に進められる。配信者Dとの双方向コミュニケーションが可能なシーンが終了しない場合(S140/No)、制御部320は処理を再びS136に戻す。配信サーバ30は、通信部310によって配信者端末10からの指示を受信して、配信者Dとの双方向コミュニケーション可能なシーンが終了するまで、S136~S140の動作を繰り返す。
 図9を参照してS144以降の動作の説明に戻る。通信部310によって配信者端末10からの双方向コミュニケーションが可能なシーンが再開の指示が受信されると、配信者Dと双方向コミュニケーションが可能なシーンが再開する(S144/Yes)。その場合、制御部320は、S124の双方向コミュニケーションの実施を再び制御する。
 配信者Dと双方向コミュニケーションが可能なシーンが再開しない場合(S144/No)、通信部310によって配信者端末10からの指示が受信されると、制御部320はライブ配信を終了するよう制御する。ライブ配信の終了後、制御部320は処理を再びS112に戻す。
 ライブ配信が開始されない場合(S116/No)、および配信者Dとの双方向コミュニケーション可能なシーンに遷移しない場合は(S120/No)、制御部320は、通信部310によってユーザ端末20から各々のユーザUの好みのジャンルの選択が新たに受信されたかを判断する。ユーザUによって好みのジャンルが新たに選択された場合(S152/Yes)、制御部320は、処理を再びS112に戻す。ユーザUによって好みのジャンルが新たに選択されず(S152/No)、通信部310がユーザ端末20から、配信システムからのログアウトの選択を受信しない場合にも(S156/No)、制御部320は、処理を再びS112に戻す。通信部310がユーザ端末20から、配信システムからのログアウトの選択を受信した場合(S156/Yes)、制御部320は、当該ユーザ端末20を利用するユーザUを配信システムからログアウトさせる(S160)。
 <<4.本実施形態による作用効果例>>
 以上、説明した本開示にかかる配信サーバ30によれば、多様な効果を実現し得る。本開示にかかる配信サーバ30は、同一のグループGに属するユーザU同士でのコミュニケーションが可能である。比較例として、ライブ配信を視聴するユーザUから受信した文字または音声等の情報を、すべてのユーザUに送信する構成も考えられる。しかし、多くのユーザUがライブ配信を視聴する場合には、ユーザUが他のユーザUからの発信をすべて受け取ると、他のユーザUからの情報発信を邪魔に感じてしまう可能性がある。本開示にかかる配信サーバ30によれば、ユーザ端末20は限られたユーザUからの情報発信のみを受け取るため、ユーザUに快適なライブ配信を提供することが可能である。
 特に、ユーザ端末20から、当該ユーザ端末20を用いるユーザUが属するグループGの情報を受信する場合には、複数のユーザU同士で、ある同一のグループGに属することを決定できる。この場合、ユーザUは自身の知る他のユーザUからの情報発信のみを受け取ることができ、ユーザUの体験価値をさらに高めることが可能である。
 また、本開示にかかる配信サーバ30によれば、通信部310は、グループGに属するユーザUから送信されたユーザオブジェクトの情報を、配信者端末10およびユーザ端末20に送信する。比較例として、ライブ配信を視聴するすべてのユーザUに対応するユーザオブジェクトの情報が、配信者端末10およびユーザ端末20に送信される構成も考えられる。しかし、本開示にかかる配信サーバ30によれば、比較例と比較して、配信者端末10およびユーザ端末20による仮想空間のレンダリング負荷が低減できる。また、本開示にかかる配信サーバ30によれば、配信者端末10およびユーザ端末20と配信サーバ30の通信負荷が低減可能である。
 また、本開示にかかる配信サーバ30によれば、グループ選択部321は、所定の条件に基づき、新たに配信者Dと双方向コミュニケーション権利のあるグループGを選択し直す。当該構成によれば、双方向コミュニケーションが可能なチャネル数が限られる中で、より多くのユーザUが配信者Dと双方向コミュニケーションを行うことが可能である。例えば、配信コンテンツが数万人に向けたライブ配信であった場合にも、双方向コミュニケーション権利のあるグループGが巡回することで、多くのユーザUの体験価値を高めることが可能である。
 <<5.本実施形態による変形例>>
 以上、本実施形態による配信サーバ30の動作例を説明した。本開示にかかる技術は、以上説明した実施形態に限定されない。以下、図11および図12を参照し、本開示にかかる配信サーバ30の変形例を説明する。
 <5-1.第一の変形例>
 まず、本開示による第一の変形例を説明する。はじめに、第一の変形例にかかる配信サーバ30の構成要素のうち、グループ選択部321および接続制御部324の追加の機能について説明する。
 (グループ選択部)
 グループ選択部321は、双方向コミュニケーション権利のあるグループGとして選択されていない複数のグループGから、1または2以上のグループである第2のグループを選択する機能をさらに有する。後述の接続制御部324は、第2のグループである監視対象のグループGに属するユーザU同士で行われるコミュニケーションが、配信者Dに伝わるように接続を制御する。
 グループ選択部321は、所定の条件に基づき、新たに監視対象のグループGを選択し直してもよい。例えば、グループ選択部321は、通信部310によって受信された、配信者端末10からの指示に基づいて、新たに監視対象のグループGを選択し直してもよい。
 また、グループ選択部321は、ある監視対象のグループGが選択されてから経過した時間に基づいて、新たに監視対象のグループGを選択し直してもよい。例えば、グループ選択部321グループGが選択されてから、新たに監視対象のグループGが選択される時間が、各監視対象のグループGで公平になるように、順次監視対象のグループGを選択し直してもよい。
 (接続制御部)
 接続制御部324は、監視対象のグループGに属するユーザU同士で行われるコミュニケーションが配信者Dに伝わるように接続を制御する機能をさらに有する。例えば、接続制御部324は、グループ選択部321によって選択された監視対象のグループGに属するユーザUに対応するユーザオブジェクトの情報を、配信者Dが利用する配信者端末10に監視用に送信するよう通信部310を制御してもよい。この場合には、配信者端末10の画面には、配信者Dと双方向でコミュニケーション可能なグループGに属するユーザオブジェクトを含む仮想空間の映像と、監視対象のグループGに属するユーザオブジェクトを含む監視用の仮想空間の映像の双方が表示される。また、接続制御部324は、グループ選択部321によって選択された監視対象のグループGに属するユーザUから送信された映像、音声、または文字等の情報を、配信者端末10に送信してもよい。
 図11は、本開示の第一の変形例における、各端末の画面イメージの一例を説明するための説明図である。図11で説明する例においては、ユーザ端末20-1を利用するユーザUがグループG1に、ユーザ端末20-3を利用するユーザUがグループG2に属し、ユーザ端末20-4を利用するユーザUがグループG3に属しているとする。また、グループ選択部321によって、グループG1が、配信者Dと双方向でコミュニケーション可能なグループGとして選択されたとする。また、グループ選択部321によって、グループG2が、監視対象のグループGとして選択されたとする。
 配信者端末10の画面には、配信者オブジェクトODおよびグループG1に属するユーザUに対応するユーザオブジェクトOが配置された仮想空間VDの映像が出力される。配信者端末10の画面には、さらに、配信者オブジェクトODおよびグループG2に属するユーザUに対応するユーザオブジェクトOが配置された監視用の仮想空間VOの映像が出力される。ここで、グループG2およびグループG3に属するユーザUには、従来の単方向配信が提供される。
 配信者Dは、仮想空間VDの映像を見ながら、グループG1に属するユーザUとコミュニケーションを行う。一方、配信者Dは、監視用の仮想空間VOの映像を確認して、監視対象のグループGであるグループG2に属するユーザU同士で行われるコミュニケーションを監視する。配信者Dは、監視対象のグループGに属するユーザオブジェクトを含む仮想空間の映像を、配信者Dと双方向でコミュニケーション可能なグループGの選択の決定の材料とすることができる。また、グループ選択部321によって、新たに監視対象のグループGが選択し直されることで、監視用の仮想空間VOの映像は、他のグループGに属するユーザオブジェクトを含む仮想空間の映像に切り替わる。配信者Dは、複数のグループGに属するユーザオブジェクトを含む仮想空間の映像を確認することで、配信者Dと双方向でコミュニケーション可能なグループGの選択を効率的に行うことが可能である。
 続いて、本開示の第一の変形例による配信サーバ30の動作例を説明する。図12は、本開示の第一の変形例による配信サーバ30によって制御される双方向コミュニケーションの実施の動作例を示すフローチャートである。
 S128の双方向コミュニケーション権利のあるグループGの選択の動作とS132の双方向コミュニケーションの実施の制御の動作は、図10を用いて説明したため、説明を省略する。グループ選択部321によって、監視対象のグループG(監視グループ)が選択されると(S133)、接続制御部324は、監視対象のグループGに属するユーザU同士で行われるコミュニケーションが配信者Dに伝わるように接続を制御する(S134)。グループ選択部321によって、新たに監視対象のグループGが選択されると(S135/Yes)、制御部320は処理を再びS134に戻す。接続制御部324は、新たに選択された監視対象のグループGに属するユーザU同士で行われるコミュニケーションが配信者Dに伝わるよう、接続を制御する。
 グループ選択部321によって、新たに監視対象のグループGが選択されなかった場合には(S135/No)、制御部320は、新たに双方向コミュニケーション権利のあるグループGが選択されたかを判断する(S136)。ここで、配信者Dは、監視対象のグループGに属するユーザU同士で行われるコミュニケーションの内容に基づいて、新たに双方向コミュニケーション権利のあるグループGの決定を判断することが可能である。
 グループ選択部321が新たに双方向コミュニケーション権利のあるグループGを選択すると(S136/Yes)、制御部320は処理を再びS132に戻す。グループ選択部321が新たに双方向コミュニケーション権利のあるグループGを選択すると(S136/No)、処理はS140に進められる。通信部310によって受信される配信者端末10からの指示に応じて、双方向コミュニケーション可能なシーンは終了した場合(S140/Yes)、処理は図9のS144に進められる。配信者Dとの双方向コミュニケーションが可能なシーンが終了しない場合(S140/No)、制御部320は処理を再びS135に戻す。配信サーバ30は、通信部310によって配信者端末10からの指示を受信して、配信者Dとの双方向コミュニケーション可能なシーンが終了するまで、S132~S140の動作を繰り返す。
 <5-2.第二の変形例>
 以上、図12を参照して、本開示による第一の変形例にかかる配信サーバ30の動作例を説明した。次に、本開示による第二の変形例について説明する。本開示の第二の変形例において、仮想空間生成部323は、グループ選択部321によってあるグループGが選択された場合、配信者オブジェクトおよび当該グループGに属するユーザUに対応するユーザオブジェクトのみが配置される、特定の仮想空間を生成する。特定の仮想空間は、配信コンテンツのシナリオに合わせた空間であってもよい。配信コンテンツのシナリオは、例えば、トーク会、観光巡り、ドライブ、ボート乗り、花火大会、展示会巡り、美術館巡り等である。例えば、配信コンテンツのシナリオがドライブであった場合、特定の仮想空間は、車内である。
 また、仮想空間生成部323は、グループ選択部321によって選択されたグループGに属するユーザUを表すユーザオブジェクトの各々の仮想空間における配置場所を、配信者Dとのコミュニケーションについての体験価値が異なる複数の種類の場所から決定してもよい。例えば、仮想空間生成部323が生成した仮想空間が、上述した車内である場合に、仮想空間生成部323は、配信オブジェクトを運転席に配置するよう決定し、グループGに属する複数のユーザUに対応するユーザオブジェクトを、それぞれ助手席または後部座席に配置するよう決定してもよい。ここで、ユーザ端末20は、仮想空間生成部323によって決定されたユーザオブジェクトの配置場所に従って、仮想空間の情報を生成する処理を行ってもよい。
 なお、仮想空間生成部323は、算出部322によって算出されたユーザUの各々の盛り上がり度または貢献度に基づいて、ユーザオブジェクトの各々の仮想空間における配置場所を決定してもよい。仮想空間生成部323は、時間経過によって、ユーザオブジェクトの各々の仮想空間における配置場所を変更してもよい。仮想空間生成部323は、通信部310によって受信された、配信者端末10からの指示に基づいて、ユーザオブジェクトの各々の仮想空間における配置場所を決定してもよい。
 <5-3.第三の変形例>
 以上、本開示による第二の変形例を説明した。次に、本開示による第三の変形例について説明する。本開示の第三の変形例において、接続制御部324は、グループ選択部321によって選択されたグループGに属するユーザUの各々についての配信者Dとのコミュニケーション方法を決定する。接続制御部324は、配信者Dとのコミュニケーションについての体験価値が異なる複数の種類の方法から、配信者Dとのコミュニケーション方法を決定してもよい。
 例えば、接続制御部324は、あるユーザUのみが配信者Dと会話できるよう音声情報の接続を制御してもよい。また、接続制御部324は、配信者Dから送信される音声情報をユーザUに送信する際に、ユーザUごとに音声の大きさおよび鮮明さを決定してもよい。また、接続制御部324は、ユーザUの各々についての配信者Dとのコミュニケーション方法を、算出部322によって算出されたユーザUの各々の盛り上がり度または貢献度に基づいて決定してもよい。
 <5-4.その他の変形例>
 以上、本開示の第三の変形例を説明した。次に、本開示によるその他の変形例について説明する。例えば、上記実施形態では、配信者Dが1名である例を説明したが、双方向チャネルのリソース許容数の範囲で、配信者Dが2名以上参加可能な双方向配信システム構成にしてもよい。その場合には、グループ選択部321は、配信者Dごとに、それぞれ異なる双方向コミュニケーション権利のあるグループGを選択してもよい。また、グループ選択部321は、一の双方向コミュニケーション権利のあるグループGを選択してもよい。その場合には、接続制御部324は、全ての配信者Dが当該双方向コミュニケーション権利のあるグループGに属するユーザUとコミュニケーションが可能になるよう、接続を制御してもよい。
 また、上記実施形態では、従来の単方向配信において、配信コンテンツが送信されるユーザ端末20を利用するユーザUが属するグループGに属するユーザオブジェクトを含む仮想空間の映像がユーザ端末20の画面に出力される例を説明した。しかし、ユーザ端末20の画面に出力される映像は、この例に限られない。例えば、単方向配信を提供されるユーザUが利用するユーザ端末20の画面には、前述の映像に加えて、双方向コミュニケーションが実施されているグループGに属するユーザオブジェクトを含む仮想空間の映像を表示してもよい。また、単方向配信を提供されるユーザUが利用するユーザ端末20には、双方向コミュニケーションが実施されているグループGから送信された映像、音声および文字等の情報が送信されてもよい。
 また、上記実施形態では、配信コンテンツが、配信サーバ30からユーザ端末20に送信される例を示したが、配信コンテンツは、配信サーバ30からクラウドを経由してユーザ端末20に送信されてもよい。配信サーバ30は、配信コンテンツを複数のクラウドに送信してもよい。その場合、配信コンテンツは、ユーザ端末20が存在するエリアに基づいて、複数クラウドのうち一のクラウドから、ユーザ端末20に送信されてもよい。
 また、上記実施例では、算出部322が盛り上がり度および貢献度を算出する例を示したが、算出部322は他の指数を算出してもよい。例えば、算出部322は、配信コンテンツが遠隔学習コンテンツである場合、ユーザUの集中度を算出してもよい。具体的には、通信部310は、ユーザ端末20から、ユーザUの指先の動かし方を示す情報をユーザUの動き情報として受信する。算出部322は、当該動き情報に基づいて、ユーザUの集中度を算出してもよい。この場合、双方向コミュニケーションの実施によって、教師である配信者Dが、ユーザUに集中を促すことが可能である。
 また、算出部322は、配信コンテンツが遠隔学習コンテンツまたは遠隔支援コンテンツである場合、ユーザUの進捗度を算出してもよい。具体的には、配信コンテンツが遠隔学習コンテンツである場合、通信部310は、ユーザ端末20から、生徒であるユーザUによって入力された問題の解答を受信する。算出部322は、ユーザUの問題正解率または問題進度状況に基づいて、進捗度を算出してもよい。この場合、双方向コミュニケーションの実施によって、教師である配信者Dが、ユーザUに適した講義を行うことが可能である。
 また、配信コンテンツが遠隔支援コンテンツである場合、通信部310は、ユーザ端末20から、作業者であるユーザUによって組み立てられた部品数を受信する。そして、算出部322は、ユーザUの部品組み立てノルマの達成状況に基づいて、進捗度を算出してもよい。この場合、双方向コミュニケーションの実施によって、工場リーダーまたは管理者である配信者Dが、ユーザUの作業改善を促すことが可能である。
 また、算出部322は、配信コンテンツがゴルフ、ボディビル、ヨガ、楽器演奏または歌唱等の遠隔トレーニング・レッスンである場合、ユーザUの動作スコアを算出してもよい。具体的には、通信部310は、ユーザ端末20から、生徒であるユーザUの動き情報を受信し、当該動き情報が示す動きと、教師である配信者Dが利用する配信者端末10によって送信された、正解の動きとの一致性に基づいて、ユーザUの動作スコアを算出する。この場合、双方向コミュニケーションの実施によって、教師である配信者Dが、ユーザUに動作の改善を促すことが可能である。
 <<6.ハードウェア構成>>
 以上、本開示による実施形態および変形例を説明した。次に、図13を参照して、本開示の実施形態に係る配信サーバ30のハードウェア構成例について説明する。
 上述した配信者端末10、ユーザ端末20、および配信サーバ30による処理は、1または複数の情報処理装置により実現され得る。図13は、本開示の実施形態に係る配信者端末10、ユーザ端末20、および配信サーバ30を実現する情報処理装置900のハードウェア構成例を示すブロック図である。なお、情報処理装置900は、必ずしも図13に示したハードウェア構成の全部を有している必要はない。また、配信者端末10、ユーザ端末20、または配信サーバ30の中に、図13に示したハードウェア構成の一部が存在しなくてもよい。
 図13に示すように、情報処理装置900は、CPU901、ROM(Read Only Memory)903、およびRAM905を含む。また、情報処理装置900は、ホストバス907、ブリッジ909、外部バス911、インターフェース913、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923、通信装置925を含んでもよい。情報処理装置900は、CPU901に代えて、またはこれとともに、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)またはASIC(Application Specific Integrated Circuit)と呼ばれるような処理回路を有してもよい。
 CPU901は、演算処理装置および制御装置として機能し、ROM903、RAM905、ストレージ装置919、またはリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置900内の動作全般またはその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM905は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータなどを一時的に記憶する。CPU901、ROM903、およびRAM905は、CPUバスなどの内部バスにより構成されるホストバス907により相互に接続されている。さらに、ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
 入力装置915は、例えば、ボタンなど、ユーザによって操作される装置である。入力装置915は、マウス、キーボード、タッチパネル、スイッチおよびレバーなどを含んでもよい。また、入力装置915は、ユーザの音声を検出するマイクロフォンを含んでもよい。入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話などの外部接続機器929であってもよい。入力装置915は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置915を操作することによって、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりする。
 また、入力装置915は、撮像装置、およびセンサを含んでもよい。撮像装置は、例えば、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子、および撮像素子への被写体像の結像を制御するためのレンズなどの各種の部材を用いて実空間を撮像し、撮像画像を生成する装置である。撮像装置は、静止画を撮像するものであってもよいし、また動画を撮像するものであってもよい。
 センサは、例えば、測距センサ、加速度センサ、ジャイロセンサ、地磁気センサ、振動センサ、光センサ、音センサなどの各種のセンサである。センサは、例えば情報処理装置900の筐体の姿勢など、情報処理装置900自体の状態に関する情報や、情報処理装置900の周辺の明るさや騒音など、情報処理装置900の周辺環境に関する情報を取得する。また、センサは、GPS(Global Positioning System)信号を受信して装置の緯度、経度および高度を測定するGPSセンサを含んでもよい。
 出力装置917は、取得した情報をユーザに対して視覚的または聴覚的に通知することが可能な装置で構成される。出力装置917は、例えば、LCD(Liquid Crystal Display)、有機EL(Electro-Luminescence)ディスプレイなどの表示装置、スピーカおよびヘッドホンなどの音出力装置などであり得る。また、出力装置917は、PDP(Plasma Display Panel)、プロジェクター、ホログラム、プリンタ装置などを含んでもよい。出力装置917は、情報処理装置900の処理により得られた結果を、テキストまたは画像などの映像として出力したり、音声または音響などの音として出力したりする。また、出力装置917は、周囲を明るくする照明装置などを含んでもよい。
 ストレージ装置919は、情報処理装置900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)などの磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、または光磁気記憶デバイスなどにより構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、および外部から取得した各種のデータなどを格納する。
 ドライブ921は、磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリなどのリムーバブル記録媒体927のためのリーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ921は、装着されているリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されているリムーバブル記録媒体927に記録を書き込む。
 接続ポート923は、機器を情報処理装置900に直接接続するためのポートである。接続ポート923は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポートなどであり得る。また、接続ポート923は、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポートなどであってもよい。接続ポート923に外部接続機器929を接続することで、情報処理装置900と外部接続機器929との間で各種のデータが交換され得る。
 通信装置925は、例えば、ネットワーク40に接続するための通信デバイスなどで構成された通信インターフェースである。通信装置925は、例えば、有線または無線LAN(Local Area Network)、Bluetooth(登録商標)、Wi-Fi(登録商標)、またはWUSB(Wireless USB)用の通信カードなどであり得る。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、または、各種通信用のモデムなどであってもよい。通信装置925は、例えば、インターネットや他の通信機器との間で、TCP/IPなどの所定のプロトコルを用いて信号などを送受信する。また、通信装置925に接続されるネットワーク40は、有線または無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信または衛星通信などである。
 <<7.補足>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 また、配信サーバ30に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した配信サーバ30の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、当該コンピュータプログラムを記憶させた非一時的な記憶媒体も提供される。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)
 配信者が提供する配信コンテンツを複数のユーザ端末に送信する通信部と、
 各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択するグループ選択部と、
 前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御する接続制御部と、
を備える、情報処理装置。
(2)
 同一のグループに属するユーザに対応するユーザオブジェクトが配置される仮想空間を生成する仮想空間生成部をさらに備え、
 前記通信部は、前記接続制御部による制御に基づき、前記第1のグループに属するユーザに対応するユーザオブジェクトの情報を前記配信者が利用する配信者端末に送信する、
 前記(1)に記載の情報処理装置。
(3)
 前記通信部は、前記仮想空間に配置される、前記配信者に対応する配信者オブジェクトの情報を含む前記配信コンテンツを、前記ユーザが利用するユーザ端末に送信する、前記(2)に記載の情報処理装置。
(4)
 前記ユーザオブジェクトの情報は、前記ユーザ端末に入力された動き情報に基づいて更新され、
 前記通信部は、更新された前記ユーザオブジェクトの情報を受信する、
 前記(1)または(3)に記載の情報処理装置。
(5)
 前記通信部は、前記接続制御部による制御に基づき、前記第1のグループに属するユーザから送信された映像情報、音声情報または文字情報を、前記配信者の利用する配信者端末に送信する、
 前記(1)~(4)のうちいずれか一項に記載の情報処理装置。
(6)
 前記グループ選択部は、前記グループ選択部によって前記第1のグループとして選択されていない複数のグループから、1または2以上のグループである第2のグループを選択し、
 前記接続制御部は、前記第2のグループに属するユーザ同士で行われるコミュニケーションが前記配信者に伝わるように接続を制御する、
 前記(2)~(5)のうちいずれか一項に記載の情報処理装置。
(7)
 前記グループ選択部は、所定の条件に基づき、新たに前記第1のグループを選択し直す、
 前記(1)~(6)のうちいずれか一項に記載の情報処理装置。
(8)
 前記所定の条件は、前記配信者によってグループが選択されたか否かであり、
 前記グループ選択部は、前記配信者によって選択されたグループを、新たな前記第1のグループとして選択する、
 前記(7)に記載の情報処理装置。
(9)
 前記情報処理装置は、同一の前記グループに属するユーザ同士で行われる前記コミュニケーションに基づき、複数の前記グループの各々の盛り上がり度または貢献度を算出する算出部をさらに備え、
 前記所定の条件は、前記算出部によって算出された盛り上がり度または貢献度に関する条件である、
 前記(7)に記載の情報処理装置。
(10)
 前記グループ選択部によって選択される前記第1のグループの数は、所定の数である、
前記(1)~(9)のうちいずれか一項に記載の情報処理装置。
(11)
 前記グループ選択部によって選択される前記第1のグループの数は、前記算出部による算出結果に基づいて決定される、
 前記(9)に記載の情報処理装置。
(12)
 前記仮想空間生成部は、前記グループ選択部によって前記第1のグループが選択されると、前記配信者オブジェクトおよび前記第1のグループに属するユーザに対応する前記ユーザオブジェクトが配置される、特定の仮想空間を生成する、
 前記(3)に記載の情報処理装置。
(13)
 前記仮想空間生成部は、前記グループ選択部によって選択された前記第1のグループに属するユーザに対応する前記ユーザオブジェクトの各々の仮想空間における配置場所を、前記配信者とのコミュニケーションについての体験価値が異なる複数の種類の場所から決定する、
 前記(3)または(12)に記載の情報処理装置。
(14)
 前記情報処理装置は、同一の前記グループに属するユーザ同士で行われる前記コミュニケーションの内容に基づき、同一の前記グループに属するユーザの各々の盛り上がり度または貢献度を算出する算出部をさらに備え、
 前記仮想空間生成部は、前記算出部によって算出された前記ユーザの各々の盛り上がり度または貢献度に基づいて前記配置場所を決定する、(13に記載の情報処理装置。
(15)
 前記接続制御部は、前記グループ選択部によって選択された前記第1のグループに属するユーザの各々についての前記配信者とのコミュニケーション方法を、前記配信者とのコミュニケーションについての体験価値が異なる複数の種類の方法から決定する、
 前記(1)~(14)のうちいずれか一項に記載の情報処理装置。
(16)
 前記通信部は、前記ユーザ端末から、当該ユーザ端末を用いるユーザが属する前記グループの情報を受信する、
 前記(1)~(15)のうちいずれか一項に記載の情報処理装置。
(17)
 配信者が提供する配信コンテンツを複数のユーザ端末に配信する配信することと、
 各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択することと、
 前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御することと、
を含む、コンピュータにより実行される情報処理方法。
(18)
 コンピュータを、
 配信者が提供する配信コンテンツを複数のユーザ端末に配信する配信部と、
 各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択するグループ選択部と、
 前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御する接続制御部と、
として機能させるためのプログラムが記録されている、コンピュータが読み取り可能な非一時的な記録媒体。
 10  配信者端末
 20  ユーザ端末
 30  配信サーバ
 40  ネットワーク
 110 通信部
 120 制御部
 130 入力部
 140 出力部
 150 操作部
 210 通信部
 220 制御部
 230 入力部
 240 出力部
 250 操作部
 310 通信部
 320 制御部
 321 グループ選択部
 322 算出部
 323 仮想空間生成部
 324 接続制御部
 900 情報処理装置

Claims (18)

  1.  配信者が提供する配信コンテンツを複数のユーザ端末に送信する通信部と、
     各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択するグループ選択部と、
     前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御する接続制御部と、
    を備える、情報処理装置。
  2.  前記情報処理装置は、
     同一のグループに属するユーザに対応するユーザオブジェクトが配置される仮想空間を生成する仮想空間生成部をさらに備え、
     前記通信部は、前記接続制御部による制御に基づき、前記第1のグループに属するユーザに対応するユーザオブジェクトの情報を前記配信者が利用する配信者端末に送信する、
    請求項1に記載の情報処理装置。
  3.  前記通信部は、前記仮想空間に配置される、前記配信者に対応する配信者オブジェクトの情報を含む前記配信コンテンツを、前記ユーザが利用するユーザ端末に送信する、請求項2に記載の情報処理装置。
  4.  前記ユーザオブジェクトの情報は、前記ユーザ端末に入力された動き情報に基づいて更新され、
     前記通信部は、更新された前記ユーザオブジェクトの情報を受信する、
    請求項2に記載の情報処理装置。
  5.  前記通信部は、前記接続制御部による制御に基づき、前記第1のグループに属するユーザから送信された映像情報、音声情報または文字情報を、前記配信者の利用する配信者端末に送信する、
    請求項1に記載の情報処理装置。
  6.  前記グループ選択部は、前記グループ選択部によって前記第1のグループとして選択されていない複数のグループから、1または2以上のグループである第2のグループを選択し、
     前記接続制御部は、前記第2のグループに属するユーザ同士で行われるコミュニケーションが前記配信者に伝わるように接続を制御する、
    請求項2に記載の情報処理装置。
  7.  前記グループ選択部は、所定の条件に基づき、新たに前記第1のグループを選択し直す、
    請求項1に記載の情報処理装置。
  8.  前記所定の条件は、前記配信者によってグループが選択されたか否かであり、
     前記グループ選択部は、前記配信者によって選択されたグループを、新たな前記第1のグループとして選択する、
    請求項7に記載の情報処理装置。
  9.  前記情報処理装置は、同一の前記グループに属するユーザ同士で行われる前記コミュニケーションに基づき、複数の前記グループの各々の盛り上がり度または貢献度を算出する算出部をさらに備え、
     前記所定の条件は、前記算出部によって算出された盛り上がり度または貢献度に関する条件である、
    請求項7に記載の情報処理装置。
  10.  前記グループ選択部によって選択される前記第1のグループの数は、所定の数である、
    請求項1に記載の情報処理装置。
  11.  前記グループ選択部によって選択される前記第1のグループの数は、前記算出部による算出結果に基づいて決定される、
    請求項9に記載の情報処理装置。
  12.  前記仮想空間生成部は、前記グループ選択部によって前記第1のグループが選択されると、前記配信者オブジェクトおよび前記第1のグループに属するユーザに対応する前記ユーザオブジェクトが配置される、特定の仮想空間を生成する、
    請求項3に記載の情報処理装置。
  13.  前記仮想空間生成部は、前記グループ選択部によって選択された前記第1のグループに属するユーザに対応する前記ユーザオブジェクトの各々の仮想空間における配置場所を、前記配信者とのコミュニケーションについての体験価値が異なる複数の種類の場所から決定する、
    請求項3に記載の情報処理装置。
  14.  前記情報処理装置は、同一の前記グループに属するユーザ同士で行われる前記コミュニケーションの内容に基づき、同一の前記グループに属するユーザの各々の盛り上がり度または貢献度を算出する算出部をさらに備え、
     前記仮想空間生成部は、前記算出部によって算出された前記ユーザの各々の盛り上がり度または貢献度に基づいて前記配置場所を決定する、
    請求項13に記載の情報処理装置。
  15.  前記接続制御部は、前記グループ選択部によって選択された前記第1のグループに属するユーザの各々についての前記配信者とのコミュニケーション方法を、前記配信者とのコミュニケーションについての体験価値が異なる複数の種類の方法から決定する、
    請求項1に記載の情報処理装置。
  16.  前記通信部は、前記ユーザ端末から、当該ユーザ端末を用いるユーザが属する前記グループの情報を受信する、
    請求項1に記載の情報処理装置。
  17.  配信者が提供する配信コンテンツを複数のユーザ端末に配信する配信することと、
     各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択することと、
     前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御することと、
    を含む、コンピュータにより実行される情報処理方法。
  18.  コンピュータを、
     配信者が提供する配信コンテンツを複数のユーザ端末に配信する配信部と、
     各々に2以上のユーザが属する複数のグループから、1または2以上のグループである第1のグループを選択するグループ選択部と、
     前記第1のグループに属するユーザと前記配信者が、双方向でコミュニケーション可能になるよう接続を制御する接続制御部と、
    として機能させるためのプログラムが記録されている、コンピュータが読み取り可能な非一時的な記録媒体。
PCT/JP2023/015342 2022-06-03 2023-04-17 情報処理装置、情報処理方法及び記録媒体 WO2023233849A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-090823 2022-06-03
JP2022090823 2022-06-03

Publications (1)

Publication Number Publication Date
WO2023233849A1 true WO2023233849A1 (ja) 2023-12-07

Family

ID=89026216

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/015342 WO2023233849A1 (ja) 2022-06-03 2023-04-17 情報処理装置、情報処理方法及び記録媒体

Country Status (1)

Country Link
WO (1) WO2023233849A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015166573A1 (ja) * 2014-05-01 2015-11-05 貴弘 市橋 ライブ放送システム
JP2020166575A (ja) * 2019-03-29 2020-10-08 株式会社ドワンゴ 配信サーバ、視聴者端末、配信者端末、配信方法、情報処理方法及びプログラム
JP2021071963A (ja) * 2019-10-31 2021-05-06 Line株式会社 情報処理方法、プログラムおよび情報処理装置
WO2021246183A1 (ja) * 2020-06-03 2021-12-09 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7071718B1 (ja) * 2021-12-27 2022-05-19 17Live株式会社 サーバ及び方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015166573A1 (ja) * 2014-05-01 2015-11-05 貴弘 市橋 ライブ放送システム
JP2020166575A (ja) * 2019-03-29 2020-10-08 株式会社ドワンゴ 配信サーバ、視聴者端末、配信者端末、配信方法、情報処理方法及びプログラム
JP2021071963A (ja) * 2019-10-31 2021-05-06 Line株式会社 情報処理方法、プログラムおよび情報処理装置
WO2021246183A1 (ja) * 2020-06-03 2021-12-09 ソニーグループ株式会社 情報処理装置、情報処理方法、及び、プログラム
JP7071718B1 (ja) * 2021-12-27 2022-05-19 17Live株式会社 サーバ及び方法

Similar Documents

Publication Publication Date Title
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
JP6700463B2 (ja) ヘッドマウントディスプレイ上の視覚的作用を制限するためのフィルタリング及びペアレンタルコントロール法
CN112104594B (zh) 沉浸式交互式远程参与现场娱乐
CN109069934B (zh) 对虚拟现实环境(vr)中的vr用户的观众视图跟踪
CN109069933B (zh) 在vr环境中的观众视角
US10092838B2 (en) Electronic apparatus for controlling a multi-field-of-view display apparatus, electronic system and control method
WO2020090786A1 (ja) 仮想空間中のアバター表示システム、仮想空間中のアバター表示方法、コンピュータプログラム
CN115068932A (zh) 虚拟现实环境中的视图位置处的观众管理
WO2021106803A1 (ja) 授業システム、視聴端末、情報処理方法及びプログラム
CN109478342B (zh) 图像显示装置及图像显示系统
Steptoe et al. Acting rehearsal in collaborative multimodal mixed reality environments
JP7408506B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
US20230368464A1 (en) Information processing system, information processing method, and information processing program
US20200288202A1 (en) Video display system, information processing apparatus, and video display method
WO2023233849A1 (ja) 情報処理装置、情報処理方法及び記録媒体
JP7465737B2 (ja) 授業システム、視聴端末、情報処理方法及びプログラム
US10868889B2 (en) System for providing game play video by using cloud computer
EP4306192A1 (en) Information processing device, information processing terminal, information processing method, and program
KR20200127658A (ko) 방송 효과 제공 장치 및 방법
JP7011746B1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
US20240114181A1 (en) Information processing device, information processing method, and program
JP2022173870A (ja) 鑑賞システム、鑑賞装置及びプログラム
KR20220124961A (ko) 스테레오스코픽 영상과 파노라마 영상의 스위칭을 이용한 클라우드 게임 제공 방법 및 장치
KR20240079661A (ko) 원격코딩 및 원격제어를 이용한 온/오프라인 융합형 게임 서비스 제공방법
JP2022103753A (ja) コンテンツ配信システム、サーバシステム及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23815610

Country of ref document: EP

Kind code of ref document: A1