WO2021065928A1 - コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム - Google Patents

コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム Download PDF

Info

Publication number
WO2021065928A1
WO2021065928A1 PCT/JP2020/036969 JP2020036969W WO2021065928A1 WO 2021065928 A1 WO2021065928 A1 WO 2021065928A1 JP 2020036969 W JP2020036969 W JP 2020036969W WO 2021065928 A1 WO2021065928 A1 WO 2021065928A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
specific
content
avatar
virtual space
Prior art date
Application number
PCT/JP2020/036969
Other languages
English (en)
French (fr)
Inventor
進之介 岩城
Original Assignee
株式会社バーチャルキャスト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社バーチャルキャスト filed Critical 株式会社バーチャルキャスト
Priority to CN202080060677.8A priority Critical patent/CN115176239A/zh
Publication of WO2021065928A1 publication Critical patent/WO2021065928A1/ja
Priority to US17/668,293 priority patent/US20220270302A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation

Definitions

  • One aspect of this disclosure relates to content distribution systems, content distribution methods, and content distribution programs.
  • a mechanism for switching whether or not to share a virtual space (virtual reality space) with other users is known according to the user's request.
  • a virtual space virtual reality space
  • Patent Document 1 an information processing device that alternately switches between a shared mode in which a virtual space is shared with other users and a non-shared mode in which the virtual space is not shared with other users by clicking a switching button.
  • one aspect of the present disclosure provides a content distribution system, a content distribution method, and a content distribution program that can appropriately hide the operation of a user's avatar in a virtual space from other users depending on the situation.
  • the purpose is.
  • the content distribution system is a content distribution system that distributes content expressing a virtual space to a plurality of user terminals, and includes at least one processor. At least one processor is a predetermined specific action of the avatar corresponding to the first user placed in the virtual space, and the specific action to be hidden is performed for the second user different from the first user. A specific situation is detected, and when the specific situation is detected, a content image expressing the virtual space in a manner in which the specific operation cannot be visually recognized is displayed on the user terminal of the second user.
  • a content distribution system capable of appropriately hiding the operation of a user's avatar in a virtual space from other users depending on the situation are provided. be able to.
  • the content distribution system is a computer system that distributes content to a plurality of users.
  • Content is information provided by a computer or computer system that is human recognizable.
  • Electronic data that indicates content is called content data.
  • the expression format of the content is not limited.
  • Content may be represented, for example, by images (eg, photographs, videos, etc.), documents, sounds, music, or a combination of any two or more elements thereof.
  • Content can be used for various aspects of information transmission or communication.
  • the content may be used in various situations or purposes such as entertainment, news, education, medical care, games, chat, commerce, lectures, seminars, training and the like.
  • Distribution is a process of transmitting information to a user via a communication network or a broadcasting network.
  • the content distribution system provides content to the user by transmitting the content data to the user terminal.
  • content expressing the same virtual space is provided to each of the user terminals of a plurality of users. This makes it possible for a plurality of users to share a common virtual space.
  • the content is represented by using at least an image representing a virtual space. That is, the content data includes at least a content image indicating the content.
  • a content image is an image in which a person can visually recognize some information.
  • the content image may be a moving image (video) or a still image.
  • the content image represents a virtual space in which a virtual object exists.
  • a virtual object is an object that does not exist in the real world and is represented only on a computer system.
  • Virtual objects are represented by two-dimensional or three-dimensional computer graphics (CG) using image material independent of the live-action image.
  • the representation method of virtual objects is not limited.
  • the virtual object may be represented by using an animation material, or may be represented as if it were real based on a live-action image.
  • the virtual space is a virtual two-dimensional or three-dimensional space represented by an image displayed on a computer.
  • the content image is, for example, an image showing a landscape seen from a virtual camera set in the virtual space.
  • the virtual camera is set in the virtual space so as to correspond to the line of sight of the user who sees the content image.
  • the content image or virtual space may further include a real object that is an object that actually exists in the real world.
  • An example of a virtual object is an avatar, which is the user's alter ego.
  • the avatar is represented by two-dimensional or three-dimensional computer graphics (CG) using an image material independent of the original image, not the photographed person itself.
  • the expression method of the avatar is not limited.
  • the avatar may be represented using an animation material, or may be represented as close to the real thing based on a live-action image.
  • the position and orientation of the virtual camera described above may match the viewpoint and line of sight of the avatar. In this case, a first-person view content image is provided to the user.
  • the position and orientation of the virtual camera do not have to match the viewpoint and line of sight of the avatar.
  • the virtual camera may be placed in the space behind the avatar. In this case, the content image from the third person perspective is provided to the user.
  • the user can experience augmented reality (AR: Augmented Reality), virtual reality (VR: Virtual Reality), or mixed reality (MR: Mixed Reality) by viewing the content image.
  • AR Augmented Reality
  • VR Virtual Reality
  • MR
  • the expression "transmitting data or information from the first computer to the second computer” means transmission for finally delivering the data or information to the second computer. That is, the above expression includes the case where another computer or communication device relays data or information in the transmission.
  • the content provides the user with an experience similar to reality in a virtual facility provided in a virtual space shared by a plurality of users.
  • the content may provide the user with an experience of shopping at a shopping facility provided in the virtual space, or provide the user with a game experience in the virtual space (for example, a so-called VR escape game). It may be provided.
  • FIG. 1 is a diagram showing an example of application of the content distribution system 1 according to the embodiment.
  • the content distribution system 1 includes a server 10, a plurality of user terminals 20 and 30, and a content database DB.
  • the server 10 is a computer that distributes content data to user terminals 20 and 30.
  • the server 10 is connected to the user terminals 20 and 30 and the content database DB via the communication network N.
  • the configuration of the communication network N is not limited.
  • the communication network N may be configured to include the Internet or may be configured to include an intranet.
  • User terminals 20 and 30 are computers used by users who use the content.
  • the user terminals 20 and 30 have a function of capturing a video, a function of accessing the content distribution system 1 and transmitting electronic data (video data) indicating the video, and content data from the content distribution system 1.
  • Video data indicating the video
  • Content data from the content distribution system 1.
  • the types and configurations of the user terminals 20 and 30 are not limited.
  • the user terminals 20 and 30 may be mobile terminals such as high-performance mobile phones (smartphones), tablet terminals, wearable terminals (for example, head-mounted displays (HMDs), smart glasses, etc.), laptop-type personal computers, and mobile phones.
  • the user terminals 20 and 30 may be stationary terminals such as a desktop personal computer.
  • the user terminal 20 is a user terminal (that is, a user terminal used by the first user) of one user (first user) of interest among a plurality of users, and the user terminal 30 is a first user. It is a user terminal (that is, a user terminal used by the second user) of a user (second user) different from the one user.
  • FIG. 1 illustrates two user terminals 30, the number of user terminals 30 (that is, the number of second users) is not particularly limited.
  • the user terminal 20 and the user terminal 30 have the same hardware configuration and functional configuration. That is, each user terminal functions as a user terminal 20 described later in a certain scene, and functions as a user terminal 30 described later in another scene.
  • the user can use the content by, for example, operating the user terminals 20 and 30 to log in to the content distribution system 1.
  • the user can perform various experiences in the virtual space represented by the content through his / her avatar.
  • the content database DB is a non-temporary storage medium or storage device that stores the generated content data. It can be said that the content database DB is a library of existing contents.
  • the content data is stored in the content database DB by an arbitrary computer such as a server 10, user terminals 20, 30, or another computer.
  • the content data is stored in the content database DB after being associated with the content ID that uniquely identifies the content.
  • the content data is configured to include virtual space data, model data, and scenarios.
  • Virtual space data is electronic data indicating the virtual space that constitutes the content.
  • the virtual space data may include information indicating the arrangement of individual virtual objects constituting the background, the position of the virtual camera, the position of the virtual light source, and the like.
  • Model data is electronic data used to specify the specifications of the virtual objects that make up the content.
  • a virtual object specification is an arrangement or method for controlling a virtual object.
  • a virtual object specification includes at least one of the virtual object's configuration (eg, shape and dimensions), behavior, and audio.
  • the data structure of the avatar model data is not limited and may be arbitrarily designed.
  • the model data may include information about a plurality of joints and a plurality of bones constituting the avatar, graphic data indicating the appearance design of the avatar, attributes of the avatar, and an avatar ID which is an identifier of the avatar. Examples of information about joints and bones include the three-dimensional coordinates of individual joints and the combination of adjacent joints (ie, bones).
  • the structure of the information is not limited to these, and may be arbitrarily designed.
  • the avatar's attributes are arbitrary information set to characterize the avatar and may include, for example, nominal dimensions, voice quality, personality, and the like.
  • a scenario is electronic data that defines the operation of an individual virtual object, virtual camera, or virtual light source over time in virtual space. It can be said that the scenario is information for determining the story of the content.
  • the movement of the virtual object is not limited to the movement that can be visually recognized, and may include the generation of a sound that is recognized by hearing.
  • Content data may include information about real objects.
  • the content data may include a live-action image in which a real object is projected. If the content data contains a reality object, the scenario may further specify when and where the reality object is projected.
  • the location of the content database DB is not limited.
  • the content database DB may be provided in a computer system different from the content distribution system 1, or may be a component of the content distribution system 1.
  • FIG. 2 is a diagram showing an example of a hardware configuration related to the content distribution system 1.
  • FIG. 2 shows a server computer 100 that functions as a server 10 and a terminal computer 200 that functions as a user terminal 20 or a user terminal 30.
  • the server computer 100 includes a processor 101, a main storage unit 102, an auxiliary storage unit 103, and a communication unit 104 as hardware components.
  • the processor 101 is an arithmetic unit that executes an operating system and an application program. Examples of processors include CPUs (Central Processing Units) and GPUs (Graphics Processing Units), but the types of processors 101 are not limited to these.
  • the processor 101 may be a combination of a sensor and a dedicated circuit.
  • the dedicated circuit may be a programmable circuit such as FPGA (Field-Programmable Gate Array), or may be another type of circuit.
  • the main storage unit 102 is a device that stores a program for realizing the server 10, a calculation result output from the processor 101, and the like.
  • the main storage unit 102 is composed of, for example, a ROM (Read Only Memory) or a RAM (Random Access Memory).
  • the auxiliary storage unit 103 is a device capable of storing a larger amount of data than the main storage unit 102 in general.
  • the auxiliary storage unit 103 is composed of a non-volatile storage medium such as a hard disk or a flash memory.
  • the auxiliary storage unit 103 stores the server program P1 for making the server computer 100 function as the server 10 and various data.
  • the auxiliary storage unit 103 may store data relating to at least one of a virtual object such as an avatar and a virtual space.
  • the content distribution program is implemented as the server program P1.
  • the communication unit 104 is a device that executes data communication with another computer via the communication network N.
  • the communication unit 104 is composed of, for example, a network card or a wireless communication module.
  • Each functional element of the server 10 is realized by having the processor 101 or the main storage unit 102 read the server program P1 and causing the processor 101 to execute the server program P1.
  • the server program P1 includes a code for realizing each functional element of the server 10.
  • the processor 101 operates the communication unit 104 according to the server program P1 and executes reading and writing of data in the main storage unit 102 or the auxiliary storage unit 103. By such processing, each functional element of the server 10 is realized.
  • the server 10 may be composed of one or more computers. When a plurality of computers are used, one server 10 is logically configured by connecting the plurality of computers to each other via a communication network.
  • the terminal computer 200 includes a processor 201, a main storage unit 202, an auxiliary storage unit 203, a communication unit 204, an input interface 205, an output interface 206, and an imaging unit 207 as hardware components.
  • the processor 201 is an arithmetic unit that executes an operating system and an application program.
  • the processor 201 can be, for example, a CPU or a GPU, but the type of processor 201 is not limited thereto.
  • the main storage unit 202 is a device that stores a program for realizing the user terminals 20 and 30, a calculation result output from the processor 201, and the like.
  • the main storage unit 202 is composed of, for example, a ROM, a RAM, or the like.
  • the auxiliary storage unit 203 is generally a device capable of storing a larger amount of data than the main storage unit 202.
  • the auxiliary storage unit 203 is composed of a non-volatile storage medium such as a hard disk or a flash memory.
  • the auxiliary storage unit 203 stores the client program P2 for making the terminal computer 200 function as the user terminals 20 and 30, and various data.
  • the auxiliary storage unit 203 may store data relating to at least one of a virtual object such as an avatar and a virtual space.
  • the communication unit 204 is a device that executes data communication with another computer via the communication network N.
  • the communication unit 204 is composed of, for example, a network card or a wireless communication module.
  • the input interface 205 is a device that receives data based on a user's operation or operation.
  • the input interface 205 is composed of at least one of a controller, a keyboard, operation buttons, a pointing device, a microphone, a sensor, and a camera.
  • the keyboard and operation buttons may be displayed on the touch panel.
  • the data input to the input interface 205 is also not limited.
  • the input interface 205 may accept data input or selected by a keyboard, operating buttons, or pointing device.
  • the input interface 205 may accept voice data input by the microphone.
  • the input interface 205 may accept image data (eg, video data or still image data) captured by the camera.
  • the input interface 205 may accept data indicating the user's non-verbal activity (for example, line of sight, gesture, facial expression, etc.) detected by the motion capture function using a sensor or a camera as motion data.
  • the output interface 206 is a device that outputs data processed by the terminal computer 200.
  • the output interface 206 is composed of at least one of a monitor, a touch panel, an HMD, and a speaker.
  • Display devices such as monitors, touch panels, and HMDs display the processed data on the screen.
  • the speaker outputs the voice indicated by the processed voice data.
  • the imaging unit 207 is a device that captures an image of the real world, and is specifically a camera.
  • the imaging unit 207 may capture a moving image (video) or a still image (photograph).
  • the imaging unit 207 acquires a series of frame images arranged in time series as a moving image by processing the video signal based on a given frame rate.
  • the imaging unit 207 can also function as an input interface 205.
  • Each functional element of the user terminals 20 and 30 is realized by having the processor 201 or the main storage unit 202 read the client program P2 and execute the client program P2.
  • the client program P2 includes a code for realizing each functional element of the user terminals 20 and 30.
  • the processor 201 operates the communication unit 204, the input interface 205, the output interface 206, or the imaging unit 207 according to the client program P2, and reads and writes data in the main storage unit 202 or the auxiliary storage unit 203. By this process, each functional element of the user terminals 20 and 30 is realized.
  • At least one of the server program P1 and the client program P2 may be provided after being fixedly recorded on a tangible recording medium such as a CD-ROM, a DVD-ROM, or a semiconductor memory.
  • a tangible recording medium such as a CD-ROM, a DVD-ROM, or a semiconductor memory.
  • at least one of these programs may be provided via a communication network as a data signal superimposed on a carrier wave. These programs may be provided separately or together.
  • FIG. 3 is a diagram showing an example of a functional configuration related to the content distribution system 1.
  • the server 10 includes a receiving unit 11, a detecting unit 12, a generating unit, and a transmitting unit 14 as functional elements.
  • the receiving unit 11 receives the data signal transmitted from the user terminal 20.
  • the data signal may include at least one of operation information and operation information.
  • the operation information is information that defines the operation of the avatar (hereinafter, simply referred to as "avatar") corresponding to the first user arranged in the virtual space.
  • the operation information is information for instructing the execution of an event other than the operation of the avatar (for example, activation of the setting screen).
  • the detection unit 12 detects a specific situation in which the specific operation of the avatar is performed based on the data signal received from the user terminal 20.
  • the specific operation is a predetermined operation as an operation to be hidden from the second user.
  • the specific operation is an operation in which the first user inputs information (for example, a personal identification number such as a PIN (Personal Identification Number) code) that is not known to other users (second users) in the virtual space. (For example, the operation of pressing the operation button of the virtual input device arranged in the virtual space with the finger of the avatar, etc.).
  • the specific situation may include not only the situation in which the specific action is actually being performed as described above, but also the situation in which the specific action is about to be performed (that is, the situation immediately before the specific action is performed).
  • the generation unit 13 generates content data to be distributed to each user (that is, each user terminal 20, 30) according to the detection result of the detection unit 12.
  • the content data includes content image data related to the content image to be displayed on the display devices of the user terminals 20 and 30.
  • the content data may include data other than images (for example, audio).
  • the transmission unit 14 transmits the content data generated by the generation unit 13 to the user terminals 20 and 30.
  • the user terminal 20 includes an acquisition unit 21, a transmission unit 22, a reception unit 23, and a display control unit 24 as functional elements.
  • the acquisition unit 21 acquires the operation information or the operation information received by the input interface 205 of the user terminal 20.
  • the motion information is, for example, the motion data described above.
  • the action of the first user in the real space is reflected in the action of the avatar in the virtual space.
  • the operation information may be information indicating the content of a predetermined input operation of the user with respect to the controller.
  • the action according to the content of the input operation is reflected as the action of the avatar, and the action of the first user in the real space is not directly reflected in the action of the avatar.
  • the operation information that defines the operation of the avatar may or may not reflect the actual operation of the first user. Examples of the operation information include information indicating an operation for causing a virtual object (non-shared object described later) for inputting a personal identification number such as the PIN code described above to appear in the virtual space.
  • the transmission unit 22 transmits the operation information or operation information acquired by the acquisition unit 21 to the server 10.
  • the receiving unit 23 receives the content data including the content image data from the server 10.
  • the display control unit 24 is a functional element that displays the content on the display device of the user terminal 20 based on the content data received by the reception unit 23.
  • the user terminal 30 has the same functional elements as the user terminal 20.
  • attention is paid to the process of displaying the content expressing the virtual space including the avatar of the first user on the user terminal 30 of the second user. Therefore, in FIG. 3, the process is executed. Only the receiving unit 23 and the display control unit 24 are shown.
  • FIG. 4 is a sequence diagram showing an example of the operation of the content distribution system 1.
  • the acquisition unit 21 of the user terminal 20 of the first user acquires the input information by the first user. Specifically, the acquisition unit 21 acquires the above-mentioned operation information or operation information (step S1). Subsequently, the transmission unit 22 of the user terminal 20 transmits the operation information or operation information acquired by the acquisition unit 21 to the server 10 (step S2). The operation information or operation information is received by the receiving unit 11 of the server 10.
  • the generation unit 13 of the server 10 generates the first content data based on the operation information or the operation information acquired by the reception unit 11 (step S3).
  • the first content data includes the first content image data.
  • the generating unit 13 generates the first content image data representing the virtual space including the avatar to be operated based on the operation information.
  • the generation unit 13 generates the first content image data representing the changed virtual space based on the operation information.
  • the action of the avatar acts on a virtual object arranged in the virtual space (for example, when a part of the avatar comes into contact with another virtual object)
  • the generation unit 13 generates a virtual object generated by the action.
  • Behavior in space eg, movement or transformation of an avatar or other virtual object, etc.
  • the first content image data may include information on a virtual space in which the behavior obtained by the calculation is reflected (that is, a state of each virtual object in which movement, deformation, or the like is reflected).
  • the first content image data relates to a content image that expresses a virtual space in a manner in which the state of the avatar reflecting the motion information of the first user (that is, the motion of the avatar corresponding to the motion information of the first user) can be visually recognized. It is data.
  • the first content image data may be the content image itself or may be data for generating the content image. In the former case, the first content image data is the content image itself (that is, the data after rendering) generated by performing rendering based on the information about the state of each virtual object (including the avatar) in the virtual space. .. In the latter case, the first content image data is the data (that is, the data before rendering) that is the basis for generating the content image by executing the rendering.
  • FIG. 5 is a diagram showing an example of a virtual space related to the first content image.
  • FIG. 5 illustrates a scene in which the first user makes a shopping (payment) via the avatar A corresponding to the first user in the virtual space V.
  • the avatar A operates a virtual object 40 that imitates a device for inputting a personal identification code (PIN code as an example) in order to perform shopping (payment) in the virtual space V.
  • PIN code personal identification code
  • the first content image is an image expressing the virtual space V in which the operation of the avatar A is reflected. That is, when the hand A1 of the avatar A is included in the shooting range according to the position and orientation of the virtual camera, the movement of the hand A1 of the avatar A can be visually recognized in the first content image.
  • the server 10 performs the following processing.
  • the server 10 transmits the first content data to the user terminal 20 of the first user.
  • the transmission unit 14 transmits the first content data to the user terminal 20 (step S4).
  • the first content data is received by the receiving unit 23 of the user terminal 20.
  • the display control unit 24 of the user terminal 20 displays the content image on the display device by processing the first content image data included in the first content data (step S5).
  • the display control unit 24 may display the content image as it is.
  • the display control unit 24 may generate and display the content image by executing the rendering based on the first content image data.
  • the avatar A is specified from the viewpoint of security. It is not preferable that the content image reflecting the operation is provided to the second user. Therefore, first, the detection unit 12 of the server 10 detects a specific situation in which the specific operation of the avatar A is performed (step S6). Information that defines a specific operation or a specific situation is stored in advance in a location that can be referred to by the server 10 (for example, a content database DB, an auxiliary storage unit 103, etc.).
  • the generation unit 13 includes the second content including the second content image data relating to the content image expressing the virtual space V in a manner in which the specific operation cannot be visually recognized. Generate data (step S7). Then, the transmission unit 14 transmits the second content data to the user terminal 30 of the second user (step S8). The second content data is received by the receiving unit 23 of the user terminal 30. Then, the display control unit 24 of the user terminal 30 displays the content image on the display device by processing the second content image data included in the second content data (step S10). When rendering is executed on the server 10 (that is, when the second content image data is the content image itself), the display control unit 24 may display the content image as it is.
  • the display control unit 24 may generate and display the content image by executing the rendering based on the second content image data.
  • the display control unit 24 may generate and display the content image by executing the rendering based on the second content image data.
  • the generation unit 13 is the content data for the second user (that is, the data related to the content image in which the specific operation is concealed). Does not need to be generated. Therefore, in this case, the second content data generation process (step S7) by the generation unit 13 is omitted, and the first content data is transmitted to the user terminal 30 of the second user by the transmission unit 14 (step S9). In this case, in step S10, the content image corresponding to the first content image data is displayed on the display device.
  • the specific operation is predetermined as an operation (operation) for a predetermined specific virtual object (hereinafter, referred to as "specific object").
  • the specific object is a virtual object that is the target of a specific action by the avatar.
  • the detection unit 12 can detect a situation in which the specific operation of the avatar A for the virtual object 40 (here, the input operation for the input button 41) is performed as the specific situation.
  • the avatar is arranged within a predetermined distance range from the specific object based on the position of the specific object arranged in the virtual space V and the position of the avatar A in the virtual space V.
  • the state may be detected, and a specific situation may be detected according to the detection of the state.
  • the detection unit 12 has, for example, the position of the virtual object 40 (for example, the position coordinates of the input button 41 in the virtual space V) and the position of the avatar A (for example, the hand of the avatar A in the virtual space V).
  • the distance d1 from the position coordinates of A1) is calculated.
  • the detection unit 12 compares the distance d1 with the preset threshold value Th, and can detect a specific situation when the distance d1 is equal to or less than the threshold value Th (or the distance d1 is less than the threshold value Th). ..
  • the threshold value Th is set to a value that is large to some extent, the specific situation can be detected at a time point before the time point when the specific operation of the avatar A is actually started.
  • the specific operation is predetermined as an operation (operation) for a virtual object (hereinafter, referred to as "non-shared object") that can be seen only by the first user.
  • the server 10 creates a non-shared object in the virtual space in response to receiving operation information regarding a predetermined operation (for example, a predetermined operation for the controller (input interface 205) of the user terminal 20) by the first user. It may be generated inside.
  • the non-shared object is an object that can be seen only by the first user, and is a virtual object that is controlled so as not to be displayed in the content image delivered to the second user.
  • the non-shared object is a virtual object that accepts only operations via the avatar of the first user.
  • the detection unit 12 may detect a specific situation in response to the occurrence of the virtual object 40, which is a non-shared object, in the virtual space V. Also in this case, the specific situation can be detected at a time before the time when the specific operation of the avatar A is actually started.
  • a template that defines a specific operation is stored in advance in a place that can be referred to by the server 10 (for example, a content database DB, an auxiliary storage unit 103, or the like).
  • the template there is information indicating a pattern that characterizes the movement of the hand A1 of the avatar A when performing the operation of inputting the password code.
  • the template corresponding to such an operation is information indicating the operation pattern of the hand A1 when continuously executing the operation of pointing to a plurality of different places with the fingertips of the hand A1 of the avatar A.
  • the template may be any as long as it can calculate the degree of similarity with the actual operation of the avatar A (that is, the operation information received from the user terminal 20 in step S2), and the data format of the template is not limited to a specific format.
  • the detection unit 12 detects the operation information (hereinafter, referred to as “specific operation information”) that defines the specific operation by comparing the operation information acquired in step S2 with the template. Then, the detection unit 12 detects a specific situation according to the detection of the specific operation information.
  • the detection unit 12 calculates the similarity of the operation information and the template acquired in step S2 by a predetermined calculation process. Then, the detection unit 12 determines whether or not the operation information acquired in step S2 corresponds to the specific operation information by comparing the similarity with the preset threshold value. Specifically, the detection unit 12 may determine that the operation information acquired in step S2 corresponds to the specific operation information when the similarity is equal to or greater than the threshold value (or larger than the threshold value). Then, when the specific operation information (that is, the operation information acquired in step S2) is detected in this way, the detection unit 12 can detect the specific situation.
  • the generation unit 13 In the first generation process, the generation unit 13 generates the second content image data that does not include the specific operation information among the operation information that defines the operation of the avatar A in the virtual space V.
  • the second content image data is information that does not include the specific operation information acquired in step S2.
  • the generation unit 13 may generate the second content image data that does not include the specific operation information by including the information obtained by excluding the specific operation information from the operation information acquired in step S2 in the second content image data. it can.
  • the second content image data is the data after rendering (that is, the content image itself)
  • the second content image data is generated based on the information obtained by excluding the specific operation information from the operation information acquired in step S2.
  • the generation unit 13 determines the operation of the avatar A based on the information obtained by excluding the specific operation information from the operation information acquired in step S2, and generates a content image reflecting the operation of the avatar A. , It is possible to generate the second content image data after rendering that does not include the specific operation information.
  • the specific operation information is not transmitted from the server 10 to the user terminal 30.
  • the second content image in which the specific operation of the avatar A is not visible (that is, the specific operation of the avatar A is not expressed) is displayed on the display device of the user terminal 30.
  • the second content image data itself transmitted to the user terminal 30 does not include the specific operation information, the second user grasps the specific operation of the avatar A even if the second content image data is analyzed. It is not possible. That is, not only the specific operation of the avatar A cannot be visually recognized in the second content image displayed on the display device of the user terminal 30, but also the specific operation of the avatar A can be grasped even if the analysis of the second content image data is executed. Can not do it. Therefore, according to the second content image data generated in the first generation process, the confidentiality (security) of the specific operation is effectively ensured.
  • the generation unit 13 is based on the information obtained by excluding all the operation information from the time when the specific situation is detected to the time when the specific situation is not detected from the operation information acquired in step S2, and the second content image. Data may be generated. For example, when the first detection process described above is executed, the generation unit 13 performs an operation from the detection of the specific situation to the actual execution of the specific operation (for example, a virtual object for pressing the input button 41).
  • the second content image data may be generated after excluding the operation information related to the preliminary operation (preliminary operation approaching 40). In this case, not only the specific action of the avatar but also the preliminary action for executing the specific action can be hidden from the second user. As a result, the confidentiality of the specific operation can be further enhanced.
  • FIG. 6 is a diagram for explaining a second content image related to the second content image data generated in the first generation process.
  • the detection unit 12 detects that the hand A1 of the avatar A is within the threshold distance range of the input button 41 of the virtual object 40 by the first detection process. Is detected.
  • the generation unit 13 does not use the operation information regarding the operation of the avatar A after the specific situation is detected (that is, the operation of approaching the virtual object 40 and pressing the input button 41 with the hand A1), and the second content Generate image data.
  • the second content image data representing the virtual space V (see FIG. 6) in which the specific operation of the avatar A and the above-mentioned preliminary operation cannot be visually recognized is generated.
  • the operation of the avatar A after the time when the specific situation is detected is not expressed.
  • the second content image (here, when a specific situation is detected) that is out of sync with the first content image (an image that reflects the actual operation of avatar A) provided to the first user.
  • the image in which the avatar A is stopped) is provided to the second user.
  • the virtual object 40 is the non-shared object described above, the virtual object 40 is not displayed in the second content image.
  • the detection unit 12 executes the second detection process
  • the generation unit 13 uses the operation information of the avatar from the occurrence of the non-shared object in the virtual space to the disappearance from the virtual space. Instead, the second content image data may be generated. Also in this case, as shown in FIG. 6, an image in which the avatar is stopped at a certain point in time (here, when a non-shared object occurs in the virtual space) is provided to the second user.
  • the generation unit 13 may execute the following second generation process.
  • the generation unit 13 In the second generation process, the generation unit 13 generates the second content image data regarding the content image in which the object that obscures the specific operation is arranged.
  • the object is an object that at least covers a part related to a specific action of the avatar.
  • a mosaic object is superimposed and displayed on the content image expressing the operation of the avatar A based on the operation information (including the specific operation information) acquired in step S2. Obtained by letting.
  • the server 10 may display a second content image in which an object that obscures the specific operation is arranged on the user terminal 30 of the second user. It will be possible.
  • FIG. 7 is a diagram for explaining a second content image related to the second content image data generated in the second generation process.
  • a substantially circular mosaic object M is superimposed and displayed so as to cover the portion of the avatar A related to the specific operation (here, the area including the hand A1).
  • the mosaic object M provides the second user with a portion related to the specific operation of the avatar A. Can be hidden.
  • the generation unit 13 may execute the following third generation process that combines the advantages of the first generation process and the second generation process described above.
  • the generation unit 13 In the third generation process, the generation unit 13 generates the second content image data relating to the content image in which the avatar performing the dummy operation is expressed instead of the specific operation.
  • the second content data does not include specific operation information like the second content data generated in the first generation process.
  • the second content data includes dummy operation information indicating a dummy operation, not the operation information actually acquired in step S2.
  • the dummy operation of the avatar is stored in advance in a place (for example, a content database DB, an auxiliary storage unit 103, etc.) that can be referred to by the server 10.
  • the server 10 displays a second content image representing an avatar that performs a dummy operation instead of the specific operation on the user terminal 30 of the second user. It becomes possible to make it.
  • FIG. 8 is a diagram for explaining a second content image related to the second content image data generated in the third generation process.
  • the avatar A performing a dummy operation here, the operation of drinking a beverage while the avatar A is stopped
  • the actual operation here, the operation of inputting the password shown in FIG. 5. It is expressed.
  • the second user it is possible to provide the second user with an image that does not give a sense of discomfort, and to hide the specific operation of the avatar A from the second user.
  • the second content image data does not include the specific operation information, the confidentiality of the specific operation is effectively ensured as in the case of the second content image data generated by the first generation process described above.
  • the content distribution system is a content distribution system that distributes content expressing a virtual space to a plurality of user terminals, and includes at least one processor. At least one processor is a predetermined specific action of the avatar corresponding to the first user placed in the virtual space, and the specific action to be hidden is performed for the second user different from the first user. A specific situation is detected, and when the specific situation is detected, a content image expressing the virtual space in a manner in which the specific operation cannot be visually recognized is displayed on the user terminal of the second user.
  • the content distribution method is executed by a content distribution system including at least one processor.
  • the content distribution method is a predetermined specific action of the avatar corresponding to the first user placed in the virtual space, and the specific action to be hidden is performed for the second user different from the first user. It includes a step of detecting a situation and a step of displaying a content image expressing a virtual space in a manner in which a specific operation cannot be visually recognized on a user terminal of a second user when a specific situation is detected.
  • the content distribution program is a predetermined specific operation of the avatar corresponding to the first user arranged in the virtual space, and is hidden from the second user different from the first user.
  • a step of detecting a specific situation in which a specific action to be performed is performed, and a step of displaying a content image expressing a virtual space in a manner in which the specific action cannot be visually recognized on the user terminal of the second user when the specific situation is detected. And let the computer do it.
  • the specific operation cannot be visually recognized in response to the detection of a specific situation in which the specific operation of the avatar to be hidden from the other user (second user) as seen from the first user is detected.
  • a content image (second content image of the above embodiment) expressing the virtual space is provided to the second user.
  • the operation of the avatar of the first user in the virtual space can be appropriately hidden from other users depending on the situation. That is, the behavior of the avatar that does not need to be hidden from other users without having the first user set in advance whether or not to share the behavior of the avatar with other users is provided to the second user.
  • the action (specific action) of the avatar that needs to be displayed on the content image and hidden from other users can be prevented from being displayed on the content image provided to the second user.
  • the specific operation is an operation of inputting the confidential information of the first user (for example, a PIN code of a bank, a credit card, etc.) in the virtual space as in the above embodiment, such an operation is performed by the second user.
  • the second user On the other hand, by keeping it secret, security in the virtual space is accurately ensured.
  • the specific operation for example, in a VR escape game, a scene in which the first user answers a question given in the game in a predetermined area in the virtual space (for example, in the virtual space via an avatar).
  • a predetermined area in the virtual space for example, in the virtual space via an avatar.
  • the answer is described in a virtual object that imitates a whiteboard placed in, or the answer is presented by the gesture of an avatar, etc.
  • the answering action via the avatar may be predetermined as a specific action.
  • a specific situation may be detected depending on the detection that the avatar has entered the response area in the predetermined virtual space. According to such a configuration, it is possible to appropriately prevent the answer content of the first user from being seen by the second user, and the entertainment and fairness of the content are appropriately ensured.
  • an action that is not suitable for being shown to another person for example, an action that takes a vulgar pose that provokes another person, etc.
  • Such an operation may also be predetermined as a specific operation. In this case, it is possible to prevent the second user from being presented with an inappropriate operation via the avatar of the first user. This makes it possible to prevent the second user from being uncomfortable.
  • At least one processor does not have to transmit at least the specific operation information that defines the specific operation among the operation information that defines the operation of the avatar in the virtual space to the user terminal of the second user. That is, for example, the first generation process of the above embodiment may be executed. In this case, since the data transmitted to the user terminal of the second user does not include the specific operation information, the confidentiality of the specific operation can be effectively ensured.
  • At least one processor has a predetermined distance range from a specific object based on the position of a specific object placed in the virtual space and the target of a specific action and the position of an avatar in the virtual space.
  • a state in which an avatar is placed may be detected, and a specific situation may be detected according to the detection of the state. That is, for example, the first detection process of the above embodiment may be executed.
  • the specific situation can be easily detected based on the position of the specific object and the position of the avatar.
  • the distance range (threshold value) to a value that is large to some extent, the specific situation can be detected at a time before the time when the specific operation of the avatar is actually started. As a result, the entire specific operation can be reliably concealed from the second user.
  • the specific operation may include an operation by an avatar on a non-shared object that is visible only to the first user placed in the virtual space.
  • at least one processor may detect a specific situation in response to the occurrence of a non-shared object in the virtual space. That is, for example, the second detection process of the above embodiment may be executed.
  • a specific situation can be easily detected according to the occurrence of a non-shared object in the virtual space (for example, the creation in the virtual space based on the operation of the first user).
  • the specific situation can be detected at a time before the actual operation on the non-shared object is started, the entire specific operation can be surely concealed from the second user.
  • the non-shared object does not necessarily have to imitate a real object, for example, the first. It may be a window or the like that appears floating in the air in front of one user's avatar. Further, the non-shared object is not limited to an object for inputting information to be kept secret from another user (second user). Even in such a case, the following effects can be obtained by concealing the operation on the non-shared object via the avatar as a specific operation from the second user.
  • the behavior of the avatar that appears to be performing an incomprehensible gesture to a space that is empty from the perspective of the second user is performed by the second user. Can be hidden against. As a result, it is possible to prevent the second user from giving a sense of discomfort, and to prevent the second user from being immersive in the virtual space.
  • At least one processor obtains operation information that defines a specific operation by comparing the operation information that defines the operation of the avatar acquired by the user terminal of the first user with a template prepared in advance.
  • a specific situation may be detected depending on the detection of the operation information that is detected and defines the specific operation. That is, for example, the third detection process of the above embodiment may be executed.
  • the third detection process of the above embodiment may be executed.
  • any action of the avatar can be detected as a specific action and the specific action is performed. It is possible to detect the situation as a specific situation.
  • At least one processor may display a content image representing an avatar that performs a dummy operation instead of the specific operation on the user terminal of the second user when a specific situation is detected.
  • a content image representing an avatar that performs a dummy operation instead of the specific operation on the user terminal of the second user when a specific situation is detected.
  • the third generation process of the above embodiment may be executed. In this case, it is possible to provide a content image that does not give a sense of discomfort to the second user while ensuring the confidentiality of the specific operation.
  • At least one processor may display a content image on which an object that obscures a specific operation is arranged on a user terminal of a second user when a specific situation is detected. That is, for example, the second generation process of the above embodiment may be executed. In this case, the confidentiality of the specific action can be ensured by the object that obscures the specific action.
  • the mode of the object that obscures the specific operation is not limited to the mosaic object M (see FIG. 7) shown in the above embodiment.
  • the shape of the object is not limited to a circle, and may be another shape such as a rectangle.
  • the pattern of the above object is not limited to the mosaic.
  • the object may be composed of an arbitrary character such as a so-called Niko-chan mark, or an arbitrary object imitating an arbitrary decoration such as a star or a heart.
  • the content distribution system 1 is configured by using the server 10, but the content distribution system may be applied to direct distribution between user terminals that do not use the server 10.
  • each functional element of the server 10 may be implemented in any user terminal, or may be separately implemented in a plurality of user terminals.
  • the content distribution program may be implemented as a client program.
  • the content distribution system may be configured with or without a server.
  • some of the functions of the server 10 described above may be executed by the user terminals 20 and 30.
  • the processing of the detection unit 12 of the server 10 may be executed by the user terminal 20.
  • the transmission unit 22 of the user terminal 20 may transmit the operation information excluding the specific operation information regarding the specific operation of the avatar to the server 10. Even with such a configuration, the same effect as that of the content distribution system 1 described above can be obtained.
  • the expression "at least one processor executes the first process, executes the second process, ... executes the nth process", or the expression corresponding thereto is the first.
  • This is a concept including a case where the execution subject (that is, the processor) of n processes from the first process to the nth process changes in the middle. That is, this expression is a concept that includes both a case where all n processes are executed by the same processor and a case where the processor changes according to an arbitrary policy in the n processes.
  • the processing procedure of the method executed by at least one processor is not limited to the example in the above embodiment. For example, some of the steps (processes) described above may be omitted, or each step may be executed in a different order. Further, any two or more steps among the above-mentioned steps may be combined, or a part of the steps may be modified or deleted. Alternatively, other steps may be performed in addition to each of the above steps.
  • 1 ... Content distribution system 10 ... Server, 11 ... Receiver unit, 12 ... Detection unit, 13 ... Generation unit, 14 ... Transmission unit, 20, 30 ... User terminal, 21 ... Acquisition unit, 22 ... Transmission unit, 23 ... Reception Department, 24 ... Display control unit, 40 ... Virtual object (specific object, non-shared object), 101 ... Processor, A ... Avatar, DB ... Content database, P1 ... Server program, P2 ... Client program, V ... Virtual space.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Information Transfer Between Computers (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

一実施形態に係るコンテンツ配信システムは、仮想空間を表現するコンテンツを複数のユーザ端末に配信するコンテンツ配信システムであり、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、仮想空間内に配置される第1ユーザに対応するアバターの予め定められた特定動作であって、第1ユーザとは異なる第2ユーザに対して隠すべき特定動作が行われる特定状況を検知し、特定状況が検知された場合に、特定動作が視認できない態様で仮想空間を表現するコンテンツ画像を、第2ユーザのユーザ端末上に表示させる。

Description

コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
 本開示の一側面は、コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラムに関する。
 ユーザの要望に応じて、仮想空間(仮想現実空間)を他のユーザと共有するか否かを切り換える仕組みが知られている。例えば、特許文献1には、切替ボタンをクリックすることにより、仮想空間を他のユーザと共有する共有モードと、仮想空間を他のユーザと共有しない非共有モードと、を交互に切り換える情報処理装置が開示されている。
特開平10-105541号公報
 上記特許文献1に開示された仕組みでは、仮想空間を他のユーザと共有するか否かは、ユーザによって選択されたモードに依存する。このため、例えば、仮想空間内におけるユーザのアバターの動作を他のユーザに対して隠すべき状況(例えば、当該アバターが仮想空間内で他のユーザに対して秘匿すべき暗証コード等を入力する状況等)であったとしても、当該ユーザによる選択が適切ではない場合(すなわち、共有モードに設定されている場合)、当該ユーザのアバターの動作が他のユーザに見られてしまうおそれがある。
 そこで、本開示の一側面は、仮想空間内におけるユーザのアバターの動作を状況に応じて適切に他のユーザに対して隠すことができるコンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラムを提供することを目的とする。
 本開示の一側面に係るコンテンツ配信システムは、仮想空間を表現するコンテンツを複数のユーザ端末に配信するコンテンツ配信システムであり、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、仮想空間内に配置される第1ユーザに対応するアバターの予め定められた特定動作であって、第1ユーザとは異なる第2ユーザに対して隠すべき特定動作が行われる特定状況を検知し、特定状況が検知された場合に、特定動作が視認できない態様で仮想空間を表現するコンテンツ画像を、第2ユーザのユーザ端末上に表示させる。
 本開示の一側面によれば、仮想空間内におけるユーザのアバターの動作を状況に応じて適切に他のユーザに対して隠すことができるコンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラムを提供することができる。
実施形態に係るコンテンツ配信システムの適用の一例を示す図である。 図1のコンテンツ配信システムに関連するハードウェア構成の一例を示す図である。 図1のコンテンツ配信システムに関連する機能構成の一例を示す図である。 図1のコンテンツ配信システムの動作の一例を示すシーケンス図である。 第1コンテンツ画像に係る仮想空間の一例を示す図である。 第1の生成処理に係る第2コンテンツ画像について説明するための図である。 第2の生成処理に係る第2コンテンツ画像について説明するための図である。 第3の生成処理に係る第2コンテンツ画像について説明するための図である。
 以下、添付図面を参照しながら本開示での実施形態を詳細に説明する。なお、図面の説明において同一又は同等の要素には同一の符号を付し、重複する説明を省略する。
[システムの概要]
 実施形態に係るコンテンツ配信システムは、複数のユーザにコンテンツを配信するコンピュータシステムである。コンテンツは、コンピュータ又はコンピュータシステムによって提供され、人が認識可能な情報である。コンテンツを示す電子データのことをコンテンツデータという。コンテンツの表現形式は限定されない。コンテンツは、例えば、画像(例えば、写真、映像等)、文書、音声、音楽、又はこれらの中の任意の2以上の要素の組合せによって表現されてもよい。コンテンツは、様々な態様の情報伝達又はコミュニケーションのために用いることができる。コンテンツは、例えば、エンターテインメント、ニュース、教育、医療、ゲーム、チャット、商取引、講演、セミナー、研修等の様々な場面又は目的で利用され得る。配信とは、通信ネットワーク又は放送ネットワークを経由して情報をユーザに向けて送信する処理である。
 コンテンツ配信システムは、コンテンツデータをユーザ端末に送信することで、コンテンツをユーザに提供する。本実施形態では一例として、複数のユーザのユーザ端末の各々に対して、同一の仮想空間を表現するコンテンツが提供される。これにより、複数のユーザ間において、共通の仮想空間を共有することが可能となる。また、本実施形態では、コンテンツは、少なくとも仮想空間を表現する画像を用いて表現される。すなわち、コンテンツデータには、少なくともコンテンツを示すコンテンツ画像が含まれる。コンテンツ画像は、人が視覚を通して何らかの情報を認識することができる像である。コンテンツ画像は、動画像(映像)でもよいし静止画でもよい。
 一例では、コンテンツ画像は、仮想オブジェクトが存在する仮想空間を表現する。仮想オブジェクトは、現実世界には存在せず、コンピュータシステム上でのみ表現される物体である。仮想オブジェクトは、実写画像とは独立した画像素材を用いて、2次元又は3次元のコンピュータグラフィックス(CG)によって表現される。仮想オブジェクトの表現方法は限定されない。例えば、仮想オブジェクトは、アニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。仮想空間は、コンピュータ上に表示される画像によって表現される仮想の2次元又は3次元の空間である。コンテンツ画像は、例えば、仮想空間内に設定された仮想カメラから見える風景を示す画像である。仮想カメラは、コンテンツ画像を見るユーザの視線に対応するように仮想空間内に設定される。コンテンツ画像又は仮想空間は、現実世界に実際に存在する物体である現実オブジェクトを更に含んでもよい。
 仮想オブジェクトの一例として、ユーザの分身であるアバターがある。アバターは、撮影された人そのものではなく、原画像とは独立した画像素材を用いて、2次元又は3次元のコンピュータグラフィックス(CG)によって表現される。アバターの表現方法は限定されない。例えば、アバターは、アニメーション素材を用いて表現されてもよいし、実写画像に基づいて本物に近いように表現されてもよい。なお、上述した仮想カメラの位置及び向きは、アバターの視点及び視線と一致してもよい。この場合、一人称視点のコンテンツ画像がユーザに提供される。或いは、仮想カメラの位置及び向きは、アバターの視点及び視線と一致しなくてもよい。例えば、仮想カメラは、アバターの背後の空間等に配置されてもよい。この場合、三人称視点のコンテンツ画像がユーザに提供される。ユーザは、コンテンツ画像を見ることで、拡張現実(AR:Augmented Reality)、仮想現実(VR:Virtual Reality)、又は複合現実(MR:Mixed Reality)を体験することができる。
 本開示において、データ又は情報を第1コンピュータから第2コンピュータ“に送信する”との表現は、第2コンピュータに最終的にデータ又は情報を届けるための送信を意味する。すなわち、上記表現は、その送信において別のコンピュータ又は通信装置がデータ又は情報を中継する場合を含む。
 コンテンツの目的及び利用場面は限定されない。本実施形態では一例として、コンテンツは、複数のユーザによって共有される仮想空間内に設けられた仮想の施設において、現実と同じような体験をユーザに提供するものである。例えば、コンテンツは、仮想空間内に設けられたショッピング施設でショッピングを行う体験をユーザに提供するものであってもよいし、仮想空間内におけるゲーム体験(例えば、いわゆるVR脱出ゲーム等)をユーザに提供するものであってもよい。
[コンテンツ配信システムの全体構成]
 図1は、実施形態に係るコンテンツ配信システム1の適用の一例を示す図である。本実施形態では、コンテンツ配信システム1は、サーバ10と、複数のユーザ端末20,30と、コンテンツデータベースDBと、を備える。
 サーバ10は、コンテンツデータをユーザ端末20,30に配信するコンピュータである。サーバ10は、通信ネットワークNを介して、各ユーザ端末20,30及びコンテンツデータベースDBと接続されている。通信ネットワークNの構成は限定されない。例えば、通信ネットワークNは、インターネットを含んで構成されてもよいし、イントラネットを含んで構成されてもよい。
 ユーザ端末20,30は、コンテンツを利用するユーザによって用いられるコンピュータである。本実施形態では、ユーザ端末20,30は、映像を撮影する機能と、コンテンツ配信システム1にアクセスしてその映像を示す電子データ(映像データ)を送信する機能と、コンテンツ配信システム1からコンテンツデータを受信及び表示する機能と、を有する。ユーザ端末20,30の種類及び構成は限定されない。例えば、ユーザ端末20,30は、高機能携帯電話機(スマートフォン)、タブレット端末、ウェアラブル端末(例えば、ヘッドマウントディスプレイ(HMD)、スマートグラス等)、ラップトップ型パーソナルコンピュータ、携帯電話機等の携帯端末でもよい。或いは、ユーザ端末20,30は、デスクトップ型パーソナルコンピュータ等の据置型端末でもよい。
 本実施形態では、ユーザ端末20は、複数のユーザのうち着目する一のユーザ(第1ユーザ)のユーザ端末(すなわち、第1ユーザによって使用されるユーザ端末)であり、ユーザ端末30は、第1ユーザとは異なるユーザ(第2ユーザ)のユーザ端末(すなわち、第2ユーザによって使用されるユーザ端末)である。図1は、2台のユーザ端末30を例示しているが、ユーザ端末30の台数(すなわち、第2ユーザの数)は特に限定されない。本実施形態では、上述したとおり、あるユーザに着目した場合に、便宜上、当該ユーザを第1ユーザと称し、他のユーザを第2ユーザと称している。従って、ユーザ端末20とユーザ端末30とは、同一のハードウェア構成及び機能構成を備える。つまり、各ユーザ端末は、ある場面においては、後述するユーザ端末20として機能し、他の場面においては、後述するユーザ端末30として機能する。
 ユーザは、例えば、ユーザ端末20,30を操作してコンテンツ配信システム1にログインすることにより、コンテンツを利用することができる。一例として、ユーザは、自身のアバターを介して、コンテンツにより表現される仮想空間内で各種体験を行うことができる。本実施形態では、コンテンツ配信システム1のユーザが既にログインしていることを前提とする。
 コンテンツデータベースDBは、生成されたコンテンツデータを記憶する非一時的な記憶媒体又は記憶装置である。コンテンツデータベースDBは、既存のコンテンツのライブラリであるといえる。コンテンツデータは、サーバ10、ユーザ端末20,30、又は別のコンピュータ等の任意のコンピュータによって、コンテンツデータベースDBに格納される。
 コンテンツデータは、コンテンツを一意に識別するコンテンツIDと関連付けられた上でコンテンツデータベースDBに格納される。一例では、コンテンツデータは、仮想空間データ、モデルデータ、及びシナリオを含んで構成される。
 仮想空間データは、コンテンツを構成する仮想空間を示す電子データである。例えば、仮想空間データは、背景を構成する個々の仮想オブジェクトの配置、仮想カメラの位置、又は仮想光源の位置等を示す情報を含み得る。
 モデルデータは、コンテンツを構成する仮想オブジェクトの仕様を規定するために用いられる電子データである。仮想オブジェクトの仕様とは、仮想オブジェクトを制御するための取り決め又は方法のことをいう。例えば、仮想オブジェクトの仕様は、仮想オブジェクトの構成(例えば形状及び寸法)、動作、及び音声のうちの少なくとも一つを含む。アバターのモデルデータのデータ構造は限定されず、任意に設計されてよい。例えば、モデルデータは、アバターを構成する複数のジョイント及び複数のボーンに関する情報と、アバターの外観デザインを示すグラフィックデータと、アバターの属性と、アバターの識別子であるアバターIDとを含んでもよい。ジョイント及びボーンに関する情報の例として、個々のジョイントの3次元座標と、隣り合うジョイントの組合せ(すなわちボーン)とが挙げられる。ただし、当該情報の構成は、これらに限定されず、任意に設計されてよい。アバターの属性とは、アバターを特徴付けるために設定される任意の情報であり、例えば公称寸法、声質、又は性格等を含み得る。
 シナリオとは、仮想空間内での時間の経過に伴う個々の仮想オブジェクト、仮想カメラ、又は仮想光源の動作を規定する電子データである。シナリオは、コンテンツのストーリーを決めるための情報であるこということができる。仮想オブジェクトの動作は、視覚で認識できる動きに限定されず、聴覚で認識される音声の発生を含んでよい。
 コンテンツデータは、現実オブジェクトに関する情報を含んでもよい。例えば、コンテンツデータは、現実オブジェクトが映された実写画像を含んでもよい。コンテンツデータが現実オブジェクトを含む場合には、シナリオは、その現実オブジェクトをどのタイミングでどこに映すかをさらに規定し得る。
 コンテンツデータベースDBの設置場所は限定されない。例えば、コンテンツデータベースDBは、コンテンツ配信システム1とは別のコンピュータシステム内に設けられてもよいし、コンテンツ配信システム1の構成要素であってもよい。
[コンテンツ配信システムのハードウェア構成]
 図2は、コンテンツ配信システム1に関連するハードウェア構成の一例を示す図である。図2は、サーバ10として機能するサーバコンピュータ100と、ユーザ端末20又はユーザ端末30として機能する端末コンピュータ200とを示す。
 一例として、サーバコンピュータ100は、ハードウェア構成要素として、プロセッサ101、主記憶部102、補助記憶部103、及び通信部104を備える。
 プロセッサ101は、オペレーティングシステム及びアプリケーションプログラムを実行する演算装置である。プロセッサの例としては、CPU(Central Processing Unit)及びGPU(Graphics Processing Unit)が挙げられるが、プロセッサ101の種類はこれらに限定されない。例えば、プロセッサ101は、センサ及び専用回路の組合せでもよい。専用回路は、FPGA(Field-Programmable Gate Array)のようなプログラム可能な回路でもよいし、他の種類の回路でもよい。
 主記憶部102は、サーバ10を実現するためのプログラム、プロセッサ101から出力された演算結果等を記憶する装置である。主記憶部102は、例えばROM(Read Only Memory)又はRAM(Random Access Memory)等により構成される。
 補助記憶部103は、一般に主記憶部102よりも大量のデータを記憶することが可能な装置である。補助記憶部103は、例えばハードディスク、フラッシュメモリ等の不揮発性記憶媒体によって構成される。補助記憶部103は、サーバコンピュータ100をサーバ10として機能させるためのサーバプログラムP1と各種のデータとを記憶する。例えば、補助記憶部103は、アバター等の仮想オブジェクト及び仮想空間のうちの少なくとも一つに関するデータを記憶してもよい。本実施形態では、コンテンツ配信プログラムは、サーバプログラムP1として実装される。
 通信部104は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部104は、例えばネットワークカード又は無線通信モジュールにより構成される。
 サーバ10の各機能要素は、プロセッサ101又は主記憶部102にサーバプログラムP1を読み込ませ、プロセッサ101に当該サーバプログラムP1を実行させることにより実現される。サーバプログラムP1は、サーバ10の各機能要素を実現するためのコードを含む。プロセッサ101は、サーバプログラムP1に従って通信部104を動作させ、主記憶部102又は補助記憶部103におけるデータの読み出し及び書き込みを実行する。このような処理により、サーバ10の各機能要素が実現される。
 サーバ10は、一つ又は複数のコンピュータにより構成され得る。複数のコンピュータが用いられる場合には、通信ネットワークを介して当該複数のコンピュータが互いに接続されることにより、論理的に一つのサーバ10が構成される。
 一例として、端末コンピュータ200は、ハードウェア構成要素として、プロセッサ201、主記憶部202、補助記憶部203、通信部204、入力インタフェース205、出力インタフェース206、及び撮像部207を備える。
 プロセッサ201は、オペレーティングシステム及びアプリケーションプログラムを実行する演算装置である。プロセッサ201は、例えばCPU又はGPUであり得るが、プロセッサ201の種類はこれらに限定されない。
 主記憶部202は、ユーザ端末20,30を実現させるためのプログラム、プロセッサ201から出力された演算結果等を記憶する装置である。主記憶部202は、例えばROM又はRAM等により構成される。
 補助記憶部203は、一般に主記憶部202よりも大量のデータを記憶することが可能な装置である。補助記憶部203は、例えばハードディスク、フラッシュメモリ等の不揮発性記憶媒体によって構成される。補助記憶部203は、端末コンピュータ200をユーザ端末20,30として機能させるためのクライアントプログラムP2と各種のデータとを記憶する。例えば、補助記憶部203は、アバター等の仮想オブジェクト及び仮想空間のうちの少なくとも一つに関するデータを記憶してもよい。
 通信部204は、通信ネットワークNを介して他のコンピュータとの間でデータ通信を実行する装置である。通信部204は、例えばネットワークカード又は無線通信モジュールにより構成される。
 入力インタフェース205は、ユーザの操作又は動作に基づいて、データを受け付ける装置である。例えば、入力インタフェース205は、コントローラ、キーボード、操作ボタン、ポインティングデバイス、マイクロフォン、センサ、及びカメラのうちの少なくとも一つによって構成される。キーボード及び操作ボタンは、タッチパネル上に表示されてもよい。入力インタフェース205の種類が限定されないことに対応して、入力インタフェース205に入力されるデータも限定されない。例えば、入力インタフェース205は、キーボード、操作ボタン、又はポインティングデバイスによって入力又は選択されたデータを受け付けてもよい。或いは、入力インタフェース205は、マイクロフォンにより入力された音声データを受け付けてもよい。或いは、入力インタフェース205は、カメラによって撮影された画像データ(例えば、映像データ又は静止画データ)を受け付けてもよい。或いは、入力インタフェース205は、センサ又はカメラを用いたモーションキャプチャ機能によって検知されたユーザの非言語活動(例えば、視線、ジェスチャ、表情等)を示すデータをモーションデータとして受け付けてもよい。
 出力インタフェース206は、端末コンピュータ200で処理されたデータを出力する装置である。例えば、出力インタフェース206は、モニタ、タッチパネル、HMD及びスピーカのうちの少なくとも一つによって構成される。モニタ、タッチパネル、HMD等の表示装置は、処理されたデータを画面上に表示する。スピーカは、処理された音声データにより示される音声を出力する。
 撮像部207は、現実世界を写した画像を撮影する装置であり、具体的にはカメラである。撮像部207は、動画像(映像)を撮影してもよいし、静止画(写真)を撮影してもよい。動画像を撮影する場合には、撮像部207は、映像信号を所与のフレームレートに基づいて処理することにより、時系列に並ぶ一連のフレーム画像を動画像として取得する。撮像部207は、入力インタフェース205としても機能し得る。
 ユーザ端末20,30の各機能要素は、プロセッサ201又は主記憶部202にクライアントプログラムP2を読み込ませ、当該クライアントプログラムP2を実行させることにより実現される。クライアントプログラムP2は、ユーザ端末20,30の各機能要素を実現するためのコードを含む。プロセッサ201は、クライアントプログラムP2に従って、通信部204、入力インタフェース205、出力インタフェース206、又は撮像部207を動作させ、主記憶部202又は補助記憶部203におけるデータの読み出し及び書き込みを行う。この処理により、ユーザ端末20,30の各機能要素が実現される。
 サーバプログラムP1及びクライアントプログラムP2の少なくとも一つは、CD-ROM、DVD-ROM、半導体メモリ等の有形の記録媒体に固定的に記録された上で提供されてもよい。或いは、これらのプログラムの少なくとも一つは、搬送波に重畳されたデータ信号として通信ネットワークを介して提供されてもよい。これらのプログラムは、別々に提供されてもよいし、一緒に提供されてもよい。
[コンテンツ配信システムの機能構成]
 図3は、コンテンツ配信システム1に関連する機能構成の一例を示す図である。サーバ10は、機能要素として、受信部11、検知部12、生成部、及び送信部14を備える。
 受信部11は、ユーザ端末20から送信されたデータ信号を受信する。データ信号は、動作情報及び操作情報の少なくとも一方を含み得る。動作情報とは、仮想空間内に配置される第1ユーザに対応するアバター(以下、単に「アバター」という。)の動作を規定する情報である。操作情報は、アバターの動作以外のイベント(例えば、設定画面の起動等)の実行を指示する情報である。
 検知部12は、ユーザ端末20から受信したデータ信号に基づいて、アバターの特定動作が行われる特定状況を検知する。特定動作は、第2ユーザに対して隠すべき動作として予め定められた動作である。一例として、特定動作は、仮想空間内において、第1ユーザが他のユーザ(第2ユーザ)に知られたなくない情報(例えば、PIN(Personal Identification Number)コード等の暗証番号)を入力する動作(例えば、仮想空間内に配置された仮想的な入力装置の操作ボタンをアバターの指で押下する動作等)である。特定状況は、上述したような特定動作が実際に行われている最中だけでなく、特定動作がこれから行われようとする状況(すなわち、特定動作が行われる直前の状況)を含み得る。
 生成部13は、検知部12の検知結果に応じて、各ユーザ(すなわち、各ユーザ端末20,30)に配信するためのコンテンツデータを生成する。コンテンツデータは、ユーザ端末20,30の表示装置上で表示させるためのコンテンツ画像に関するコンテンツ画像データを含む。コンテンツデータは、画像以外のデータ(例えば、音声等)を含んでもよい。送信部14は、生成部13により生成されたコンテンツデータを各ユーザ端末20,30に送信する。
 ユーザ端末20は、機能要素として、取得部21、送信部22、受信部23、及び表示制御部24を備える。
 取得部21は、ユーザ端末20の入力インタフェース205によって受け付けられた動作情報又は操作情報を取得する。動作情報は、例えば、上述したモーションデータである。この場合、現実空間における第1ユーザの動作が、仮想空間内におけるアバターの動作に反映される。或いは、動作情報は、コントローラに対するユーザの所定の入力操作の内容を示す情報であってもよい。この場合、当該入力操作の内容に応じた動作が、アバターの動作として反映され、現実空間における第1ユーザの動作はアバターの動作には直接反映されない。このように、アバターの動作を規定する動作情報は、第1ユーザの実際の動作を反映したものであってもよいし、第1ユーザの実際の動作を反映したものでなくてもよい。操作情報の例としては、上述したPINコード等の暗証番号を入力するための仮想オブジェクト(後述する非共有オブジェクト)を仮想空間内に出現させるための操作を示す情報等が挙げられる。
 送信部22は、取得部21により取得された動作情報又は操作情報をサーバ10に送信する。受信部23は、サーバ10からコンテンツ画像データを含むコンテンツデータを受信する。表示制御部24は、受信部23により受信されたコンテンツデータに基づいて、コンテンツをユーザ端末20の表示装置上に表示する機能要素である。
 ユーザ端末30は、上述したとおり、ユーザ端末20と同様の機能要素を備える。なお、本実施形態では、第1ユーザのアバターを含む仮想空間を表現するコンテンツを第2ユーザのユーザ端末30に表示させる際の処理に着目するため、図3では、当該処理を実行するための受信部23及び表示制御部24のみを図示している。
[コンテンツ配信システムの動作]
 図4を参照して、コンテンツ配信システム1の動作(より具体的にはサーバ10の動作)を説明すると共に、本実施形態に係るコンテンツ配信方法について説明する。図4は、コンテンツ配信システム1の動作の一例を示すシーケンス図である。
 まず、第1ユーザのユーザ端末20の取得部21は、第1ユーザによる入力情報を取得する。具体的には、取得部21は、上述した動作情報又は操作情報を取得する(ステップS1)。続いて、ユーザ端末20の送信部22は、取得部21により取得された動作情報又は操作情報をサーバ10に送信する(ステップS2)。当該動作情報又は操作情報は、サーバ10の受信部11によって受信される。
 続いて、サーバ10の生成部13は、受信部11により取得された動作情報又は操作情報に基づいて、第1コンテンツデータを生成する(ステップS3)。第1コンテンツデータは、第1コンテンツ画像データを含む。受信部11により動作情報が取得された場合、生成部13は、動作情報に基づいて動作させられるアバターを含む仮想空間を表現する第1コンテンツ画像データを生成する。また、受信部11により操作情報が取得された場合、生成部13は、当該操作情報に基づいて変更された仮想空間を表現する第1コンテンツ画像データを生成する。なお、アバターの動作が仮想空間内に配置された仮想オブジェクトに作用する場合(例えば、アバターの一部が他の仮想オブジェクトに接触する場合等)には、生成部13は、当該作用により生じる仮想空間内における挙動(例えば、アバター又は他の仮想オブジェクトの移動又は変形等)を演算により求めてもよい。この場合、第1コンテンツ画像データは、当該演算により求まった挙動が反映された仮想空間(すなわち、移動又は変形等が反映された各仮想オブジェクトの状態)の情報を含み得る。
 第1コンテンツ画像データは、第1ユーザの動作情報が反映されたアバターの様子(すなわち、第1ユーザの動作情報に対応するアバターの動作)を視認可能な態様で仮想空間を表現するコンテンツ画像に関するデータである。第1コンテンツ画像データは、コンテンツ画像それ自体であってもよいし、コンテンツ画像を生成するためのデータであってもよい。前者の場合、第1コンテンツ画像データは、仮想空間における各仮想オブジェクト(アバターを含む)の状態に関する情報に基づくレンダリングを実行することにより生成されたコンテンツ画像そのもの(すなわち、レンダリング後のデータ)である。後者の場合、第1コンテンツ画像データは、レンダリングを実行することによりコンテンツ画像を生成する基となるデータ(すなわち、レンダリング前のデータ)である。
 図5は、第1コンテンツ画像に係る仮想空間の一例を示す図である。図5は、仮想空間V内において、第1ユーザが当該第1ユーザに対応するアバターAを介してショッピング(決済)を行う場面を例示している。この例では、アバターAが、仮想空間V内でショッピング(決済)を行うために、暗証コード(一例としてPINコード)を入力するためのデバイスを模した仮想オブジェクト40を操作している。具体的には、アバターAの手A1の動作によって仮想オブジェクト40に設けられた入力ボタン41が押下されると、押下された入力ボタン41に応じた情報(例えば数字等)が入力される。第1コンテンツ画像は、このようなアバターAの動作が反映された仮想空間Vを表現した画像である。すなわち、仮想カメラの位置及び向きに応じた撮影範囲にアバターAの手A1が含まれる場合、第1コンテンツ画像は、当該アバターAの手A1の動作を視認可能なものとなる。
 アバターAの動作が反映された第1コンテンツ画像がアバターAに対応するユーザ(すなわち第1ユーザ)自身に提供されることは、特に問題ない。むしろ、第1ユーザは、アバターAを介して暗証コードの入力操作を的確に行うために、第1コンテンツ画像を見ることで、自身の指の動き(或いはコントローラに対する所定操作)に対応するアバターAの指の動きを確認する必要がある。一方、第1ユーザ以外の第2ユーザにアバターAの指の動きが見られてしまうこと(すなわち、第1ユーザの暗証コードが盗み見られてしまうこと)には、セキュリティ上の問題がある。そこで、サーバ10は、以下のような処理を行う。
 上述したように、第1ユーザに対しては、アバターAの動作が反映された第1コンテンツ画像が提供されることが好ましい。そこで、サーバ10は、第1ユーザのユーザ端末20に対しては、第1コンテンツデータを送信する。具体的には、送信部14は、第1コンテンツデータをユーザ端末20に送信する(ステップS4)。当該第1コンテンツデータは、ユーザ端末20の受信部23によって受信される。そして、ユーザ端末20の表示制御部24は、当該第1コンテンツデータに含まれる第1コンテンツ画像データを処理することにより、コンテンツ画像を表示装置上に表示する(ステップS5)。サーバ10でレンダリングが実行されている場合(すなわち、第1コンテンツ画像データがコンテンツ画像そのものである場合)、表示制御部24は、当該コンテンツ画像をそのまま表示すればよい。一方、サーバ10でレンダリングが実行されていない場合、表示制御部24は、第1コンテンツ画像データに基づくレンダリングを実行することにより、コンテンツ画像を生成及び表示すればよい。
 一方、図5に例示したように、仮想空間V内において第2ユーザに対して隠すべきアバターAの動作(特定動作)が行われる状況(特定状況)では、セキュリティの観点から、アバターAの特定動作が反映されたコンテンツ画像が第2ユーザに提供されることは好ましくない。そこで、まず、サーバ10の検知部12は、アバターAの特定動作が行われる特定状況を検知する(ステップS6)。なお、特定動作又は特定状況を定義する情報は、予めサーバ10から参照可能な場所(例えば、コンテンツデータベースDB、補助記憶部103等)に記憶されている。
 検知部12により特定状況が検知された場合(ステップS6:YES)、生成部13は、当該特定動作が視認できない態様で仮想空間Vを表現するコンテンツ画像に関する第2コンテンツ画像データを含む第2コンテンツデータを生成する(ステップS7)。そして、送信部14は、第2コンテンツデータを第2ユーザのユーザ端末30に送信する(ステップS8)。当該第2コンテンツデータは、ユーザ端末30の受信部23によって受信される。そして、ユーザ端末30の表示制御部24は、当該第2コンテンツデータに含まれる第2コンテンツ画像データを処理することにより、コンテンツ画像を表示装置上に表示する(ステップS10)。サーバ10でレンダリングが実行されている場合(すなわち、第2コンテンツ画像データがコンテンツ画像そのものである場合)、表示制御部24は、当該コンテンツ画像をそのまま表示すればよい。一方、サーバ10でレンダリングが実行されていない場合、表示制御部24は、第2コンテンツ画像データに基づくレンダリングを実行することにより、コンテンツ画像を生成及び表示すればよい。このように、アバターの特定動作が視認できない態様で表現された第2コンテンツ画像がユーザ端末30に提供されることにより、第2ユーザに対して特定動作の内容を秘匿することができる。その結果、第1ユーザの機密情報が第2ユーザに漏れてしまうことを防ぐことができ、仮想空間内におけるセキュリティを適切に確保することができる。
 なお、検知部12により特定状況が検知されていない場合(ステップS6:NO)には、生成部13は、第2ユーザ用のコンテンツデータ(すなわち、特定動作が秘匿化されたコンテンツ画像に関するデータ)を生成する必要がない。よって、この場合、生成部13による第2コンテンツデータの生成処理(ステップS7)は省略され、送信部14により、第1コンテンツデータが第2ユーザのユーザ端末30に送信される(ステップS9)。この場合、ステップS10において、第1コンテンツ画像データに対応するコンテンツ画像が表示装置上に表示される。
 次に、上述したステップS6における検知部12による検知処理のいくつかの例(第1~第3の検知処理)について説明する。
(第1の検知処理)
 第1の検知処理では、特定動作は、予め定められた特定の仮想オブジェクト(以下、「特定オブジェクト」という。)に対する動作(操作)として、予め定められている。特定オブジェクトは、アバターによる特定動作の対象となる仮想オブジェクトである。図5の例において、仮想オブジェクト40が、特定オブジェクトとして予め定められている場合、例えば当該仮想オブジェクト40の入力ボタン41に対する入力操作が、特定動作として予め定められ得る。この場合、検知部12は、仮想オブジェクト40に対するアバターAの特定動作(ここでは、入力ボタン41に対する入力操作)が行われる状況を、特定状況として検知することができる。
 例えば、検知部12は、仮想空間V内に配置された特定オブジェクトの位置と仮想空間V内におけるアバターAの位置とに基づいて、特定オブジェクトから予め定められた距離範囲内にアバターが配置されている状態を検知し、当該状態が検知されたことに応じて特定状況を検知してもよい。図5の例では、検知部12は、例えば、仮想オブジェクト40の位置(例えば、仮想空間V内における入力ボタン41の位置座標)とアバターAの位置(例えば、仮想空間V内におけるアバターAの手A1の位置座標)との距離d1を算出する。そして、検知部12は、当該距離d1と予め設定された閾値Thとを比較し、距離d1が閾値Th以下(又は距離d1が閾値Th未満)である場合に、特定状況を検知することができる。この場合、閾値Thをある程度大きい値に設定することにより、アバターAの特定動作が実際に開始される時点よりも前の時点に特定状況を検知することができる。
(第2の検知処理)
 第2の検知処理では、特定動作は、第1ユーザのみが視認可能な仮想オブジェクト(以下、「非共有オブジェクト」という。)に対する動作(操作)として、予め定められている。例えば、サーバ10は、第1ユーザによる所定の操作(例えば、ユーザ端末20のコントローラ(入力インタフェース205)に対する予め定められた操作)に関する操作情報を受け付けたことに応じて、非共有オブジェクトを仮想空間内に発生させてもよい。非共有オブジェクトは、第1ユーザのみが視認可能なオブジェクトであり、第2ユーザに配信されるコンテンツ画像には表示されないように制御された仮想オブジェクトである。また、非共有オブジェクトは、第1ユーザのアバターを介した操作のみを受け付ける仮想オブジェクトである。
 図5の例において、仮想オブジェクト40が、第1ユーザによる所定の操作をトリガとして仮想空間V内に生成された非共有オブジェクトである場合について考える。ここで、アバターAの操作対象であり且つ非共有オブジェクトである仮想オブジェクト40が仮想空間V内に発生したことは、これから当該非共有オブジェクトに対してアバターAによる操作(特定動作)が実行される予定であることを意味する。そこで、検知部12は、非共有オブジェクトである仮想オブジェクト40が仮想空間V内に発生したことに応じて、特定状況を検知してもよい。この場合にも、アバターAの特定動作が実際に開始される時点よりも前の時点に特定状況を検知することができる。
(第3の検知処理)
 第3の検知処理では、特定動作を規定するテンプレートが、予めサーバ10から参照可能な場所(例えば、コンテンツデータベースDB、補助記憶部103等)に記憶されている。テンプレートの例として、暗証コードを入力する操作を行う際のアバターAの手A1の動きを特徴付けるパターンを示す情報が挙げられる。例えば、このような動作に対応するテンプレートは、アバターAの手A1の指先で複数の異なる場所を指し示す動作を連続的に実行する際の手A1の動作のパターンを示す情報である。テンプレートは、実際のアバターAの動作(すなわち、ステップS2においてユーザ端末20から受け付けた動作情報)との類似度を算出可能なものであればよく、テンプレートのデータ形式は特定の形式に限定されない。この場合、検知部12は、ステップS2において取得された動作情報とテンプレートとを比較することにより、特定動作を規定する動作情報(以下、「特定動作情報」という。)を検知する。そして、検知部12は、特定動作情報が検知されたことに応じて、特定状況を検知する。
 例えば、検知部12は、ステップS2において取得された動作情報及びテンプレートの類似度を所定の計算処理によって算出する。そして、検知部12は、当該類似度と予め設定された閾値とを比較することにより、ステップS2において取得された動作情報が特定動作情報に該当するか否かを判定する。具体的には、検知部12は、類似度が閾値以上である(或いは閾値より大きい)場合に、ステップS2において取得された動作情報が特定動作情報に該当すると判定してもよい。そして、このようにして特定動作情報(すなわち、ステップS2において取得された動作情報)が検知された場合に、検知部12は、特定状況を検知することができる。
 次に、上述したステップS7における生成部13による生成処理のいくつかの例(第1~第3の生成処理)について説明する。
(第1の生成処理)
 第1の生成処理では、生成部13は、仮想空間V内におけるアバターAの動作を規定する動作情報のうち、特定動作情報を含まない第2コンテンツ画像データを生成する。第2コンテンツ画像データがレンダリング前のデータである場合、第2コンテンツ画像データは、ステップS2において取得された特定動作情報を含まない情報である。例えば、生成部13は、ステップS2において取得された動作情報から特定動作情報を除外した情報を第2コンテンツ画像データに含めることにより、特定動作情報を含まない第2コンテンツ画像データを生成することができる。一方、第2コンテンツ画像データがレンダリング後のデータ(すなわち、コンテンツ画像そのもの)である場合、第2コンテンツ画像データは、ステップS2において取得された動作情報から特定動作情報を除外した情報に基づいて生成されたコンテンツ画像である。例えば、生成部13は、ステップS2において取得された動作情報から特定動作情報を除外した情報に基づいてアバターAの動作を決定し、当該アバターAの動作が反映されたコンテンツ画像を生成することにより、特定動作情報を含まないレンダリング後の第2コンテンツ画像データを生成することができる。
 上記いずれの場合にも、サーバ10からユーザ端末30へと特定動作情報が送信されない。その結果、ユーザ端末30の表示装置上には、アバターAの特定動作が視認できない態様で表現された(すなわち、アバターAの特定動作が表現されていない)第2コンテンツ画像が表示されることになる。また、ユーザ端末30に送信される第2コンテンツ画像データ自体に特定動作情報が含まれていないため、第2ユーザは、第2コンテンツ画像データを解析したとしても、アバターAの特定動作を把握することはできない。すなわち、ユーザ端末30の表示装置上に表示される第2コンテンツ画像においてアバターAの特定動作を視認できないだけでなく、第2コンテンツ画像データの解析を実行したとしても、アバターAの特定動作を把握することができない。従って、第1の生成処理で生成される第2コンテンツ画像データによれば、特定動作の秘匿性(セキュリティ)が効果的に確保される。
 なお、生成部13は、ステップS2において取得された動作情報から、特定状況が検知された時点から特定状況が検知されなくなった時点までの動作情報を全て除外した情報に基づいて、第2コンテンツ画像データを生成してもよい。例えば、上述した第1の検知処理が実行される場合、生成部13は、特定状況が検知されてから実際に特定動作が行われるまでの動作(例えば、入力ボタン41を押下するために仮想オブジェクト40に近づく予備的動作)に関する動作情報も除外した上で、第2コンテンツ画像データを生成してもよい。この場合、第2ユーザに対して、アバターの特定動作だけでなく、当該特定動作を実行するための予備的動作も隠すことができる。これにより、特定動作の秘匿性をより一層高めることができる。
 図6は、第1の生成処理で生成された第2コンテンツ画像データに係る第2コンテンツ画像について説明するための図である。ここでは一例として、検知部12が、第1の検知処理により、アバターAの手A1が仮想オブジェクト40の入力ボタン41の閾値距離範囲内に入った状態が検知されたことに応じて、特定状況を検知する。そして、生成部13が、特定状況が検知された後のアバターAの動作(すなわち、仮想オブジェクト40に近づいて入力ボタン41を手A1で押下する動作)に関する動作情報を用いることなく、第2コンテンツ画像データを生成する。その結果、アバターAの特定動作及び上述した予備的動作が視認できない態様の仮想空間V(図6参照)を表現する第2コンテンツ画像データが生成される。すなわち、この例では、第2コンテンツ画像において、特定状況が検知された時点以降のアバターAの動作が表現されない。これにより、第1ユーザに提供される第1コンテンツ画像(アバターAの実際の動作が反映された画像)とは同期が取れていない第2コンテンツ画像(ここでは、特定状況が検知された時点でアバターAが停止している画像)が、第2ユーザに提供される。なお、仮想オブジェクト40が上述した非共有オブジェクトである場合、仮想オブジェクト40は、第2コンテンツ画像には表示されない。また、検知部12が第2の検知処理を実行する場合には、生成部13は、非共有オブジェクトが仮想空間内に発生してから仮想空間内から消滅するまでのアバターの動作情報を用いることなく、第2コンテンツ画像データを生成してもよい。この場合にも、図6に示されるように、ある時点(ここでは非共有オブジェクトが仮想空間内に発生した時点)でアバターが停止している画像が、第2ユーザ提供される。
 上述したように、特定状況が検知された時点でアバターAが停止している第2コンテンツ画像を第2ユーザに提供することにより、第2ユーザに対してアバターAの特定動作を隠すことができる。しかし、第2ユーザはアバターAが不自然に停止している状態を視認することになるため、第2ユーザに違和感を与えてしまい、仮想空間Vへの没入感を阻害してしまうおそれがある。そこで、生成部13は、以下の第2の生成処理を実行してもよい。
(第2の生成処理)
 第2の生成処理では、生成部13は、特定動作を覆い隠すオブジェクトが配置されたコンテンツ画像に関する第2コンテンツ画像データを生成する。当該オブジェクトは、少なくともアバターの特定動作に係る部分を覆い隠すオブジェクトである。例えば、当該第2コンテンツ画像データに係る第2コンテンツ画像は、ステップS2において取得された動作情報(特定動作情報を含む)に基づくアバターAの動作が表現されたコンテンツ画像に、モザイクオブジェクトを重畳表示させることによって得られる。この場合、サーバ10は、検知部12により特定状況が検知された場合に、当該特定動作を覆い隠すオブジェクトが配置された第2コンテンツ画像を、第2ユーザのユーザ端末30上に表示させることが可能となる。
 図7は、第2の生成処理で生成された第2コンテンツ画像データに係る第2コンテンツ画像について説明するための図である。図7の例では、アバターAの特定動作に係る部分(ここでは、手A1を含む領域)を覆い隠すように、略円形のモザイクオブジェクトMが重畳表示されている。この場合、第2ユーザに対して、違和感のない画像(アバターAが不自然に停止していない画像)を提供できると共に、モザイクオブジェクトMによってアバターAの特定動作に係る部分を第2ユーザに対して隠すことができる。ただし、第2の生成処理では、第2コンテンツ画像データにアバターAの動作情報(特定動作情報を含む)が含まれてしまうため、第2コンテンツ画像データを解析することにより特定動作の内容が第2ユーザに把握されてしまうおそれもある。そこで、生成部13は、上述した第1の生成処理及び第2の生成処理の長所を組み合わせた、以下の第3の生成処理を実行してもよい。
(第3の生成処理)
 第3の生成処理では、生成部13は、特定動作の代わりにダミー動作を行うアバターが表現されたコンテンツ画像に関する第2コンテンツ画像データを生成する。当該第2コンテンツデータは、第1の生成処理で生成される第2コンテンツデータと同様に、特定動作情報を含んでいない。具体的には、当該第2コンテンツデータは、実際にステップS2において取得された動作情報ではなく、ダミー動作を示すダミーの動作情報が含まれている。アバターのダミー動作は、例えば、予めサーバ10から参照可能な場所(例えば、コンテンツデータベースDB、補助記憶部103等)に記憶されている。この場合、サーバ10は、検知部12により特定状況が検知された場合に、特定動作の代わりにダミー動作を行うアバターが表現された第2コンテンツ画像を、第2ユーザのユーザ端末30上に表示させることが可能となる。
 図8は、第3の生成処理で生成された第2コンテンツ画像データに係る第2コンテンツ画像について説明するための図である。図8の例では、実際の動作(ここでは、図5に示される暗証番号の入力動作)の代わりにダミー動作(ここでは、アバターAが立ち止まった状態で飲料を飲む動作)を行うアバターAが表現されている。この場合、第2ユーザに対して、違和感のない画像を提供できると共に、アバターAの特定動作を第2ユーザに対して隠すことができる。さらに、第2コンテンツ画像データに特定動作情報が含まれないため、上述した第1の生成処理で生成される第2コンテンツ画像データと同様に、特定動作の秘匿性が効果的に確保される。
[効果]
 以上説明したように、本開示の一側面に係るコンテンツ配信システムは、仮想空間を表現するコンテンツを複数のユーザ端末に配信するコンテンツ配信システムであり、少なくとも一つのプロセッサを備える。少なくとも一つのプロセッサは、仮想空間内に配置される第1ユーザに対応するアバターの予め定められた特定動作であって、第1ユーザとは異なる第2ユーザに対して隠すべき特定動作が行われる特定状況を検知し、特定状況が検知された場合に、特定動作が視認できない態様で仮想空間を表現するコンテンツ画像を、第2ユーザのユーザ端末上に表示させる。
 本開示の一側面に係るコンテンツ配信方法は、少なくとも一つのプロセッサを備えるコンテンツ配信システムによって実行される。コンテンツ配信方法は、仮想空間内に配置される第1ユーザに対応するアバターの予め定められた特定動作であって、第1ユーザとは異なる第2ユーザに対して隠すべき特定動作が行われる特定状況を検知するステップと、特定状況が検知された場合に、特定動作が視認できない態様で仮想空間を表現するコンテンツ画像を、第2ユーザのユーザ端末上に表示させるステップと、を含む。
 本開示の一側面に係るコンテンツ配信プログラムは、仮想空間内に配置される第1ユーザに対応するアバターの予め定められた特定動作であって、第1ユーザとは異なる第2ユーザに対して隠すべき特定動作が行われる特定状況を検知するステップと、特定状況が検知された場合に、特定動作が視認できない態様で仮想空間を表現するコンテンツ画像を、第2ユーザのユーザ端末上に表示させるステップと、をコンピュータに実行させる。
 このような側面においては、第1ユーザから見た他ユーザ(第2ユーザ)に対して隠すべきアバターの特定動作が行われる特定状況が検知されたことに応じて、当該特定動作が視認できない態様で仮想空間を表現するコンテンツ画像(上記実施形態の第2コンテンツ画像)が第2ユーザに提供される。これにより、仮想空間内における第1ユーザのアバターの動作を状況に応じて適切に他のユーザに対して隠すことができる。すなわち、アバターの動作を他のユーザと共有するか否かに関する設定を第1ユーザに予め行わせることなく、他のユーザに対して隠す必要のないアバターの動作については、第2ユーザに提供されるコンテンツ画像に表示し、他のユーザに対して隠す必要のあるアバターの動作(特定動作)については、第2ユーザに提供されるコンテンツ画像に表示させないようにすることが可能となる。
 上記実施形態のように、特定動作が第1ユーザの機密情報(例えば、銀行、クレジットカード等のPINコード等)を仮想空間内で入力する動作である場合、このような動作が第2ユーザに対して秘匿されることにより、仮想空間内におけるセキュリティが的確に確保される。
 特定動作の他の例としては、例えばVR脱出ゲーム等において、第1ユーザがゲームで出題された問題に対して、仮想空間内の所定エリアで回答する場面(例えば、アバターを介して仮想空間内に配置されたホワイトボードを模した仮想オブジェクトに回答を記載したり、アバターの身振り等によって回答を提示したりする場面等)が考えられる。この場合、アバターを介した回答動作が、特定動作として予め定められてもよい。例えば、アバターが予め定められた仮想空間内の回答エリアに入った状態が検知されたことに応じて、特定状況が検知されてもよい。このような構成によれば、第1ユーザの回答内容が第2ユーザに見られてしまうことを適切に防止でき、コンテンツの娯楽性及び公平性が適切に確保される。
 特定動作の更に他の例としては、他者に見せるのにふさわしくない動作(例えば、他者を挑発するような下品なポーズをとる動作等)が考えられる。このような動作も、特定動作として予め定められてもよい。この場合、第1ユーザのアバターを介した不適切な動作が第2ユーザに提示されることが防止される。これにより、第2ユーザに不快感を与えることを防止することができる。
 コンテンツ配信システムでは、少なくとも一つのプロセッサは、仮想空間内におけるアバターの動作を規定する動作情報のうち、少なくとも特定動作を規定する特定動作情報を第2ユーザのユーザ端末に送信しなくてもよい。すなわち、例えば上記実施形態の第1の生成処理が実行されてもよい。この場合、第2ユーザのユーザ端末に送信されるデータに特定動作情報が含まれないことにより、特定動作の秘匿性を効果的に確保することができる。
 コンテンツ配信システムでは、少なくとも一つのプロセッサは、仮想空間内に配置された特定動作の対象となる特定オブジェクトの位置と仮想空間内におけるアバターの位置とに基づいて、特定オブジェクトから予め定められた距離範囲内にアバターが配置されている状態を検知し、当該状態が検知されたことに応じて、特定状況を検知してもよい。すなわち、例えば上記実施形態の第1の検知処理が実行されてもよい。この場合、特定オブジェクトの位置とアバターの位置とに基づいて、特定状況を容易に検知することができる。また、上記距離範囲(閾値)をある程度大きい値に設定することにより、アバターの特定動作が実際に開始される時点よりも前の時点に特定状況を検知することができる。これにより、特定動作の全体を第2ユーザに対して確実に秘匿することができる。
 コンテンツ配信システムでは、特定動作は、仮想空間内に配置された第1ユーザのみが視認可能な非共有オブジェクトに対するアバターによる操作を含んでもよい。また、少なくとも一つのプロセッサは、非共有オブジェクトが仮想空間内に発生したことに応じて、特定状況を検知してもよい。すなわち、例えば上記実施形態の第2の検知処理が実行されてもよい。この場合、非共有オブジェクトが仮想空間内に発生したこと(例えば、第1ユーザの操作に基づいて仮想空間内に生成されたこと)に応じて、特定状況を容易に検知することができる。また、非共有オブジェクトに対する実際の操作が開始される時点よりも前の時点に特定状況を検知することができるため、特定動作の全体を第2ユーザに対して確実に秘匿することができる。
 なお、上記実施形態(第2の検知処理)では、仮想オブジェクト40が非共有オブジェクトである場合を例示したが、非共有オブジェクトは、必ずしも現実の物体を模したものでなくてもよく、例えば第1ユーザのアバターの前に宙に浮いた状態で現れるウィンドウ等であってもよい。また、非共有オブジェクトは、他のユーザ(第2ユーザ)に対して秘匿すべき情報を入力するためのオブジェクトに限られない。そのような場合であっても、アバターを介した非共有オブジェクトに対する操作を特定動作として、第2ユーザに対して秘匿することにより、以下の効果が得られる。すなわち、第2ユーザから見て何もない空間(第1ユーザから見て非共有オブジェクトが配置された空間)に対して意味のわからない身振りを行っているように見えるアバターの動作を、第2ユーザに対して隠すことができる。その結果、第2ユーザに違和感を与えることを防止し、第2ユーザの仮想空間への没入感が阻害されることを防止することができる。
 コンテンツ配信システムでは、少なくとも一つのプロセッサは、第1ユーザのユーザ端末により取得されたアバターの動作を規定する動作情報と予め用意されたテンプレートとを比較することにより、特定動作を規定する動作情報を検知し、特定動作を規定する動作情報が検知されたことに応じて、特定状況を検知してもよい。すなわち、例えば上記実施形態の第3の検知処理が実行されてもよい。この場合、特定動作として検知したい対象となるアバターの動作(特定動作)に対応するテンプレートを予め用意しておくことにより、アバターの任意の動作を特定動作として検知できると共に、当該特定動作が行われる状況を特定状況として検知することが可能となる。
 コンテンツ配信システムでは、少なくとも一つのプロセッサは、特定状況が検知された場合に、特定動作の代わりにダミー動作を行うアバターが表現されたコンテンツ画像を、第2ユーザのユーザ端末上に表示させてもよい。すなわち、例えば上記実施形態の第3の生成処理が実行されてもよい。この場合、特定動作の秘匿性を確保しつつ、第2ユーザに対して違和感のないコンテンツ画像を提供することができる。
 コンテンツ配信システムでは、少なくとも一つのプロセッサは、特定状況が検知された場合に、特定動作を覆い隠すオブジェクトが配置されたコンテンツ画像を、第2ユーザのユーザ端末上に表示させてもよい。すなわち、例えば上記実施形態の第2の生成処理が実行されてもよい。この場合、特定動作を覆い隠すオブジェクトにより、特定動作の秘匿性を確保することができる。なお、特定動作を覆い隠すオブジェクトの態様は、上記実施形態で示したモザイクオブジェクトM(図7参照)に限られない。例えば、上記オブジェクトの形状は、円形に限られず、矩形状等の他の形状であってもよい。また、上記オブジェクトの模様は、モザイクに限られない。例えば、上記オブジェクトは、いわゆるニコちゃんマーク等の任意のキャラクター、又は星、ハート等の任意の装飾等を模した任意のオブジェクトによって構成されてもよい。
 [変形例]
 以上、本開示について、実施形態に基づいて詳細に説明した。しかし、本開示は、上記実施形態に限定されない。本開示は、その要旨を逸脱しない範囲で様々な変形が可能である。
 上記実施形態では、コンテンツ配信システム1がサーバ10を用いて構成されたが、コンテンツ配信システムは、サーバ10を用いないユーザ端末間の直接配信に適用されてもよい。この場合には、サーバ10の各機能要素は、いずれかのユーザ端末に実装されてもよく、複数のユーザ端末に分かれて実装されてもよい。これに関連して、コンテンツ配信プログラムはクライアントプログラムとして実現されてもよい。コンテンツ配信システムはサーバを用いて構成されてもよいし、サーバを用いることなく構成されてもよい。
 また、上述したサーバ10の機能の一部は、ユーザ端末20,30で実行されてもよい。例えば、サーバ10の検知部12の処理はユーザ端末20で実行されてもよい。この場合、ユーザ端末20の送信部22は、アバターの特定動作に関する特定動作情報が除外された動作情報をサーバ10に送信してもよい。このような構成によっても、上述したコンテンツ配信システム1と同様の効果が奏される。
 本開示において、「少なくとも一つのプロセッサが、第1の処理を実行し、第2の処理を実行し、…第nの処理を実行する。」との表現、又はこれに対応する表現は、第1の処理から第nの処理までのn個の処理の実行主体(すなわちプロセッサ)が途中で変わる場合を含む概念である。すなわち、この表現は、n個の処理のすべてが同じプロセッサで実行される場合と、n個の処理においてプロセッサが任意の方針で変わる場合との双方を含む概念である。
 少なくとも一つのプロセッサにより実行される方法の処理手順は上記実施形態での例に限定されない。例えば、上述したステップ(処理)の一部が省略されてもよいし、別の順序で各ステップが実行されてもよい。また、上述したステップのうちの任意の2以上のステップが組み合わされてもよいし、ステップの一部が修正又は削除されてもよい。あるいは、上記の各ステップに加えて他のステップが実行されてもよい。
 1…コンテンツ配信システム、10…サーバ、11…受信部、12…検知部、13…生成部、14…送信部、20,30…ユーザ端末、21…取得部、22…送信部、23…受信部、24…表示制御部、40…仮想オブジェクト(特定オブジェクト、非共有オブジェクト)、101…プロセッサ、A…アバター、DB…コンテンツデータベース、P1…サーバプログラム、P2…クライアントプログラム、V…仮想空間。

Claims (10)

  1.  仮想空間を表現するコンテンツを複数のユーザ端末に配信するコンテンツ配信システムであって、
     少なくとも一つのプロセッサを備え、
     前記少なくとも一つのプロセッサは、
      前記仮想空間内に配置される第1ユーザに対応するアバターの予め定められた特定動作であって、前記第1ユーザとは異なる第2ユーザに対して隠すべき前記特定動作が行われる特定状況を検知し、
      前記特定状況が検知された場合に、前記特定動作が視認できない態様で前記仮想空間を表現するコンテンツ画像を、前記第2ユーザのユーザ端末上に表示させる、コンテンツ配信システム。
  2.  前記少なくとも一つのプロセッサは、前記仮想空間内における前記アバターの動作を規定する動作情報のうち、少なくとも前記特定動作を規定する特定動作情報を前記第2ユーザのユーザ端末に送信しない、
    請求項1に記載のコンテンツ配信システム。
  3.  前記少なくとも一つのプロセッサは、
      前記仮想空間内に配置された前記特定動作の対象となる特定オブジェクトの位置と前記仮想空間内における前記アバターの位置とに基づいて、前記特定オブジェクトから予め定められた距離範囲内に前記アバターが配置されている状態を検知し、
      前記状態が検知されたことに応じて、前記特定状況を検知する、
    請求項1又は2に記載のコンテンツ配信システム。
  4.  前記特定動作は、前記仮想空間内に配置された前記第1ユーザのみが視認可能な非共有オブジェクトに対する前記アバターによる操作を含む、
    請求項1~3のいずれか一項に記載のコンテンツ配信システム。
  5.  前記少なくとも一つのプロセッサは、前記非共有オブジェクトが前記仮想空間内に発生したことに応じて、前記特定状況を検知する、
    請求項4に記載のコンテンツ配信システム。
  6.  前記少なくとも一つのプロセッサは、
      前記第1ユーザのユーザ端末により取得された前記アバターの動作を規定する動作情報と予め用意されたテンプレートとを比較することにより、前記特定動作を規定する前記動作情報を検知し、
      前記特定動作を規定する前記動作情報が検知されたことに応じて、前記特定状況を検知する、
    請求項1~5のいずれか一項に記載のコンテンツ配信システム。
  7.  前記少なくとも一つのプロセッサは、前記特定状況が検知された場合に、前記特定動作の代わりにダミー動作を行う前記アバターが表現された前記コンテンツ画像を、前記第2ユーザのユーザ端末上に表示させる、
    請求項1~6のいずれか一項に記載のコンテンツ配信システム。
  8.  前記少なくとも一つのプロセッサは、前記特定状況が検知された場合に、前記特定動作を覆い隠すオブジェクトが配置された前記コンテンツ画像を、前記第2ユーザのユーザ端末上に表示させる、
    請求項1~6のいずれか一項に記載のコンテンツ配信システム。
  9.  少なくとも一つのプロセッサを備えるコンテンツ配信システムによって実行されるコンテンツ配信方法であって、
     仮想空間内に配置される第1ユーザに対応するアバターの予め定められた特定動作であって、前記第1ユーザとは異なる第2ユーザに対して隠すべき前記特定動作が行われる特定状況を検知するステップと、
     前記特定状況が検知された場合に、前記特定動作が視認できない態様で前記仮想空間を表現するコンテンツ画像を、前記第2ユーザのユーザ端末上に表示させるステップと、
    を含むコンテンツ配信方法。
  10.  仮想空間内に配置される第1ユーザに対応するアバターの予め定められた特定動作であって、前記第1ユーザとは異なる第2ユーザに対して隠すべき前記特定動作が行われる特定状況を検知するステップと、
     前記特定状況が検知された場合に、前記特定動作が視認できない態様で前記仮想空間を表現するコンテンツ画像を、前記第2ユーザのユーザ端末上に表示させるステップと、
    をコンピュータに実行させるコンテンツ配信プログラム。
PCT/JP2020/036969 2019-09-30 2020-09-29 コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム WO2021065928A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202080060677.8A CN115176239A (zh) 2019-09-30 2020-09-29 内容发布系统、内容发布方法及内容发布程序
US17/668,293 US20220270302A1 (en) 2019-09-30 2022-02-09 Content distribution system, content distribution method, and content distribution program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019180710A JP6737942B1 (ja) 2019-09-30 2019-09-30 コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP2019-180710 2019-09-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/668,293 Continuation US20220270302A1 (en) 2019-09-30 2022-02-09 Content distribution system, content distribution method, and content distribution program

Publications (1)

Publication Number Publication Date
WO2021065928A1 true WO2021065928A1 (ja) 2021-04-08

Family

ID=71949390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/036969 WO2021065928A1 (ja) 2019-09-30 2020-09-29 コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム

Country Status (4)

Country Link
US (1) US20220270302A1 (ja)
JP (1) JP6737942B1 (ja)
CN (1) CN115176239A (ja)
WO (1) WO2021065928A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3069738B1 (en) 2015-03-18 2020-12-23 Abiomed Europe GmbH Blood pump
JP2023056109A (ja) 2021-10-07 2023-04-19 トヨタ自動車株式会社 仮想空間制御システム、その制御方法、及び、制御プログラム
JP7340207B2 (ja) * 2021-10-29 2023-09-07 グリー株式会社 情報処理システム、情報処理方法およびコンピュータプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014657A (ja) * 2010-07-05 2012-01-19 Canon Inc 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
WO2017002473A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017102897A (ja) * 2016-09-20 2017-06-08 株式会社コロプラ アバター表示システム、ユーザ端末、及びプログラム
JP2019155062A (ja) * 2018-10-17 2019-09-19 株式会社コナミデジタルエンタテインメント 表示システム、表示制御装置、及びプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8628414B2 (en) * 2006-07-14 2014-01-14 Valve Corporation Enhanced commentary system for 3D computer entertainment
US20090234948A1 (en) * 2008-03-11 2009-09-17 Garbow Zachary A Using Multiple Servers to Divide a Virtual World
US9610502B2 (en) * 2009-07-10 2017-04-04 International Business Machines Corporation Use of real time location information for user authentication and authorization in virtual environments
US9129333B2 (en) * 2010-06-22 2015-09-08 Nokia Corporation Method and apparatus for managing location-based transactions
US20160134840A1 (en) * 2014-07-28 2016-05-12 Alexa Margaret McCulloch Avatar-Mediated Telepresence Systems with Enhanced Filtering
EP3435864A4 (en) * 2016-03-31 2019-09-18 Zoll Medical Corporation SYSTEMS AND METHODS FOR MONITORING THE MOVEMENT OF A PATIENT
US9813667B1 (en) * 2016-04-20 2017-11-07 Disney Enterprises, Inc. System and method for providing co-delivery of content

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012014657A (ja) * 2010-07-05 2012-01-19 Canon Inc 画像表示装置及びその制御方法、並びにプログラム及び記憶媒体
WO2017002473A1 (ja) * 2015-06-30 2017-01-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
JP2017102897A (ja) * 2016-09-20 2017-06-08 株式会社コロプラ アバター表示システム、ユーザ端末、及びプログラム
JP2019155062A (ja) * 2018-10-17 2019-09-19 株式会社コナミデジタルエンタテインメント 表示システム、表示制御装置、及びプログラム

Also Published As

Publication number Publication date
US20220270302A1 (en) 2022-08-25
JP2021056884A (ja) 2021-04-08
CN115176239A (zh) 2022-10-11
JP6737942B1 (ja) 2020-08-12

Similar Documents

Publication Publication Date Title
WO2021065928A1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
EP3458937B1 (en) Co-presence handling in virtual reality
EP3117290B1 (en) Interactive information display
CN111246232A (zh) 直播互动方法、装置、电子设备及存储介质
US11423627B2 (en) Systems and methods for providing real-time composite video from multiple source devices featuring augmented reality elements
US10037077B2 (en) Systems and methods of generating augmented reality experiences
US20160320833A1 (en) Location-based system for sharing augmented reality content
US11900520B1 (en) Specifying effects for entering or exiting a computer-generated reality environment
JP7319172B2 (ja) 画像処理装置、画像処理方法及び画像処理システム
JP2021002288A (ja) 画像処理装置、コンテンツ処理システム、および画像処理方法
US20220254125A1 (en) Device Views and Controls
JP7300925B2 (ja) キャラクタを使ったライブ通信システム
JP7291106B2 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
CN107408186A (zh) 隐私内容的显示
US11961190B2 (en) Content distribution system, content distribution method, and content distribution program
JP6609078B1 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
CN117590935A (zh) 二维界面与人工现实界面之间的人工现实环境中视角共享
GB2525304B (en) Interactive information display
TWI839830B (zh) 混合現實交互方法、裝置、電子設備及介質
JP7344084B2 (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
JP6794562B1 (ja) コンテンツ配信システム、コンテンツ配信方法及びコンテンツ配信プログラム
JP7011746B1 (ja) コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
JP2020167654A (ja) コンテンツ配信システム、コンテンツ配信方法、およびコンテンツ配信プログラム
CN116999816A (zh) 交互控制方法、装置、计算机设备及存储介质
CN116635899A (zh) 内容提供系统、内容提供方法以及内容提供程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20872767

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20872767

Country of ref document: EP

Kind code of ref document: A1