WO2024070085A1 - 仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法 - Google Patents
仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法 Download PDFInfo
- Publication number
- WO2024070085A1 WO2024070085A1 PCT/JP2023/023221 JP2023023221W WO2024070085A1 WO 2024070085 A1 WO2024070085 A1 WO 2024070085A1 JP 2023023221 W JP2023023221 W JP 2023023221W WO 2024070085 A1 WO2024070085 A1 WO 2024070085A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- user
- client terminal
- virtual space
- audio
- face
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 10
- 230000001815 facial effect Effects 0.000 claims abstract description 33
- 230000009471 action Effects 0.000 claims description 102
- 230000009467 reduction Effects 0.000 claims description 11
- 238000010586 diagram Methods 0.000 description 24
- 230000006870 function Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 11
- 210000005069 ears Anatomy 0.000 description 8
- 230000003247 decreasing effect Effects 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 2
- 210000000744 eyelid Anatomy 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000008921 facial expression Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
Definitions
- the present invention relates to a virtual space interface device, a client terminal, a program, and a virtual space interface control method.
- Patent Literature 1 describes a virtual space providing device that provides a virtual space to a client computer connected via a communication network.
- a virtual space providing system includes a virtual space providing device and a client device as a client computer, that avatars and the like are placed in the virtual space, that the virtual space providing device is configured as a server, and that the virtual space is displayed on the client device.
- an operation unit input devices such as a keyboard switch and a pointing device
- an operation unit input devices such as a keyboard switch and a pointing device
- a client device is used to, for example, move a user's avatar in a virtual space, change the avatar's facial expression, change the avatar's posture, etc. Therefore, in the technology described in Patent Document 1, only a user who is skilled in using the operation unit can master the virtual space providing system, and convenience for users cannot be improved.
- Patent document 2 describes how the camera captures an image of the user's face, how the image is used to determine the proximity of the user's face to the camera, and how the relative position of the device (camera) to the user's face is used to control zoom-in and zoom-out functions.
- the information that can be input is limited (i.e., the amount of information that can be input is small). Therefore, even if the technology described in Patent Document 2 is applied to the technology described in Patent Document 1, the convenience of the user of the virtual space providing system described in Patent Document 1 cannot be improved.
- the present invention aims to provide a virtual space interface device, a client terminal, a program, and a virtual space interface control method that can improve the convenience of users of a virtual space provision system.
- One aspect of the present invention is a virtual space interface device provided in a virtual space providing system having at least a client terminal used by a user, the client terminal having a display device that displays an image showing a situation in the virtual space, an audio output device that outputs audio within the virtual space, a sound collection device that collects audio emitted by the user, and an image capture device that captures an image of the user's face, the virtual space interface device having a display data generation unit that generates display data for displaying an image showing the situation in the virtual space on the display device of the client terminal, and an audio data generation unit that generates audio data for outputting the audio within the virtual space to the audio output device of the client terminal, the audio data generation unit generating audio data for outputting the audio emitted by the user that is collected by the sound collection device of the client terminal, A virtual space interface device that generates audio data to be output into the virtual space, and the display data generation unit and the audio data generation unit control at least one of the display data for displaying an image showing the situation in the virtual space on the
- One aspect of the present invention is a client terminal provided in a virtual space providing system having a virtual space interface device and used by a user, the client terminal comprising a display device that displays an image showing a situation in the virtual space, an audio output device that outputs audio within the virtual space, a sound collection device that collects audio emitted by the user, and an image capture device that captures an image of the user's face, the display device displays an image showing the situation in the virtual space based on display data generated by a display data generation unit of the virtual space interface device, the audio output device outputs audio within the virtual space based on audio data generated by an audio data generation unit of the virtual space interface device, and the audio data generation unit of the virtual space interface device outputs the audio emitted by the user that is collected by the sound collection device.
- the display data generating unit and the audio data generating unit of the virtual space interface device control at least one of the display data for displaying an image showing the situation in the virtual space on the display device, the audio data for outputting audio in the virtual space to the audio output device, and the audio data for outputting the audio uttered by the user into the virtual space, as a control object based on a gesture of positioning a hand on the face area of the user photographed by the photographing device and the positional relationship between the photographing device and the user's face, and the display data generating unit and the audio data generating unit of the virtual space interface device vary the control object depending on the part of the face area where the user positions his or her hand.
- One aspect of the present invention is a program provided in a virtual space providing system including a virtual space interface device, for causing a computer constituting a client terminal used by a user to execute a display step of displaying an image showing the situation in the virtual space, an audio output step of outputting audio within the virtual space, an audio collection step of collecting audio emitted by the user, and an image capture step of capturing an image of the user's face, wherein in the display step, an image showing the situation in the virtual space is displayed based on display data generated by a display data generation unit of the virtual space interface device, and in the audio output step, audio within the virtual space is output based on audio data generated by an audio data generation unit of the virtual space interface device, and the audio data generation unit of the virtual space interface device outputs the audio collected in the audio collection step.
- a program that generates audio data for outputting a voice uttered by a user into the virtual space and the display data generation unit and the audio data generation unit of the virtual space interface device control at least one of the display data for displaying an image showing the situation in the virtual space on the display device of the client terminal, the audio data for outputting audio in the virtual space to the audio output device of the client terminal, and the audio data for outputting the voice uttered by the user into the virtual space, as control objects based on a gesture of positioning a hand on the face area of the user photographed in the photographing step and the positional relationship between the photographing device of the client terminal and the face of the user, and the display data generation unit and the audio data generation unit of the virtual space interface device vary the control object depending on the part of the face area where the user positions his or her hand.
- One aspect of the present invention is a virtual space interface device provided in a virtual space provision system that includes at least a client terminal used by a user, the client terminal including a display device that displays an image showing the situation in the virtual space and a photographing device that photographs an image of the user's face, the virtual space interface device including a display data generation unit that generates display data for displaying the image showing the situation in the virtual space on the display device of the client terminal, the display data generation unit controlling the display data for displaying the image showing the situation in the virtual space on the display device of the client terminal as a control target, based on a gesture of positioning a hand over the area of the user's face photographed by the photographing device of the client terminal and the positional relationship between the photographing device of the client terminal and the face of the user.
- One aspect of the present invention is a virtual space interface device provided in a virtual space providing system having at least a client terminal used by a user, the client terminal having an audio output device that outputs audio in the virtual space, an audio pickup device that picks up audio emitted by the user, and an image capture device that captures an image of the user's face, the virtual space interface device having an audio data generation unit that generates audio data for outputting the audio in the virtual space to the audio output device of the client terminal, the audio data generation unit generates audio data for outputting the audio emitted by the user picked up by the audio pickup device of the client terminal into the virtual space, the audio data generation unit controls at least one of the audio data for outputting the audio in the virtual space to the audio output device of the client terminal and the audio data for outputting the audio emitted by the user into the virtual space as a control target based on a gesture of positioning a hand on the face area of the user photographed by the image capture device of the client terminal and the positional relationship between the image capture device of the client terminal and the
- One aspect of the present invention is a virtual space interface control method for controlling a virtual space provision system having at least a client terminal used by a user, in which a computer generates display data for displaying an image showing a situation in a virtual space on a display device of the client terminal, the computer generates first audio data for outputting into the virtual space a sound emitted by the user that is picked up by an audio pickup device of the client terminal, the computer generates second audio data for outputting the sound in the virtual space to an audio output device of the client terminal, and the computer controls at least one of the display data, the first audio data, and the second audio data to be different depending on the part of the face area where the user places his or her hand, based on a gesture of placing a hand on the face area of the user photographed by an imaging device of the client terminal and the positional relationship between the imaging device of the client terminal and the face of the user.
- the present invention provides a virtual space interface device, a client terminal, and a program that can improve the convenience of users of a virtual space provision system.
- FIG. 1 is a diagram showing an example of a virtual space providing system 1 to which a virtual space interface device 12X according to a first embodiment is applied.
- 11A is a diagram showing an example of an image showing a situation in a virtual space displayed by a display device 11A of a client terminal 11 based on display data for a first client terminal generated by a display data generating unit 12A.
- FIG. 13 is a diagram illustrating an example of an action in which the first user UR1 places his/her hand on the first user UR1's eye.
- FIG. 13 is a diagram showing an example in which a first user UR1 brings his/her face closer to an image capturing device 11D of a client terminal 11.
- FIG. 13 is a diagram showing an example in which the first user UR1 moves his/her face away from the photographing device 11D of the client terminal 11.
- FIG. 3 is a diagram showing an enlarged image obtained by enlarging the image showing the situation in the virtual space shown in FIG. 2, which is displayed on the display device 11A of the client terminal 11.
- FIG. 3 is a diagram showing a reduced image obtained by reducing the image showing the situation in the virtual space shown in FIG. 2 and displayed on the display device 11A of the client terminal 11.
- FIG. 13 is a diagram showing an example in which the first user UR1 turns his/her face to the left of the image capturing device 11D of the client terminal 11.
- FIG. 13 is a diagram showing an example in which the first user UR1 turns his/her face to the right of the image capturing device 11D of the client terminal 11.
- FIG. 3 is a diagram showing an image obtained by moving the left part of the image showing the situation in the virtual space shown in FIG. 2, which is displayed on the display device 11A of the client terminal 11, to the center.
- FIG. 3 is a diagram showing an image obtained by moving the right side portion of the image showing the situation in the virtual space shown in FIG. 2, which is displayed on the display device 11A of the client terminal 11, to the center.
- FIG. 13 is a diagram for explaining an example of an action in which the second user UR2 places the hand of the second user UR2 on the ear of the second user UR2.
- FIG. 13 is a diagram illustrating an example of an action in which a third user UR3 places his/her hand over his/her mouth.
- FIG. 10 is a flowchart illustrating an example of processing executed by the virtual space interface device 12X of the first embodiment.
- FIG. 11 is a diagram showing an example of a virtual space providing system 2 to which a virtual space interface device 21E according to a second embodiment is applied.
- 13 is a flowchart illustrating an example of processing executed by a virtual space interface device 21E of the second embodiment.
- FIG. 1 is a diagram showing an example of a virtual space providing system 1 to which a virtual space interface device 12X according to a first embodiment is applied.
- the virtual space provision system 1 includes client terminals 11, 11-2, 11-3, and 11-4, and a virtual space provision server 12.
- the client terminals 11, 11-2, 11-3, and 11-4 and the virtual space provision server 12 are connected to each other via a network NW such as the Internet.
- the virtual space providing system 1 includes four client terminals 11, 11-2, 11-3, and 11-4, but in other examples, the virtual space providing system 1 may include any number of client terminals other than 4. In other words, the number of client terminals included in the virtual space providing system 1 may be one.
- the client terminal 11 is used by, for example, a first user UR1 (see FIG. 3).
- the client terminal 11 includes a display device 11A, an audio output device 11B, a sound collection device 11C, and an image capture device 11D.
- the display device 11A displays an image (see FIG. 2) showing the situation in the virtual space based on display data provided by the virtual space providing server 12 via the network NW.
- the display device 11A is equipped with, for example, a display.
- the audio output device 11B outputs audio in the virtual space based on audio data provided by the virtual space providing server 12 via the network NW.
- the audio output device 11B is equipped with, for example, a speaker.
- the sound collection device 11C collects audio emitted by the first user UR1.
- the sound collection device 11C is equipped with, for example, a microphone.
- the imaging device 11D captures a facial image of the first user UR1.
- the imaging device 11D is equipped with, for example, a camera.
- the client terminal 11-2 is used, for example, by a second user UR2 (see FIG. 8) different from the first user UR1.
- the client terminal 11-3 is used, for example, by a third user UR3 (see FIG. 9) different from the first user UR1 and the second user UR2.
- the client terminal 11-4 is used, for example, by a fourth user different from the first user UR1, the second user UR2, and the third user UR3.
- each of the client terminals 11-2, 11-3, and 11-4 has the same configuration as the client terminal 11. That is, each of the client terminals 11-2, 11-3, and 11-4 includes a display device 11A, an audio output device 11B, a sound collection device 11C, and an image capture device 11D.
- the sound collection device 11C of the client terminal 11-2 collects the sound emitted by the second user UR2.
- the image capture device 11D of the client terminal 11-2 captures a facial image of the second user UR2.
- the sound collection device 11C of the client terminal 11-3 collects the sound emitted by the third user UR3.
- the image capture device 11D of the client terminal 11-3 captures a facial image of the third user UR3.
- the sound collection device 11C of the client terminal 11-4 collects the sound emitted by the fourth user.
- the image capture device 11D of the client terminal 11-4 captures a facial image of the fourth user.
- the configuration of client terminal 11 may be different from the configuration of client terminal 11-2, the configuration of client terminal 11-3, and the configuration of client terminal 11-4, or the configuration of any one of client terminals 11, 11-2, 11-3, and 11-4 may be different from the configuration of the remaining client terminals.
- the virtual space providing server 12 provides a virtual space by providing display data and audio data to the client terminals 11, 11-2, 11-3, and 11-4.
- the virtual space providing server 12 includes a virtual space interface device 12X and a processing device 12Y.
- the virtual space interface device 12X includes a display data generation unit 12A and an audio data generation unit 12B.
- the display data generating unit 12A generates display data for displaying an image showing the situation in the virtual space on the display device 11A of the client terminals 11, 11-2, 11-3, and 11-4. That is, the display data generating unit 12A generates display data for displaying an image showing the situation in the virtual space (see FIG. 2) on the display device 11A of the client terminal 11, display data for displaying the image showing the situation in the virtual space on the display device 11A of the client terminal 11-2, display data for displaying the image showing the situation in the virtual space on the display device 11A of the client terminal 11-3, and display data for displaying the image showing the situation in the virtual space on the display device 11A of the client terminal 11-4.
- the display data generating unit 12A generates a first avatar AT1 (see FIG. 2) located in a virtual space based on a facial image (see FIG. 3) of a first user UR1 captured by the image capturing device 11D of the client terminal 11.
- the display data generating unit 12A generates a second avatar AT2 (see FIG. 2) located in a virtual space based on a facial image (see FIG. 8) of a second user UR2 captured by the image capturing device 11D of the client terminal 11-2, generates a third avatar AT3 (see FIG. 2) located in a virtual space based on a facial image (see FIG.
- the display data generating unit 12A may generate the first avatar AT1 based on a recorded image that is different from the facial image of the first user UR1.
- the first avatar AT1 generated by the display data generating unit 12A may be an illustration, CG (computer graphics), or the like.
- the processing device 12Y has the function of including, for example, illustrations, CG or other background images, object images, avatar images, etc. in an image showing the situation in the virtual space (i.e., an image displayed by the display device 11A of the client terminals 11, 11-2, 11-3, and 11-4).
- the display data generation unit 12A generates display data for the first client terminal to display an image including a first avatar AT1, a second avatar AT2, a third avatar AT3 and a fourth avatar AT4 (see Figure 2) on the display device 11A of the client terminal 11 as an image showing the situation in a virtual space.
- the display data generation unit 12A generates display data for a second client terminal for displaying an image including the first avatar AT1, the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 on the display device 11A of the client terminal 11-2 as an image showing the situation in the virtual space, generates display data for a third client terminal for displaying an image including the first avatar AT1, the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 on the display device 11A of the client terminal 11-3 as an image showing the situation in the virtual space, and generates display data for a fourth client terminal for displaying an image including the first avatar AT1, the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 on the display device 11A of the client terminal 11-4 as an image showing the situation in the virtual space.
- the "image showing the situation in a virtual space" shown, for example, in the display data for the first client terminal generated by the display data generation unit 12A may include a background image, other objects other than the avatars, etc. in addition to the first avatar AT1 to the fourth avatar AT4, or instead of the first avatar AT1 to the fourth avatar AT4.
- the "image showing the situation in the virtual space” does not include the first avatar AT1 to the fourth avatar AT4
- the video and audio that the user can view at specific coordinates in the virtual space is acquired and output on the terminal (client terminal 11, 11-2, 11-3, 11-4), and the user does not need to be linked to any object.
- FIG. 2 is a diagram showing an example of an image showing a situation in a virtual space displayed by the display device 11A of the client terminal 11 based on the display data for the first client terminal generated by the display data generating unit 12A.
- an image showing the situation in a virtual space displayed by the display device 11A of the client terminal 11 based on the display data for the first client terminal generated by the display data generation unit 12A includes a first avatar AT1 corresponding to a first user UR1 using the client terminal 11, a second avatar AT2 corresponding to a second user UR2 using the client terminal 11-2, a third avatar AT3 corresponding to a third user UR3 using the client terminal 11-3, and a fourth avatar AT4 corresponding to a fourth user using the client terminal 11-4.
- the display data generation unit 12A of the virtual space interface device 12X generates display data for the first client terminal so that the first avatar AT1 generated based on the facial image of the first user UR1 using the client terminal 11 is positioned at the forefront within the virtual space (the virtual space shown in Figure 2) displayed by the display device 11A of the client terminal 11.
- the display data generation unit 12A of the virtual space interface device 12X generates display data for the first client terminal so that, in the virtual space (virtual space shown in FIG.
- a second avatar AT2 corresponding to a second user UR2 using client terminal 11-2 is located to the left of the first avatar AT1
- a third avatar AT3 corresponding to a third user UR3 using client terminal 11-3 is located to the right of the first avatar AT1
- a fourth avatar AT4 corresponding to a fourth user using client terminal 11-4 is located in front of the first avatar AT1.
- the image showing the situation in the virtual space displayed by the display device 11A of the client terminal 11 may not include the first avatar AT1 corresponding to the first user UR1 using the client terminal 11.
- an image showing the situation in the virtual space as seen from the viewpoint of the first avatar AT1 i.e., the viewpoint of the first user UR1
- an image including the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 is displayed by the display device 11A of the client terminal 11.
- the position of a first avatar AT1 or the like in a virtual space may be controlled by a controller (not shown).
- the display data generation unit 12A of the virtual space interface device 12X generates display data for the second client terminal so that a second avatar AT2 generated based on a facial image of a second user UR2 using the client terminal 11-2 is positioned at the forefront in the virtual space displayed by the display device 11A of the client terminal 11-2.
- the display data generation unit 12A of the virtual space interface device 12X generates display data for the second client terminal so that, in the virtual space displayed by the display device 11A of the client terminal 11-2, a fourth avatar AT4 corresponding to a fourth user using the client terminal 11-4 is located to the left of the second avatar AT2, a first avatar AT1 corresponding to a first user UR1 using the client terminal 11 is located to the right of the second avatar AT2, and a third avatar AT3 corresponding to a third user UR3 using the client terminal 11-3 is located in front of the second avatar AT2.
- the display data generation unit 12A of the virtual space interface device 12X generates display data for the third client terminal so that a third avatar AT3 generated based on a facial image of a third user UR3 using the client terminal 11-3 is positioned at the forefront in the virtual space displayed by the display device 11A of the client terminal 11-3.
- the display data generation unit 12A of the virtual space interface device 12X generates display data for the third client terminal so that, in the virtual space displayed by the display device 11A of the client terminal 11-3, the first avatar AT1 corresponding to the first user UR1 using the client terminal 11 is located to the left of the third avatar AT3, the fourth avatar AT4 corresponding to the fourth user using the client terminal 11-4 is located to the right of the third avatar AT3, and the second avatar AT2 corresponding to the second user UR2 using the client terminal 11-2 is located in front of the third avatar AT3.
- the display data generation unit 12A of the virtual space interface device 12X generates display data for the fourth client terminal so that a fourth avatar AT4 generated based on a facial image of a fourth user using the client terminal 11-4 is positioned at the forefront in the virtual space displayed by the display device 11A of the client terminal 11-4.
- the display data generation unit 12A of the virtual space interface device 12X generates display data for the fourth client terminal so that, in the virtual space displayed by the display device 11A of the client terminal 11-4, the third avatar AT3 corresponding to the third user UR3 using the client terminal 11-3 is located to the left of the fourth avatar AT4, the second avatar AT2 corresponding to the second user UR2 using the client terminal 11-2 is located to the right of the fourth avatar AT4, and the first avatar AT1 corresponding to the first user UR1 using the client terminal 11 is located in front of the fourth avatar AT4.
- FIG. 3 is a diagram for explaining an example of the action of the first user UR1 placing the hand of the first user UR1 on the eye of the first user UR1.
- FIG. 4 is a diagram for explaining an example of the first user UR1 changing the distance between the camera 11D of the client terminal 11 and the face of the first user UR1.
- FIG. 4A shows an example of the first user UR1 moving the face of the first user UR1 closer to the camera 11D of the client terminal 11
- FIG. 4B shows an example of the first user UR1 moving the face of the first user UR1 away from the camera 11D of the client terminal 11.
- FIG. 5 is a diagram for explaining a first example of control performed by the display data generating unit 12A of the virtual space interface device 12X.
- FIG. 5A shows an enlarged image obtained by enlarging the image showing the situation in the virtual space shown in FIG. 2 displayed by the display device 11A of the client terminal 11
- FIG. 5B shows a reduced image obtained by reducing the image showing the situation in the virtual space shown in FIG. 2 displayed by the display device 11A of the client terminal 11.
- the display data generating unit 12A of the virtual space interface device 12X controls the enlargement and/or reduction of an image (see Fig. 2) showing a situation in a virtual space displayed by the display device 11A of the client terminal 11 based on an action of the first user UR1 placing his/her hand on the eye of the first user UR1 photographed by the photographing device 11D of the client terminal 11 (see Fig. 3) and a distance between the photographing device 11D of the client terminal 11 and the face of the first user UR1 (see Fig. 4).
- Controlling the enlargement and/or reduction of an image means that the display data generating unit 12A has both a function of enlarging an image showing a situation in a virtual space displayed by the display device 11A of the client terminal 11 and a function of reducing an image showing a situation in a virtual space displayed by the display device 11A of the client terminal 11, for example.
- the display data generating unit 12A executes control to enlarge, for example, an image showing a situation in a virtual space displayed by the display device 11A of the client terminal 11.
- the display data generating unit 12A executes control to reduce, for example, an image showing a situation in a virtual space displayed by the display device 11A of the client terminal 11. Specifically, when the first user UR1, who is photographed by the photographing device 11D of the client terminal 11, places his/her hand over the first user UR1's eye (see FIG. 3) and moves the face of the first user UR1 closer to the photographing device 11D of the client terminal 11 (see FIG.
- the display data generation unit 12A of the virtual space interface device 12X executes control to enlarge an image showing the situation in the virtual space (see FIG. 2) displayed by the display device 11A of the client terminal 11, and generates display data for the first client terminal to display the enlarged image shown in FIG. 5A on the display device 11A of the client terminal 11.
- the display data generation unit 12A of the virtual space interface device 12X executes control to reduce an image showing the situation in the virtual space (see Figure 2) displayed by the display device 11A of the client terminal 11, and generates display data for the first client terminal to display the reduced image shown in Figure 5B on the display device 11A of the client terminal 11.
- the display data generating unit 12A of the virtual space interface device 12X determines whether or not the first user UR1 has placed his/her hand on the first user UR1's eye (see Figure 3) based on the facial image of the first user UR1 captured by the photographing device 11D of the client terminal 11.
- the display data generating unit 12A of the virtual space interface device 12X may determine whether or not the first user UR1 has placed his/her hand on the first user UR1's eye based on the facial image of the first user UR1 captured by the photographing device 11D of the client terminal 11 by using a conventional technology related to gesture recognition that is publicly known up to now, for example, in a manner similar to the method described in paragraph 0041 of Patent Document 3.
- the "action of the first user UR1 placing the hand of the first user UR1 on the eye of the first user UR1" includes, for example, an action in which the first user UR1 touches the eyelids of the first user UR1 with the hand of the first user UR1, an action in which the first user UR1 does not touch the eyelids of the first user UR1 with the hand of the first user UR1 but brings the hand of the first user UR1 closest to the eye area of the entire face of the first user UR1, and the like.
- an action in which the first user UR1 does not touch the face of the first user UR1 with the hand of the first user UR1 can also be considered as the "action of the first user UR1 placing the hand of the first user UR1 on the eye of the first user UR1".
- the display data generation unit 12A of the virtual space interface device 12X determines, based on the facial image of the first user UR1 captured by the photographing device 11D of the client terminal 11, whether or not the first user UR1 has performed an action of bringing the face of the first user UR1 closer to the photographing device 11D of the client terminal 11 (see Figure 4A), or whether or not the first user UR1 has performed an action of moving the face of the first user UR1 away from the photographing device 11D of the client terminal 11 (see Figure 4B).
- the display data generation unit 12A of the virtual space interface device 12X may determine, based on the distance between, for example, two feature points on the facial image of the first user UR1 captured by the photographing device 11D of the client terminal 11 at a first time and the distance between those feature points on the facial image of the first user UR1 captured by the photographing device 11D of the client terminal 11 at a second time, whether or not the first user UR1 has taken an action to bring the face of the first user UR1 closer to the photographing device 11D of the client terminal 11, whether or not the first user UR1 has taken an action to move the face of the first user UR1 away from the photographing device 11D of the client terminal 11, etc., as described in Patent Document 4.
- the display data generation unit 12A of the virtual space interface device 12X may use a known camera distance measurement technique to determine, based on the facial image of the first user UR1 captured by the photographing device 11D of the client terminal 11, whether or not the first user UR1 has performed an action to bring the face of the first user UR1 closer to the photographing device 11D of the client terminal 11 (see Figure 4A), or whether or not the first user UR1 has performed an action to move the face of the first user UR1 away from the photographing device 11D of the client terminal 11 (see Figure 4B).
- the display data generation unit 12A of the virtual space interface device 12X controls the enlargement and/or reduction of an image showing the situation in the virtual space displayed by the display device 11A of the client terminal 11-2 (an image displayed by the display device 11A of the client terminal 11-2 based on display data for the second client terminal) based on the action of the second user UR2 placing his/her hand over the eye of the second user UR2, as photographed by the photographing device 11D of the client terminal 11-2, and the distance between the photographing device 11D of the client terminal 11-2 and the face of the second user UR2.
- the display data generation unit 12A of the virtual space interface device 12X controls the enlargement and/or reduction of an image showing the situation in the virtual space displayed by the display device 11A of the client terminal 11-3 (an image displayed by the display device 11A of the client terminal 11-3 based on the display data for the third client terminal) based on the action of the third user UR3, photographed by the photographing device 11D of the client terminal 11-3, placing his/her hand over the third user UR3's eye and the distance between the photographing device 11D of the client terminal 11-3 and the face of the third user UR3, and controls the enlargement and/or reduction of an image showing the situation in the virtual space displayed by the display device 11A of the client terminal 11-4 (an image displayed by the display device 11A of the client terminal 11-4 based on the display data for the fourth client terminal) based on the action of the fourth user, photographed by the photographing device 11D of the client terminal 11-4, placing his/her hand over the fourth user's eye and the distance between the photographing device 11D of
- FIG. 6 is a diagram for explaining an example in which the first user UR1 changes the direction of the face of the first user UR1 relative to the image capture device 11D of the client terminal 11.
- FIG. 6A shows an example in which the first user UR1 turns the face of the first user UR1 to the left side of the image capture device 11D of the client terminal 11
- FIG. 6B shows an example in which the first user UR1 turns the face of the first user UR1 to the right side of the image capture device 11D of the client terminal 11.
- FIG. 7 is a diagram for explaining a second example of control performed by the display data generating unit 12A of the virtual space interface device 12X.
- FIG. 12A shows an example in which the first user UR1 turns the face of the first user UR1 to the left side of the image capture device 11D of the client terminal 11
- FIG. 6B shows an example in which the first user UR1 turns the face of the first user UR1 to the right side of the image capture device 11D of the client terminal 11.
- FIG. 7A shows an image obtained by moving the left part of the image showing the situation in the virtual space shown in FIG. 2 displayed by the display device 11A of the client terminal 11 to the center
- FIG. 7B shows an image obtained by moving the right part of the image showing the situation in the virtual space shown in FIG. 2 displayed by the display device 11A of the client terminal 11 to the center.
- the display data generation unit 12A of the virtual space interface device 12X controls a position in the virtual space that corresponds to the image displayed by the display device 11A of the client terminal 11, based on the action of the first user UR1, photographed by the photographing device 11D of the client terminal 11, of placing the hand of the first user UR1 over the eye of the first user UR1 (see FIG. 3) and the direction of the face of the first user UR1 relative to the photographing device 11D of the client terminal 11 (see FIG. 6). Specifically, when the first user UR1 photographed by the photographing device 11D of the client terminal 11 places his/her hand on the eye of the first user UR1 (see FIG.
- the display data generating unit 12A of the virtual space interface device 12X executes control to position the second avatar AT2 located to the left of the first avatar AT1 in the virtual space in the center of the left-right direction of the image (see FIG. 7A) displayed by the display device 11A of the client terminal 11. Furthermore, the display data generating unit 12A of the virtual space interface device 12X generates display data for the first client terminal for displaying the image shown in FIG. 7A (i.e., an image obtained by moving the left part of the image shown in FIG. 2 to the center) on the display device 11A of the client terminal 11.
- the display data generating unit 12A of the virtual space interface device 12X executes control to position the third avatar AT3 located to the right of the first avatar AT1 in the virtual space in the center of the left-right direction of the image (see FIG. 7B) displayed by the display device 11A of the client terminal 11. Furthermore, the display data generating unit 12A of the virtual space interface device 12X generates display data for the first client terminal for displaying the image shown in FIG. 7B (i.e., an image obtained by moving the right part of the image shown in FIG. 2 to the center) on the display device 11A of the client terminal 11.
- the display data generation unit 12A of the virtual space interface device 12X determines, based on the facial image of the first user UR1 captured by the photographing device 11D of the client terminal 11, whether or not the first user UR1 has performed an action of turning the face of the first user UR1 to the left side of the photographing device 11D of the client terminal 11 (see FIG. 6A), whether or not the first user UR1 has performed an action of turning the face of the first user UR1 to the right side of the photographing device 11D of the client terminal 11 (see FIG. 6B), etc., by using a method similar to that described in paragraph 0054 of Patent Document 5, for example.
- the display data generation unit 12A of the virtual space interface device 12X may determine whether or not the first user UR1 has turned the face of the first user UR1 toward the side of the photographing device 11D of the client terminal 11, based on the rate of change of the distance between, for example, two feature points on a facial image of the first user UR1 captured by the photographing device 11D of the client terminal 11 at, for example, a first time.
- the display data generation unit 12A of the virtual space interface device 12X controls a position in the virtual space that corresponds to the image displayed by the display device 11A of the client terminal 11-2, based on the action of the second user UR2, photographed by the photographing device 11D of the client terminal 11-2, placing the hand of the second user UR2 over the eye of the second user UR2, and the direction of the face of the second user UR2 relative to the photographing device 11D of the client terminal 11-2.
- the display data generation unit 12A of the virtual space interface device 12X executes control to position the fourth avatar AT4, which is located to the left of the second avatar AT2 in the virtual space, in the center in the left-right direction of the image displayed by the display device 11A of the client terminal 11-2.
- the display data generation unit 12A of the virtual space interface device 12X controls a position in the virtual space that corresponds to the image displayed by the display device 11A of the client terminal 11-3, based on the action of the third user UR3 placing his/her hand over the eye of the third user UR3, as photographed by the photographing device 11D of the client terminal 11-3, and the direction of the face of the third user UR3 relative to the photographing device 11D of the client terminal 11-3.
- the display data generation unit 12A of the virtual space interface device 12X executes control to position the first avatar AT1, which is located to the left of the third avatar AT3 in the virtual space, in the center in the left-right direction of the image displayed by the display device 11A of the client terminal 11-3.
- the display data generating unit 12A of the virtual space interface device 12X controls a position in the virtual space that corresponds to an image displayed by the display device 11A of the client terminal 11-4, based on the action of the fourth user photographed by the photographing device 11D of the client terminal 11-4 placing the fourth user's hand on the fourth user's eye and the orientation of the fourth user's face with respect to the photographing device 11D of the client terminal 11-4.
- the display data generating unit 12A of the virtual space interface device 12X executes control to position the third avatar AT3, which is located to the left of the fourth avatar AT4 in the virtual space, in the center of the left-right direction of the image displayed by the display device 11A of the client terminal 11-4.
- the audio data generation unit 12B generates audio data for outputting audio within the virtual space to the audio output device 11B of the client terminals 11, 11-2, 11-3, and 11-4.
- the audio data generation unit 12B generates audio data for outputting audio within the virtual space to the audio output device 11B of the client terminal 11, audio data for outputting audio within the virtual space to the audio output device 11B of the client terminal 11-2, audio data for outputting audio within the virtual space to the audio output device 11B of the client terminal 11-3, and audio data for outputting audio within the virtual space to the audio output device 11B of the client terminal 11-4.
- the audio data generation unit 12B generates audio data for the first client terminal based on the audio of the second user UR2 picked up by the audio collection device 11C of the client terminal 11-2, the audio of the third user UR3 picked up by the audio collection device 11C of the client terminal 11-3, and the audio of the fourth user picked up by the audio collection device 11C of the client terminal 11-4, for outputting the audio of the second user UR2, the audio of the third user UR3, and the audio of the fourth user as audio in a virtual space to the audio output device 11B of the client terminal 11.
- the audio data generation unit 12B generates audio data for the second client terminal to cause the audio output device 11B of the client terminal 11-2 to output the audio produced by the first user UR1, the audio produced by the third user UR3, and the audio produced by the fourth user as audio in a virtual space, based on the audio produced by the first user UR1 picked up by the audio collection device 11C of the client terminal 11, the audio produced by the third user UR3 picked up by the audio collection device 11C of the client terminal 11-3, and the audio produced by the fourth user picked up by the audio collection device 11C of the client terminal 11-4.
- the audio data generation unit 12B generates audio data for the third client terminal based on the audio of the first user UR1 picked up by the audio collection device 11C of the client terminal 11, the audio of the second user UR2 picked up by the audio collection device 11C of the client terminal 11-2, and the audio of the fourth user picked up by the audio collection device 11C of the client terminal 11-4, to cause the audio output device 11B of the client terminal 11-3 to output the audio of the first user UR1, the audio of the second user UR2, and the audio of the fourth user as audio in a virtual space.
- the audio data generation unit 12B generates audio data for the fourth client terminal based on the audio of the first user UR1 picked up by the audio collection device 11C of the client terminal 11, the audio of the second user UR2 picked up by the audio collection device 11C of the client terminal 11-2, and the audio of the third user UR3 picked up by the audio collection device 11C of the client terminal 11-3, to cause the audio output device 11B of the client terminal 11-4 to output the audio of the first user UR1, the audio of the second user UR2, and the audio of the third user UR3 as audio in a virtual space.
- the audio data generation unit 12B may generate audio data for causing the audio output device 11B of the client terminals 11, 11-2, 11-3, and 11-4 to output, from the audio output device 11B of the client terminals 11, 11-2, 11-3, and 11-4, audio sounds that are different from the audio sounds generated by the first user UR1 to the fourth user UR4, such as background sounds, audio sounds set for objects other than avatars (such as operation sounds, etc.), and the audio data generation unit 12B may generate audio data for outputting (emitting) into the virtual space, audio sounds that are different from the audio sounds generated by the first user UR1 to the fourth user UR4, such as background sounds, audio sounds set for objects other than avatars, etc.
- the audio data generation unit 12B can generate audio data that is output into a virtual space (for example, recorded in a virtual space interface device 12X) without being output to the audio output devices 11B of any of the client terminals 11, 11-2, 11-3, and 11-4, based on the audio of a first user UR1 picked up by the audio pickup device 11C of the client terminal 11, the audio of a second user UR2 picked up by the audio pickup device 11C of the client terminal 11-2, the audio of a third user UR3 picked up by the audio pickup device 11C of the client terminal 11-3, and the audio of a fourth user UR4 picked up by the audio pickup device 11C of the client terminal 11-4.
- a virtual space for example, recorded in a virtual space interface device 12X
- FIG. 8 is a diagram for explaining an example of an action in which the second user UR2 places his/her hand on his/her ear.
- the voice data generating unit 12B of the virtual space interface device 12X determines whether or not the second user UR2 has placed his/her hand on the ear of the second user UR2 based on a facial image of the second user UR2 captured by the photographing device 11D of the client terminal 11-2.
- the voice data generating unit 12B of the virtual space interface device 12X may determine whether or not the second user UR2 has placed his/her hand on the ear of the second user UR2 based on a facial image of the second user UR2 captured by the photographing device 11D of the client terminal 11-2 by using a conventional technique related to gesture recognition that is publicly known up to now, for example, similar to the method described in paragraph 0041 of Patent Document 3.
- the "action of the second user UR2 placing the hand of the second user UR2 on the ear of the second user UR2" includes, for example, an action of the second user UR2 touching the hand of the second user UR2 to the ear of the second user UR2, an action of the second user UR2 not touching the hand of the second user UR2 to the ear of the second user UR2 but bringing the hand of the second user UR2 closest to the ear part of the whole face of the second user UR2, etc.
- an action of the second user UR2 not touching the hand of the second user UR2 to the face of the second user UR2 can also fall under the "action of the second user UR2 placing the hand of the second user UR2 on the ear of the second user UR2".
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the audio in the virtual space output by the audio output device 11B of the client terminal 11 based on the action of the first user UR1, photographed by the photographing device 11D of the client terminal 11, placing the hand of the first user UR1 against the ear of the first user UR1, and the distance between the photographing device 11D of the client terminal 11 and the face of the first user UR1 (see Figure 4).
- the audio data generation unit 12B of the virtual space interface device 12X executes control to increase the volume of the audio in the virtual space output by the audio output device 11B of the client terminal 11, and generates audio data for the first client terminal to cause the audio output device 11B of the client terminal 11 to output the audio in the virtual space with the increased volume.
- the audio data generating unit 12B of the virtual space interface device 12X executes control to reduce the volume of the audio in the virtual space output by the audio output device 11B of the client terminal 11, and generates audio data for the first client terminal for outputting the audio in the virtual space with the reduced volume to the audio output device 11B of the client terminal 11.
- the audio data generating unit 12B of the virtual space interface device 12X may perform control so that the audio uttered by the fourth user corresponding to the fourth avatar AT4 that is farthest from the first avatar AT1 in the virtual space shown in FIG. 2 is not output by the audio output device 11B of the client terminal 11.
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the audio in the virtual space output by the audio output device 11B of the client terminal 11-2 based on the action of the second user UR2, photographed by the photographing device 11D of the client terminal 11-2, placing the hand of the second user UR2 against the ear of the second user UR2 (see FIG. 8) and the distance between the photographing device 11D of the client terminal 11-2 and the face of the second user UR2.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to increase the volume of the audio in the virtual space output by the audio output device 11B of the client terminal 11-2, and generates audio data for the second client terminal to cause the audio output device 11B of the client terminal 11-2 to output the audio in the virtual space with the increased volume.
- the audio data generating unit 12B of the virtual space interface device 12X executes control to reduce the volume of the audio in the virtual space output by the audio output device 11B of the client terminal 11-2, and generates audio data for the second client terminal for outputting the audio in the virtual space with the reduced volume to the audio output device 11B of the client terminal 11-2.
- the audio data generating unit 12B of the virtual space interface device 12X may control so that the audio emitted by the third user UR3 corresponding to the third avatar AT3 farthest from the second avatar AT2 in the virtual space shown in FIG. 2 is not output by the audio output device 11B of the client terminal 11-2.
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the audio in the virtual space output by the audio output device 11B of the client terminal 11-3 based on the action of the third user UR3, photographed by the photographing device 11D of the client terminal 11-3, placing the hand of the third user UR3 against the ear of the third user UR3, and the distance between the photographing device 11D of the client terminal 11-3 and the face of the third user UR3.
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the audio in the virtual space output by the audio output device 11B of the client terminal 11-4 based on the action of the fourth user, photographed by the photographing device 11D of the client terminal 11-4, placing the hand of the fourth user against the ear of the fourth user, and the distance between the photographing device 11D of the client terminal 11-4 and the face of the fourth user.
- the audio data generation unit 12B of the virtual space interface device 12X controls the direction of arrival of audio from the virtual space output by the audio output device 11B of the client terminal 11 based on the action of the first user UR1, who is photographed by the photographing device 11D of the client terminal 11, placing the hand of the first user UR1 against the ear of the first user UR1 and the direction of the face of the first user UR1 relative to the photographing device 11D of the client terminal 11 (see FIG. 6).
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the sound emitted by the second user UR2, the third user UR3, and the fourth user, which are output as sound in the virtual space by the audio output device 11B of the client terminal 11, based on the action of the first user UR1, photographed by the photographing device 11D of the client terminal 11, placing the hand of the first user UR1 on the ear of the first user UR1, the direction of the face of the first user UR1 relative to the photographing device 11D of the client terminal 11, and the positions of the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 in the virtual space.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to increase the volume of the voice emitted by the second user UR2 and decrease the volume of the voice emitted by the third user UR3, which is output as audio in the virtual space by the audio output device 11B of the client terminal 11.
- the audio data generating unit 12B of the virtual space interface device 12X generates audio data for the first client terminal for outputting the audio in the virtual space in which the volume of the audio uttered by the second user UR2 is increased and the volume of the audio uttered by the third user UR3 is decreased to the audio output device 11B of the client terminal 11.
- the audio data generating unit 12B of the virtual space interface device 12X may perform control so that the audio uttered by the third user UR3 corresponding to the third avatar AT3 in the virtual space shown in FIG. 2 is not output by the audio output device 11B of the client terminal 11.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to increase the volume of the voice emitted by the third user UR3, which is output as audio in the virtual space by the audio output device 11B of the client terminal 11, and to decrease the volume of the voice emitted by the second user UR2.
- the audio data generating unit 12B of the virtual space interface device 12X generates audio data for the first client terminal for outputting the audio in the virtual space in which the volume of the audio uttered by the third user UR3 is increased and the volume of the audio uttered by the second user UR2 is decreased, to the audio output device 11B of the client terminal 11.
- the audio data generating unit 12B of the virtual space interface device 12X may perform control so that the audio uttered by the second user UR2 corresponding to the second avatar AT2 in the virtual space shown in FIG. 2 is not output by the audio output device 11B of the client terminal 11.
- the direction from which sound comes from the virtual space is controlled by increasing the volume of sound coming from the direction in which the face of the first user UR1 is facing toward the first avatar AT1 in the virtual space and decreasing the volume of sound coming from the opposite direction to the direction in which the face of the first user UR1 is facing.
- the audio data generation unit 12B of the virtual space interface device 12X controls the direction of arrival of audio from the virtual space output by the audio output device 11B of the client terminal 11-2, based on the action of the second user UR2, photographed by the photographing device 11D of the client terminal 11-2, placing the hand of the second user UR2 against the ear of the second user UR2 (see FIG. 8) and the direction of the face of the second user UR2 relative to the photographing device 11D of the client terminal 11-2.
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the sound emitted by the first user UR1, the third user UR3, and the fourth user, which are output as sound in the virtual space by the audio output device 11B of the client terminal 11-2, based on the action of the second user UR2, photographed by the photographing device 11D of the client terminal 11-2, placing the hand of the second user UR2 on the ear of the second user UR2, the direction of the face of the second user UR2 relative to the photographing device 11D of the client terminal 11-2, and the positions of the first avatar AT1, the third avatar AT3, and the fourth avatar AT4 in the virtual space.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to increase the volume of the voice uttered by the fourth user and decrease the volume of the voice uttered by the first user UR1, which is output as audio in the virtual space by the audio output device 11B of the client terminal 11-2.
- the audio data generating unit 12B of the virtual space interface device 12X generates audio data for the second client terminal for outputting the audio in the virtual space in which the volume of the audio produced by the fourth user is increased and the volume of the audio produced by the first user UR1 is decreased to the audio output device 11B of the client terminal 11-2.
- the audio data generating unit 12B of the virtual space interface device 12X may perform control so that the audio produced by the first user UR1 corresponding to the first avatar AT1 in the virtual space shown in FIG. 2 is not output by the audio output device 11B of the client terminal 11-2.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to increase the volume of the voice emitted by the first user UR1 and decrease the volume of the voice emitted by the fourth user, which is output as audio in the virtual space by the audio output device 11B of the client terminal 11-2.
- the audio data generating unit 12B of the virtual space interface device 12X generates audio data for the second client terminal for causing the audio output device 11B of the client terminal 11-2 to output the audio in the virtual space in which the volume of the audio uttered by the first user UR1 has been increased and the volume of the audio uttered by the fourth user has been decreased.
- the audio data generating unit 12B of the virtual space interface device 12X may perform control so that the audio uttered by the fourth user corresponding to the fourth avatar AT4 in the virtual space shown in FIG. 2 is not output by the audio output device 11B of the client terminal 11-2.
- the audio data generation unit 12B of the virtual space interface device 12X controls the direction of arrival of audio from the virtual space output by the audio output device 11B of the client terminal 11-3 based on the action of the third user UR3, photographed by the photographing device 11D of the client terminal 11-3, placing the hand of the third user UR3 against the ear of the third user UR3 and the direction of the face of the third user UR3 relative to the photographing device 11D of the client terminal 11-3.
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the sound emitted by the first user UR1, the second user UR2, and the fourth user, which are output as sound in the virtual space by the audio output device 11B of the client terminal 11-3, based on the action of the third user UR3, photographed by the photographing device 11D of the client terminal 11-3, placing the hand of the third user UR3 on the ear of the third user UR3, the direction of the face of the third user UR3 relative to the photographing device 11D of the client terminal 11-3, and the positions of the first avatar AT1, the second avatar AT2, and the fourth avatar AT4 in the virtual space.
- the audio data generation unit 12B of the virtual space interface device 12X controls the direction of arrival of audio from the virtual space output by the audio output device 11B of the client terminal 11-4, based on the action of the fourth user, who is photographed by the photographing device 11D of the client terminal 11-4, placing the fourth user's hand on the fourth user's ear and the orientation of the fourth user's face relative to the photographing device 11D of the client terminal 11-4.
- the audio data generation unit 12B of the virtual space interface device 12X controls the direction of arrival of audio from the virtual space output by the audio output device 11B of the client terminal 11-4, based on the action of the fourth user, who is photographed by the photographing device 11D of the client terminal 11-4, placing the fourth user's hand on the fourth user's ear and the orientation of the fourth user's face relative to the photographing device 11D of the client terminal 11-4.
- the sound data generation unit 12B of the virtual space interface device 12X controls the volume of the sound emitted by the first user UR1, the second user UR2, and the third user UR3, which are output as sound in the virtual space by the sound output device 11B of the client terminal 11-4, based on the action of the fourth user, photographed by the photographing device 11D of the client terminal 11-4, placing the hand of the fourth user on the fourth user's ear, the orientation of the fourth user's face relative to the photographing device 11D of the client terminal 11-4, and the positions of the first avatar AT1, the second avatar AT2, and the third avatar AT3 in the virtual space.
- FIG. 9 is a diagram for explaining an example of an action in which the third user UR3 places his/her hand over the third user UR3's mouth.
- the voice data generating unit 12B of the virtual space interface device 12X determines whether or not the third user UR3 has placed his/her hand over the mouth of the third user UR3 based on a facial image of the third user UR3 captured by the photographing device 11D of the client terminal 11-3.
- the voice data generating unit 12B of the virtual space interface device 12X may determine whether or not the third user UR3 has placed his/her hand over the mouth of the third user UR3 based on a facial image of the third user UR3 captured by the photographing device 11D of the client terminal 11-3 by using a conventional technique related to gesture recognition that has been publicly known up to now, for example, in the same manner as the method described in paragraph 0041 of Patent Document 3.
- the "action of the third user UR3 placing his/her hand on the mouth of the third user UR3" includes, for example, an action of the third user UR3 touching his/her hand to the mouth of the third user UR3, an action of the third user UR3 not touching his/her hand to the mouth of the third user UR3 but bringing his/her hand closest to the mouth of the whole face of the third user UR3, etc.
- an action of the third user UR3 not touching his/her hand to the face of the third user UR3 can also be considered as the "action of the third user UR3 placing his/her hand on the mouth of the third user UR3".
- the audio data generating unit 12B of the virtual space interface device 12X controls the volume of the audio emitted by the first user UR1, which is picked up by the sound collecting device 11C of the client terminal 11 and output into the virtual space, based on the action of the first user UR1 placing his/her hand over the mouth of the first user UR1, as photographed by the photographing device 11D of the client terminal 11, and the distance between the photographing device 11D of the client terminal 11 and the face of the first user UR1 (see FIG. 4).
- the audio emitted by the first user UR1 and output into the virtual space may be output by the audio output devices 11B of the client terminals 11-2, 11-3, and 11-4, or may not be output by the audio output devices 11B of the client terminals 11-2, 11-3, and 11-4 (in this case, the audio emitted by the first user UR1 may be recorded, for example, in the virtual space interface device 12X).
- the audio data generating unit 12B of the virtual space interface device 12X executes control to increase the volume of the audio emitted by the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, and generates audio data for a second client terminal for outputting the audio in the virtual space with the increased volume to the audio output device 11B of the client terminal 11-2.
- control unit 11-3 generates audio data for a third client terminal for causing the audio output device 11B of the client terminal 11-3 to output the audio in the virtual space with the increased volume
- control unit 11-3 generates audio data for a fourth client terminal for causing the audio output device 11B of the client terminal 11-4 to output the audio in the virtual space with the increased volume
- control unit 11-4 generates audio data for a fourth client terminal for causing the audio output device 11B of the client terminal 11-4 to output the audio in the virtual space with the increased volume.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to increase the volume at which the audio uttered by the first user UR1 and picked up by the audio pickup device 11C of the client terminal 11 is emitted (output) into the virtual space.
- the audio data generating unit 12B of the virtual space interface device 12X executes control to reduce the volume of the audio emitted by the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, and generates audio data for a second client terminal for outputting the audio in the virtual space with the reduced volume to the audio output device 11B of the client terminal 11-2.
- control unit 11-3 controls the audio output device 11B of the client terminal 11-4 to output the audio in the virtual space with the reduced volume, and generates audio data for a third client terminal for causing the audio output device 11B of the client terminal 11-3 to output the audio in the virtual space with the reduced volume, and generates audio data for a fourth client terminal for causing the audio output device 11B of the client terminal 11-4 to output the audio in the virtual space with the reduced volume, and executes control to reduce the volume of the audio in the virtual space with the reduced volume, and generates audio data for a fourth client terminal for causing the audio output device 11B of the client terminal 11-4 to output the audio in the virtual space with the reduced volume.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to reduce the volume at which the audio uttered by the first user UR1, which is picked up by the audio pickup device 11C of the client terminal 11, is emitted (output) into the virtual space.
- the audio data generation unit 12B executes control to reduce the volume of the voice of the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, etc., but in another example, when the first user UR1 covers the mouth of the first user UR1 with his/her hand, the audio data generation unit 12B may execute control to reduce the volume of the voice of the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, etc. to zero.
- the audio data generating unit 12B of the virtual space interface device 12X controls the volume of the audio emitted by the second user UR2, which is picked up by the sound collecting device 11C of the client terminal 11-2 and output into the virtual space, based on the action of the second user UR2 placing his/her hand over the mouth of the second user UR2, as photographed by the photographing device 11D of the client terminal 11-2, and the distance between the photographing device 11D of the client terminal 11-2 and the face of the second user UR2.
- the audio emitted by the second user UR2 and output into the virtual space may be output by the audio output devices 11B of the client terminals 11, 11-3, and 11-4, respectively, or may not be output by the audio output devices 11B of the client terminals 11, 11-3, and 11-4, respectively (in this case, the audio emitted by the second user UR2 may be recorded, for example, in the virtual space interface device 12X).
- the audio data generating unit 12B of the virtual space interface device 12X executes control to increase the volume of the audio emitted by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11, and generates audio data for the first client terminal for outputting the audio in the virtual space with the increased volume to the audio output device 11B of the client terminal 11.
- control is executed to increase the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-3, and audio data for a third client terminal is generated for outputting the audio in the virtual space with the increased volume to the audio output device 11B of the client terminal 11-3, and control is executed to increase the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-4, and audio data for a fourth client terminal is generated for outputting the audio in the virtual space with the increased volume to the audio output device 11B of the client terminal 11-4.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to increase the volume at which the audio uttered by the second user UR2, which is picked up by the audio pickup device 11C of the client terminal 11-2, is emitted (output) into the virtual space.
- the audio data generating unit 12B of the virtual space interface device 12X executes control to reduce the volume of the audio emitted by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11, and generates audio data for the first client terminal for outputting the audio in the virtual space with the reduced volume to the audio output device 11B of the client terminal 11.
- control is executed to reduce the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-3, and audio data for a third client terminal is generated for outputting the audio in the virtual space with the reduced volume to the audio output device 11B of the client terminal 11-3, and control is executed to reduce the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-4, and audio data for a fourth client terminal is generated for outputting the audio in the virtual space with the reduced volume to the audio output device 11B of the client terminal 11-4.
- the audio data generation unit 12B of the virtual space interface device 12X executes control to reduce the volume at which the audio uttered by the second user UR2 and picked up by the audio pickup device 11C of the client terminal 11-2 is emitted (output) into the virtual space.
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the audio emitted by the third user UR3, which is output into the virtual space and output by the audio output devices 11B of each of the client terminals 11, 11-2, and 11-4, based on the action of the third user UR3 placing his/her hand over the mouth of the third user UR3, as photographed by the photographing device 11D of the client terminal 11-3 (see Figure 9), and the distance between the photographing device 11D of the client terminal 11-3 and the face of the third user UR3.
- the audio data generating unit 12B of the virtual space interface device 12X controls the volume of the audio emitted by the fourth user, which is output into the virtual space and output by the audio output devices 11B of the client terminals 11, 11-2, and 11-3, based on the action of the fourth user placing his/her hand over the mouth of the fourth user photographed by the photographing device 11D of the client terminal 11-4 and the distance between the photographing device 11D of the client terminal 11-4 and the face of the fourth user.
- the audio data generation unit 12B of the virtual space interface device 12X controls the output direction of the audio emitted by the first user UR1 (audio picked up by the sound collection device 11C of the client terminal 11) into the virtual space based on the action of the first user UR1, photographed by the photographing device 11D of the client terminal 11, placing his/her hand over the mouth of the first user UR1 and the direction of the first user UR1's face relative to the photographing device 11D of the client terminal 11 (see FIG. 6).
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the voice uttered by the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, controls the volume of the voice uttered by the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-3, and controls the volume of the voice uttered by the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-4, based on the action of the first user UR1 placing his/her hand over the mouth of the first user UR1, as photographed by the photographing device 11D of the client terminal 11, the orientation of the face of the first user UR1 relative to the photographing device 11D of the client terminal 11, and the positions of the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 in the virtual space.
- the first user UR1 who is photographed by the photographing device 11D of the client terminal 11, places his/her hand over the mouth of the first user UR1 and turns his/her face toward the left side of the photographing device 11D of the client terminal 11 (the left side of FIG. 6A, the side of the second avatar AT2 in the virtual space shown in FIG. 2, the opposite side of the third avatar AT3 in the virtual space shown in FIG. 2) (see FIG.
- the audio data generation unit 12B of the virtual space interface device 12X increases the volume of the voice uttered by the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, and generates audio data for the second client terminal to output the audio in the virtual space in which the volume of the voice uttered by the first user UR1 has been increased to the audio output device 11B of the client terminal 11-2.
- the audio data generating unit 12B of the virtual space interface device 12X reduces the volume of the voice emitted by the first user UR1, which is output into the virtual space and output by the audio output device 11B of the client terminal 11-3, and generates audio data for a third client terminal for causing the audio output device 11B of the client terminal 11-3 to output the audio in the virtual space in which the volume of the voice emitted by the first user UR1 has been reduced.
- the audio data generating unit 12B of the virtual space interface device 12X generates audio data for a fourth client terminal for causing the audio output device 11B of the client terminal 11-4 to output the audio in the virtual space in which the volume of the voice emitted by the first user UR1 is not changed, which is output into the virtual space and output by the audio output device 11B of the client terminal 11-4.
- the direction of the sound is controlled by increasing the volume of the sound output by the sound output device 11B of the client terminal (e.g., client terminal 11-2) of the user (e.g., second user UR2) corresponding to the avatar (e.g., second avatar AT2) that exists in the direction in which the face of the first user UR1 is turned relative to the first avatar AT1 in the virtual space, and decreasing the volume of the sound output by the sound output device 11B of the client terminal (e.g., third user UR3) that corresponds to the avatar (e.g., third avatar AT3) that exists in the opposite direction to the direction in which the face of the first user UR1 is turned.
- the audio data generation unit 12B of the virtual space interface device 12X controls the direction in which the audio uttered by the first user UR1 and picked up by the audio pickup device 11C of the client terminal 11 is emitted (output) into the virtual space.
- the audio data generation unit 12B executes control to reduce the volume of the voice emitted by the first user UR1 output by the audio output device 11B of the client terminal 11-3.
- the audio data generation unit 12B may execute control to reduce the volume of the voice emitted by the first user UR1 output by the audio output device 11B of the client terminal 11-3, etc., to zero.
- the first user UR1 photographed by the photographing device 11D of the client terminal 11 places the hand of the first user UR1 over the mouth of the first user UR1 and turns the face of the first user UR1 to the right side of the photographing device 11D of the client terminal 11 (the right side of FIG. 6B, the side of the third avatar AT3 in the virtual space shown in FIG. 2, the opposite side of the second avatar AT2 in the virtual space shown in FIG. 2) (see FIG.
- the audio data generation unit 12B of the virtual space interface device 12X reduces the volume of the voice uttered by the first user UR1 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, and generates audio data for the second client terminal to output the audio in the virtual space in which the volume of the voice uttered by the first user UR1 has been reduced to the audio output device 11B of the client terminal 11-2.
- the audio data generating unit 12B of the virtual space interface device 12X increases the volume of the voice emitted by the first user UR1, which is output into the virtual space and output by the audio output device 11B of the client terminal 11-3, and generates audio data for a third client terminal for causing the audio output device 11B of the client terminal 11-3 to output the audio in the virtual space in which the volume of the voice emitted by the first user UR1 has been increased.
- the audio data generating unit 12B of the virtual space interface device 12X generates audio data for a fourth client terminal for causing the audio output device 11B of the client terminal 11-4 to output the audio in the virtual space in which the volume of the voice emitted by the first user UR1 is not changed, which is output into the virtual space and output by the audio output device 11B of the client terminal 11-4.
- the audio data generation unit 12B of the virtual space interface device 12X controls the direction in which the audio uttered by the first user UR1 and picked up by the audio pickup device 11C of the client terminal 11 is emitted (output) into the virtual space.
- the audio data generation unit 12B of the virtual space interface device 12X controls the output direction into the virtual space of the audio emitted by the second user UR2 (audio picked up by the sound pickup device 11C of the client terminal 11-2) based on the action of the second user UR2, photographed by the photographing device 11D of the client terminal 11-2, placing his/her hand over the mouth of the second user UR2 and the direction of the face of the second user UR2 relative to the photographing device 11D of the client terminal 11-2.
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11, based on the action of the second user UR2, photographed by the photographing device 11D of the client terminal 11-2, placing the hand of the second user UR2 over the mouth of the second user UR2, the orientation of the face of the second user UR2 relative to the photographing device 11D of the client terminal 11-2, and the positions of the first avatar AT1, the third avatar AT3, and the fourth avatar AT4 in the virtual space, controls the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-3, and controls the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-4.
- the audio data generation unit 12B of the virtual space interface device 12X increases the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-4, and generates audio data for the fourth client terminal to cause the audio output device 11B of the client terminal 11-4 to output the audio in the virtual space in which the volume of the voice uttered by the second user UR2 has been increased.
- the audio data generating unit 12B of the virtual space interface device 12X reduces the volume of the voice emitted by the second user UR2, which is output into the virtual space and output by the audio output device 11B of the client terminal 11, and generates audio data for the first client terminal for causing the audio output device 11B of the client terminal 11 to output the audio in the virtual space in which the volume of the voice emitted by the second user UR2 has been reduced.
- the audio data generating unit 12B of the virtual space interface device 12X generates audio data for the third client terminal for causing the audio output device 11B of the client terminal 11-3 to output the audio in the virtual space in which the volume of the voice emitted by the second user UR2 is not changed, which is output into the virtual space and output by the audio output device 11B of the client terminal 11-3.
- the direction of the sound is controlled by increasing the volume of the sound output by the sound output device 11B of the client terminal (e.g., client terminal 11-4) of the user (e.g., fourth user UR4) corresponding to the avatar (e.g., fourth avatar AT4) that exists in the direction in which the face of the second user UR2 is turned relative to the second avatar AT2 in the virtual space, and decreasing the volume of the sound output by the sound output device 11B of the client terminal (client terminal 11) of the user (e.g., first user UR1) corresponding to the avatar (e.g., first avatar AT1) that exists in the opposite direction to the direction in which the face of the second user UR2 is turned.
- the voice data generating unit 12B of the virtual space interface device 12X controls the direction in which the voice uttered by the second user UR2 and picked up by the sound collecting device 11C of the client terminal 11-2 is emitted (output) into the virtual space.
- the audio data generation unit 12B of the virtual space interface device 12X reduces the volume of the voice uttered by the second user UR2 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-4, and generates audio data for the fourth client terminal to output the audio in the virtual space in which the volume of the voice uttered by the second user UR2 has been reduced to the audio output device 11B of the client terminal 11-4.
- the audio data generating unit 12B of the virtual space interface device 12X increases the volume of the voice emitted by the second user UR2, which is output into the virtual space and output by the audio output device 11B of the client terminal 11, and generates audio data for the first client terminal for causing the audio output device 11B of the client terminal 11 to output the audio in the virtual space in which the volume of the voice emitted by the second user UR2 has been increased.
- the audio data generating unit 12B of the virtual space interface device 12X generates audio data for the third client terminal for causing the audio output device 11B of the client terminal 11-3 to output the audio in the virtual space in which the volume of the voice emitted by the second user UR2 is not changed, which is output into the virtual space and output by the audio output device 11B of the client terminal 11-3.
- the voice data generating unit 12B of the virtual space interface device 12X controls the direction in which the voice uttered by the second user UR2 and picked up by the sound collecting device 11C of the client terminal 11-2 is emitted (output) into the virtual space.
- the audio data generation unit 12B of the virtual space interface device 12X controls the volume of the voice uttered by the third user UR3 that is output into the virtual space and output by the audio output device 11B of the client terminal 11 based on the action of the third user UR3 placing his/her hand over the third user UR3's mouth as photographed by the photographing device 11D of the client terminal 11-3 (see Figure 9), the orientation of the third user UR3's face relative to the photographing device 11D of the client terminal 11-3, and the positions of the first avatar AT1, the second avatar AT2, and the fourth avatar AT4 in the virtual space, controls the volume of the voice uttered by the third user UR3 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, and controls the volume of the voice uttered by the third user UR3 that is output into the virtual space and output by the audio output device 11B of the client terminal 11-4.
- the audio data generating unit 12B of the virtual space interface device 12X controls the volume of the voice of the fourth user that is output into the virtual space and output by the audio output device 11B of the client terminal 11, controls the volume of the voice of the fourth user that is output into the virtual space and output by the audio output device 11B of the client terminal 11-2, and controls the volume of the voice of the fourth user that is output into the virtual space and output by the audio output device 11B of the client terminal 11-3, based on the action of the fourth user placing his/her hand over the mouth of the fourth user photographed by the photographing device 11D of the client terminal 11-4, the orientation of the fourth user's face relative to the photographing device 11D of the client terminal 11-4, and the positions of the first avatar AT1, the second avatar AT2, and the third avatar AT3 in the virtual space.
- the display data generation unit 12A and the voice data generation unit 12B of the virtual space interface device 12X generate voice data for a gesture of placing a hand on the face area of the first user UR1 photographed by the photographing device 11D of the client terminal 11 (a gesture of placing a hand on the eye, a gesture of placing a hand on the ear, a gesture of placing a hand on the mouth), a positional relationship between the photographing device 11D of the client terminal 11 and the face of the first user UR1 (moving closer, moving away, turning to the left of the photographing device 11D of the client terminal 11, turning to the right of the photographing device 11D of the client terminal 11), and a gesture of placing a hand on the face area of the second user UR2 photographed by the photographing device 11D of the client terminal 11-2 (moving a hand on the eye, a gesture of placing a hand on the ear, a gesture of placing a hand on the mouth).
- gestures of placing a hand on the face area of the third user UR3 photographed by the photographing device 11D of the client terminal 11-3 (a gesture of placing a hand over the eye, a gesture of placing a hand over the ear, a gesture of placing a hand over the mouth), a positional relationship between the photographing device 11D of the client terminal 11-3 and the face of the third user UR ...
- the display data for the third client terminal for displaying an image showing the situation in the virtual space on the display device 11A of the client terminal 11-4; the audio data for the first client terminal for outputting the audio in the virtual space to the audio output device 11B of the client terminal 11; the audio data for the second client terminal for outputting the audio in the virtual space to the audio output device 11B of the client terminal 11-2; the audio data for the third client terminal for outputting the audio in the virtual space to the audio output device 11B of the client terminal 11-3; and the audio data for the fourth client terminal for outputting the audio in the virtual space to the audio output device 11B of the client terminal 11-4.
- the display data generation unit 12A and the audio data generation unit 12B vary the control target (at least one of the display data for the first to fourth client terminals and the audio data for the first to fourth client terminals) depending on the part of the face area (eyes, ears or mouth) where the first user UR1 positions his/her hand, the part of the face area (eyes, ears or mouth) where the second user UR2 positions his/her hand, the part of the face area (eyes, ears or mouth) where the third user UR3 positions his/her hand, and the part of the face area (eyes, ears or mouth) where the fourth user positions his/her hand.
- FIG. 10 is a flowchart for explaining an example of processing executed by the virtual space interface device 12X of the first embodiment.
- the virtual space interface device 12X executes a virtual space providing step S1 in the routine shown in Figure 10 to provide a virtual space to a client terminal 11 used by a first user UR1, a client terminal 11-2 used by a second user UR2, a client terminal 11-3 used by a third user UR3, and a client terminal 11-4 used by a fourth user.
- the virtual space providing step S1 includes a display data generating step S1A and an audio data generating step S1B.
- a display data generation step S1A the virtual space interface device 12X generates display data (display data for the first to fourth client terminals) for displaying an image showing the situation in the virtual space on the display devices 11A of the client terminals 11, 11-2, 11-3, and 11-4.
- a voice data generating step S1B the virtual space interface device 12X generates voice data (voice data for the first to fourth client terminals) for outputting the voice in the virtual space to the voice output devices 11B of the client terminals 11, 11-2, 11-3, and 11-4.
- the first user UR1, the second user UR2, the third user UR3, and the fourth user can use the virtual space provided by the virtual space providing server 12 without the need to perform input operations using an operation unit.
- the virtual space providing system 1 of the first embodiment can improve convenience for the first user UR1, the second user UR2, the third user UR3, and the fourth user.
- the view (image displayed on the client terminal), the sound (audio output from the client terminal), and the sound (audio output within the virtual space) may change depending on the positional relationship between the user and the object within the virtual space.
- the object is positioned and displayed at a set coordinate within the virtual space.
- the sound in the virtual space may be the sound of another user's avatar, environmental sounds such as the sound of a bird, or a specific sound output from an object.
- a setting may be made to play music from a tree object, and music may be heard from the client terminal used by the user as the user (or the user's coordinates) approaches.
- the virtual space interface device 12X may output sound within the virtual space, regardless of which user is listening, and record audio (messages) on specific objects.
- the virtual space provision system 2 of the second embodiment is configured similarly to the virtual space provision system 1 of the first embodiment described above, except for the points described below. Therefore, the virtual space provision system 2 of the second embodiment can achieve the same effects as the virtual space provision system 1 of the first embodiment described above, except for the points described below.
- FIG. 11 is a diagram showing an example of a virtual space providing system 2 to which a virtual space interface device 21E according to the second embodiment is applied.
- the virtual space providing system 2 includes client terminals 21, 21-2, 21-3, and 21-4.
- the client terminals 21, 21-2, 21-3, and 21-4 are connected to each other via a network NW such as the Internet.
- NW such as the Internet.
- the virtual space providing system 2 has four client terminals 21, 21-2, 21-3, and 21-4, but in other examples, the virtual space providing system 2 may have any number of client terminals other than four.
- the client terminal 21 is used by, for example, a first user UR1 (see FIG. 3).
- the client terminal 21 includes a display device 21A, an audio output device 21B, a sound collection device 21C, an image capture device 21D, a virtual space interface device 21E, and a processing device 21F.
- the display device 21A has roughly the same functions as the display device 11A shown in Fig. 1, and displays an image (see Fig. 2) showing the situation in the virtual space based on display data provided by the virtual space interface device 21E.
- the audio output device 21B has roughly the same functions as the audio output device 11B shown in Fig. 1, and outputs audio in the virtual space based on audio data provided by the virtual space interface device 21E.
- the sound collection device 21C has roughly the same functions as the sound collection device 11C shown in Fig. 1, and collects audio emitted by the first user UR1.
- the image capture device 21D has roughly the same functions as the image capture device 11D shown in Fig. 1, and captures a facial image of the first user UR1.
- the virtual space interface device 21E provides a virtual space by providing display data and audio data to the client terminals 21, 21-2, 21-3, and 21-4.
- the virtual space interface device 21E includes a display data generating unit 21E1 having substantially the same function as the display data generating unit 12A shown in FIG. 1, and an audio data generating unit 21E2 having substantially the same function as the audio data generating unit 12B shown in FIG.
- the processing device 21F has substantially the same functions as the processing device 12Y shown in FIG.
- the client terminal 21-2 is used, for example, by a second user UR2 (see FIG. 8) different from the first user UR1.
- the client terminal 21-3 is used, for example, by a third user UR3 (see FIG. 9) different from the first user UR1 and the second user UR2.
- the client terminal 21-4 is used, for example, by a fourth user different from the first user UR1, the second user UR2, and the third user UR3. 11, each of the client terminals 21-2, 21-3, and 21-4 has a configuration generally similar to that of the client terminal 21 except for the virtual space interface device 21E and the processing device 21F.
- each of the client terminals 21-2, 21-3, and 21-4 includes a display device 21A, an audio output device 21B, a sound collection device 21C, and an imaging device 21D.
- the configuration of the parts of client terminal 21 excluding the virtual space interface device 21E and processing device 21F may be different from the configurations of client terminal 21-2, client terminal 21-3, and client terminal 21-4, or the configuration of the parts of client terminal 21 excluding the virtual space interface device 21E and processing device 21F and any of client terminals 21-2, 21-3, and 21-4 may be different from the remaining configurations.
- the display data generating unit 21E1 generates display data for displaying an image showing the situation in the virtual space on the display device 21A of the client terminals 21, 21-2, 21-3, and 21-4.
- the display data generating unit 21E1 generates a first avatar AT1 (see FIG. 2) located in a virtual space based on a facial image (see FIG. 3) of a first user UR1 captured by the image capturing device 21D of the client terminal 21.
- the display data generating unit 21E1 generates a second avatar AT2 (see FIG. 2) located in a virtual space based on a facial image (see FIG.
- the display data generation unit 21E1 generates display data for the first client terminal to display an image including the first avatar AT1, the second avatar AT2, the third avatar AT3 and the fourth avatar AT4 (see Figure 2) on the display device 21A of the client terminal 21 as an image showing the situation in the virtual space.
- the display data generating unit 21E1 generates display data for a second client terminal to display an image including the first avatar AT1, the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 on the display device 21A of the client terminal 21-2 as an image showing the situation in the virtual space, generates display data for a third client terminal to display an image including the first avatar AT1, the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 on the display device 21A of the client terminal 21-3 as an image showing the situation in the virtual space, and generates display data for a fourth client terminal to display an image including the first avatar AT1, the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 on the display device 21A of the client terminal 21-4 as an image showing the situation in the virtual space.
- the display data generation unit 21E1 controls the enlargement and/or reduction of an image showing the situation in the virtual space displayed by the display device 21A of the client terminal 21 (an image displayed by the display device 21A of the client terminal 21 based on the display data for the first client terminal) (see FIG. 2) based on the action of the first user UR1 placing his/her hand over the eye of the first user UR1 photographed by the photographing device 21D of the client terminal 21 (see FIG. 3) and the distance between the photographing device 21D of the client terminal 21 and the face of the first user UR1.
- the display data generation unit 21E1 controls the enlargement and/or reduction of an image showing the situation in the virtual space displayed by the display device 11A of the client terminal 21-2 (an image displayed by the display device 21A of the client terminal 21-2 based on the display data for the second client terminal) based on the action of the second user UR2 placing his/her hand over the eye of the second user UR2, as photographed by the photographing device 21D of the client terminal 21-2, and the distance between the photographing device 21D of the client terminal 21-2 and the face of the second user UR2.
- the display data generation unit 21E1 controls the enlargement and/or reduction of an image showing the situation in the virtual space displayed by the display device 21A of the client terminal 21-3 based on the display data for the third client terminal, based on the action of the third user UR3 placing his/her hand over the eyes of the third user UR3, as photographed by the photographing device 21D of the client terminal 21-3, and the distance between the photographing device 21D of the client terminal 21-3 and the face of the third user UR3, and controls the enlargement and/or reduction of an image showing the situation in the virtual space displayed by the display device 21A of the client terminal 21-4 based on the display data for the fourth client terminal, based on the action of the fourth user placing his/her hand over the eyes of the fourth user, as photographed by the photographing device 21D of the client terminal 21-4, and the distance between the photographing device 21D of the client terminal 21-4 and the face of the fourth user.
- the display data generation unit 21E1 controls a position in the virtual space that corresponds to the image displayed by the display device 21A of the client terminal 21, based on the action of the first user UR1 placing his/her hand over the eye of the first user UR1, photographed by the photographing device 21D of the client terminal 21 (see FIG. 3), and the orientation of the face of the first user UR1 relative to the photographing device 21D of the client terminal 21.
- the display data generation unit 21E1 controls a position in the virtual space that corresponds to the image displayed by the display device 21A of the client terminal 21-2, based on the action of the second user UR2 placing his/her hand over the eye of the second user UR2, who is photographed by the photographing device 21D of the client terminal 21-2, and the direction of the face of the second user UR2 relative to the photographing device 21D of the client terminal 21-2.
- the display data generation unit 21E1 controls a position in the virtual space that corresponds to the image displayed by the display device 21A of the client terminal 21-3, based on the action of the third user UR3 placing his/her hand over the eye of the third user UR3, as photographed by the photographing device 21D of the client terminal 21-3, and the direction of the face of the third user UR3 relative to the photographing device 21D of the client terminal 21-3.
- the display data generation unit 21E1 controls a position in the virtual space that corresponds to the image displayed by the display device 21A of the client terminal 21-4, based on the action of the fourth user placing his/her hand over the fourth user's eye, as photographed by the photographing device 21D of the client terminal 21-4, and the direction of the fourth user's face relative to the photographing device 21D of the client terminal 21-4.
- the audio data generation unit 21E2 generates audio data for outputting audio within the virtual space to the audio output device 21B of the client terminals 21, 21-2, 21-3, and 21-4.
- the audio data generation unit 21E2 generates audio data for outputting audio within the virtual space to the audio output device 21B of the client terminal 21, audio data for outputting audio within the virtual space to the audio output device 21B of the client terminal 21-2, audio data for outputting audio within the virtual space to the audio output device 21B of the client terminal 21-3, and audio data for outputting audio within the virtual space to the audio output device 21B of the client terminal 21-4.
- the audio data generation unit 21E2 generates audio data for the first client terminal based on the audio of the second user UR2 picked up by the audio collection device 21C of the client terminal 21-2, the audio of the third user UR3 picked up by the audio collection device 21C of the client terminal 21-3, and the audio of the fourth user picked up by the audio collection device 21C of the client terminal 21-4, for outputting the audio of the second user UR2, the audio of the third user UR3, and the audio of the fourth user to the audio output device 21B of the client terminal 21 as audio in a virtual space.
- the audio data generation unit 21E2 generates audio data for the second client terminal to output the audio produced by the first user UR1, the audio produced by the third user UR3, and the audio produced by the fourth user to the audio output device 21B of the client terminal 21-2 as audio in a virtual space, based on the audio produced by the first user UR1 picked up by the audio collection device 21C of the client terminal 21, the audio produced by the third user UR3 picked up by the audio collection device 21C of the client terminal 21-3, and the audio produced by the fourth user picked up by the audio collection device 21C of the client terminal 21-4.
- the audio data generation unit 21E2 generates audio data for the third client terminal to cause the audio output device 21B of the client terminal 21-3 to output the audio produced by the first user UR1, the audio produced by the second user UR2, and the audio produced by the fourth user UR2 as audio in a virtual space based on the audio produced by the first user UR1 picked up by the audio collection device 21C of the client terminal 21, the audio produced by the second user UR2 picked up by the audio collection device 21C of the client terminal 21-2, and the audio produced by the fourth user picked up by the audio collection device 21C of the client terminal 21-4.
- the audio data generation unit 21E2 generates audio data for the fourth client terminal based on the audio of the first user UR1 picked up by the audio collection device 21C of the client terminal 21, the audio of the second user UR2 picked up by the audio collection device 21C of the client terminal 21-2, and the audio of the third user UR3 picked up by the audio collection device 21C of the client terminal 21-3, to cause the audio output device 21B of the client terminal 21-4 to output the audio of the first user UR1, the audio of the second user UR2, and the audio of the third user UR3 as audio in a virtual space.
- the audio data generation unit 21E2 controls the volume of the audio in the virtual space output by the audio output device 21B of the client terminal 21 based on the action of the first user UR1, photographed by the photographing device 21D of the client terminal 21, placing the hand of the first user UR1 against the ear of the first user UR1 and the distance between the photographing device 21D of the client terminal 21 and the face of the first user UR1.
- the audio data generation unit 21E2 controls the volume of the audio in the virtual space output by the audio output device 21B of the client terminal 21-2 based on the action of the second user UR2, photographed by the photographing device 21D of the client terminal 21-2, placing the hand of the second user UR2 against the ear of the second user UR2 (see Figure 8) and the distance between the photographing device 21D of the client terminal 21-2 and the face of the second user UR2.
- the audio data generation unit 21E2 controls the volume of the audio in the virtual space output by the audio output device 21B of the client terminal 21-3 based on the action of the third user UR3, photographed by the photographing device 21D of the client terminal 21-3, placing the hand of the third user UR3 on the ear of the third user UR3 and the distance between the photographing device 21D of the client terminal 21-3 and the face of the third user UR3.
- the audio data generation unit 21E2 also controls the volume of the audio in the virtual space output by the audio output device 21B of the client terminal 21-4 based on the action of the fourth user, photographed by the photographing device 21D of the client terminal 21-4, placing the hand of the fourth user on the ear of the fourth user and the distance between the photographing device 21D of the client terminal 21-4 and the face of the fourth user.
- the audio data generation unit 21E2 controls the direction of arrival of audio from the virtual space output by the audio output device 21B of the client terminal 21 based on the action of the first user UR1, who is photographed by the photographing device 21D of the client terminal 21, placing the hand of the first user UR1 against the ear of the first user UR1 and the direction of the face of the first user UR1 relative to the photographing device 21D of the client terminal 21.
- the audio data generation unit 21E2 controls the volume of the audio emitted by the second user UR2, the third user UR3, and the fourth user, which is output as audio in the virtual space by the audio output device 21B of the client terminal 21, based on the action of the first user UR1 placing his/her hand on the ear of the first user UR1, as photographed by the photographing device 21D of the client terminal 21, the direction of the face of the first user UR1 relative to the photographing device 21D of the client terminal 21, and the positions of the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 in the virtual space.
- the audio data generation unit 21E2 controls the direction of arrival of audio from the virtual space output by the audio output device 21B of the client terminal 21-2 based on the action of the second user UR2, who is photographed by the photographing device 21D of the client terminal 21-2, placing the hand of the second user UR2 on the ear of the second user UR2 (see Figure 8) and the direction of the face of the second user UR2 relative to the photographing device 21D of the client terminal 21-2.
- the audio data generation unit 21E2 controls the volume of the audio emitted by the first user UR1, the third user UR3, and the fourth user, which are output as audio in the virtual space by the audio output device 21B of the client terminal 21-2, based on the action of the second user UR2 placing his/her hand on the ear of the second user UR2, as photographed by the photographing device 21D of the client terminal 21-2 (see Figure 8), the direction of the face of the second user UR2 relative to the photographing device 21D of the client terminal 21-2, and the positions of the first avatar AT1, the third avatar AT3, and the fourth avatar AT4 in the virtual space.
- the audio data generation unit 21E2 controls the direction of arrival of audio from the virtual space output by the audio output device 21B of the client terminal 21-3 based on the action of the third user UR3, photographed by the photographing device 21D of the client terminal 21-3, placing the hand of the third user UR3 on the ear of the third user UR3 and the direction of the face of the third user UR3 relative to the photographing device 21D of the client terminal 21-3.
- the audio data generation unit 21E2 controls the volume of the audio emitted by the first user UR1, the second user UR2, and the fourth user, which is output as audio in the virtual space by the audio output device 21B of the client terminal 21-3, based on the action of the third user UR3 placing his/her hand on the ear of the third user UR3, the direction of the face of the third user UR3 relative to the imaging device 21D of the client terminal 21-3, and the positions of the first avatar AT1, the second avatar AT2, and the fourth avatar AT4 in the virtual space.
- the audio data generation unit 21E2 controls the direction of arrival of audio from the virtual space output by the audio output device 21B of the client terminal 21-4 based on the action of the fourth user, who is photographed by the photographing device 21D of the client terminal 21-4, placing the fourth user's hand on the fourth user's ear and the direction of the fourth user's face relative to the photographing device 21D of the client terminal 21-4.
- the audio data generation unit 21E2 controls the volume of the voice emitted by the first user UR1, the second user UR2, and the third user UR3, which are output as audio in the virtual space by the audio output device 21B of the client terminal 21-4, based on the action of the fourth user, who is photographed by the photographing device 21D of the client terminal 21-4, placing the fourth user's hand on the fourth user's ear, the direction of the fourth user's face relative to the photographing device 21D of the client terminal 21-4, and the positions of the first avatar AT1, the second avatar AT2, and the third avatar AT3 in the virtual space.
- the audio data generation unit 21E2 controls the volume of the audio (audio emitted by the first user UR1) in the virtual space output by the audio output devices 21B of each of the client terminals 21-2, 21-3, and 21-4 based on the action of the first user UR1 placing his/her hand over the mouth of the first user UR1, as photographed by the photographing device 21D of the client terminal 21, and the distance between the photographing device 21D of the client terminal 21 and the face of the first user UR1.
- the audio data generation unit 21E2 controls the volume of the audio in the virtual space (audio emitted by the second user UR2) output by the audio output devices 21B of each of the client terminals 21, 21-3, and 21-4, based on the action of the second user UR2 placing his/her hand over the mouth of the second user UR2, as photographed by the photographing device 21D of the client terminal 21-2, and the distance between the photographing device 21D of the client terminal 21-2 and the face of the second user UR2.
- the audio data generating unit 21E2 controls the volume of the audio (audio emitted by the third user UR3) in the virtual space output by the audio output device 21B of each of the client terminals 21, 21-2, and 21-4 based on the action of the third user UR3, who is photographed by the photographing device 21D of the client terminal 21-3, placing his/her hand over the mouth of the third user UR3 (see FIG. 9) and the distance between the photographing device 21D of the client terminal 21-3 and the face of the third user UR3.
- the audio data generating unit 21E2 controls the volume of the audio (audio emitted by the fourth user) in the virtual space output by the audio output device 21B of each of the client terminals 21, 21-2, and 21-3 based on the action of the fourth user, who is photographed by the photographing device 21D of the client terminal 21-4, placing his/her hand over the mouth of the fourth user and the distance between the photographing device 21D of the client terminal 21-4 and the face of the fourth user.
- the audio data generation unit 21E2 controls the output direction of the audio emitted by the first user UR1 (audio picked up by the sound collection device 21C of the client terminal 21) into the virtual space based on the action of the first user UR1, photographed by the photographing device 21D of the client terminal 21, placing the hand of the first user UR1 over the mouth of the first user UR1 and the direction of the face of the first user UR1 relative to the photographing device 21D of the client terminal 21.
- the audio data generation unit 21E2 controls the volume of the voice emitted by the first user UR1 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-2 based on the action of the first user UR1 placing his/her hand over the mouth of the first user UR1, as photographed by the photographing device 21D of the client terminal 21, the direction of the face of the first user UR1 relative to the photographing device 21D of the client terminal 21, and the positions of the second avatar AT2, the third avatar AT3, and the fourth avatar AT4 in the virtual space, controls the volume of the voice emitted by the first user UR1 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-3, and controls the volume of the voice emitted by the first user UR1 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-4.
- the voice data generating unit 21E2 controls the direction in which the voice uttered by the first user
- the audio data generation unit 21E2 controls the output direction into the virtual space of the audio emitted by the second user UR2 (audio picked up by the sound collection device 21C of the client terminal 21-2) based on the action of the second user UR2, photographed by the photographing device 21D of the client terminal 21-2, placing his/her hand over the mouth of the second user UR2 and the direction of the face of the second user UR2 relative to the photographing device 21D of the client terminal 21-2.
- the audio data generation unit 21E2 controls the volume of the voice emitted by the second user UR2 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21 based on the action of the second user UR2 placing his/her hand over the mouth of the second user UR2, as photographed by the photographing device 21D of the client terminal 21-2, the direction of the face of the second user UR2 relative to the photographing device 21D of the client terminal 21-2, and the positions of the first avatar AT1, the third avatar AT3, and the fourth avatar AT4 in the virtual space, controls the volume of the voice emitted by the second user UR2 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-3, and controls the volume of the voice emitted by the second user UR2 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-4.
- the voice data generating unit 21E2 controls the direction in which the voice uttered by the
- the audio data generation unit 21E2 controls the output direction into the virtual space of the audio emitted by the third user UR3 (audio picked up by the sound pickup device 21C of the client terminal 21-3) based on the action of the third user UR3, photographed by the photographing device 21D of the client terminal 21-3, placing his/her hand over the mouth of the third user UR3 (see Figure 9) and the direction of the face of the third user UR3 relative to the photographing device 21D of the client terminal 21-3.
- the audio data generation unit 21E2 controls the volume of the voice emitted by the third user UR3 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21 based on the action of the third user UR3 placing his/her hand over the mouth of the third user UR3 photographed by the photographing device 21D of the client terminal 21-3 (see Figure 9), the direction of the face of the third user UR3 relative to the photographing device 21D of the client terminal 21-3, and the positions of the first avatar AT1, the second avatar AT2, and the fourth avatar AT4 in the virtual space, controls the volume of the voice emitted by the third user UR3 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-2, and controls the volume of the voice emitted by the third user UR3 to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-4.
- the audio data generation unit 21E2 controls the output direction into the virtual space of the audio emitted by the fourth user UR4 (audio picked up by the sound collection device 21C of the client terminal 21-4) based on the action of the fourth user, who is photographed by the photographing device 21D of the client terminal 21-4, placing his/her hand over the fourth user's mouth and the direction of the fourth user's face relative to the photographing device 21D of the client terminal 21-4.
- the audio data generation unit 21E2 controls the volume of the voice emitted by the fourth user to be output as audio in the virtual space by the audio output device 21B of the client terminal 21 based on the action of the fourth user, who is photographed by the photographing device 21D of the client terminal 21-4, placing his/her hand over the fourth user's mouth, the direction of the fourth user's face relative to the photographing device 21D of the client terminal 21-4, and the positions of the first avatar AT1, the second avatar AT2, and the third avatar AT3 in the virtual space, controls the volume of the voice emitted by the fourth user to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-2, and controls the volume of the voice emitted by the fourth user to be output as audio in the virtual space by the audio output device 21B of the client terminal 21-3.
- the display data generation unit 21E1 and the voice data generation unit 21E2 of the virtual space interface device 21E of the client terminal 21 generate gestures of positioning a hand on the face area of the first user UR1 photographed by the imaging device 21D of the client terminal 21 (motion of placing a hand on the eye, motion of placing a hand on the ear, motion of placing a hand on the mouth), a positional relationship between the imaging device 21D of the client terminal 21 and the face of the first user UR1 (moving closer, moving away, facing to the left of the imaging device 21D of the client terminal 21, facing to the right of the imaging device 21D of the client terminal 21), and gestures of positioning a hand on the face area of the second user UR2 photographed by the imaging device 21D of the client terminal 21-2 (motion of placing a hand on the eye, motion of placing a hand on the ear, motion of placing a hand on the mouth).
- the camera 21 Based on a gesture of positioning a hand over the face area of the fourth user photographed by the camera (movement of placing a hand over the eye, placing a hand over the ear, placing a hand over the mouth) and a positional relationship between the image capturing device 21D of the client terminal 21-4 and the face of the fourth user (moving closer, moving away, facing to the left of the image capturing device 21D of the client terminal 21-4, facing to the right of the image capturing device 21D of the client terminal 21-4), the camera 21 generates, as control objects, display data for a first client terminal for displaying an image showing the situation in the virtual space on the display device 21A of the client terminal 21, display data for a second client terminal for displaying an image showing the situation in the virtual space on the display device 21A of the client terminal 21-2, display data for a second client terminal for displaying an image showing the situation in the virtual space on the display device 21A of the client terminal 21-3, The control unit controls at least one of: display data for the third client terminal for displaying an
- the display data generation unit 21E1 and the audio data generation unit 21E2 vary the control target (at least one of the display data for the first to fourth client terminals and the audio data for the first to fourth client terminals) depending on the part of the face area (eyes, ears or mouth) where the first user UR1 positions his/her hand, the part of the face area (eyes, ears or mouth) where the second user UR2 positions his/her hand, the part of the face area (eyes, ears or mouth) where the third user UR3 positions his/her hand, and the part of the face area (eyes, ears or mouth) where the fourth user positions his/her hand.
- FIG. 12 is a flowchart for explaining an example of processing executed by the virtual space interface device 21E of the second embodiment.
- the virtual space interface device 21E executes a virtual space providing step S2 in the routine shown in Figure 12 to provide a virtual space to a client terminal 21 used by a first user UR1, a client terminal 21-2 used by a second user UR2, a client terminal 21-3 used by a third user UR3, and a client terminal 21-4 used by a fourth user.
- the virtual space providing step S2 includes a display data generating step S2A and an audio data generating step S2B.
- a display data generation step S2A the virtual space interface device 21E generates display data (display data for the first to fourth client terminals) for displaying an image showing the situation in the virtual space on the display devices 21A of each of the client terminals 21, 21-2, 21-3, and 21-4.
- a voice data generation step S2B the virtual space interface device 21E generates voice data (voice data for the first to fourth client terminals) for outputting the voice in the virtual space to the voice output devices 11B of the client terminals 21, 21-2, 21-3, and 21-4.
- the first user UR1, the second user UR2, the third user UR3, and the fourth user can use the virtual space provided by the virtual space interface device 21E without the need to perform input operations using an operation unit.
- the virtual space providing system 2 of the second embodiment can improve convenience for the first user UR1, the second user UR2, the third user UR3, and the fourth user.
- each unit of the virtual space provision systems 1 and 2 in the above-mentioned embodiments may be realized by recording a program for realizing these functions on a computer-readable recording medium, reading the program recorded on the recording medium into a computer system, and executing it.
- the "computer system” referred to here includes hardware such as the OS and peripheral devices.
- “computer-readable recording medium” refers to portable media such as flexible disks, optical magnetic disks, ROMs, and CD-ROMs, and storage units such as hard disks built into computer systems.
- “computer-readable recording medium” may also include those that dynamically hold a program for a short period of time, such as a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line, and those that hold a program for a certain period of time, such as a volatile memory inside a computer system that serves as a server or client in such cases.
- the above program may be one that realizes part of the above-mentioned functions, or may be one that can realize the above-mentioned functions in combination with a program already recorded in the computer system.
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Processing Or Creating Images (AREA)
- Information Transfer Between Computers (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
仮想空間インターフェース装置は、仮想空間内の状況を示す画像を端末に表示させるための表示データを生成し、端末が収音するユーザが発する音声を仮想空間内に出力するための音声データを生成し、仮想空間内の音声を端末に出力させるための音声データを生成し、表示データおよび音声データは、ユーザのジェスチャとユーザと端末との位置関係とに基づいて制御され、ユーザが手を位置させる顔領域の部位に応じて制御対象が異なる。
Description
本発明は、仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法に関する。
特許文献1には、通信ネットワークを介して接続されるクライアントコンピュータに仮想空間を提供する仮想空間提供装置について記載されている。特許文献1には、仮想空間提供システムが仮想空間提供装置とクライアントコンピュータとしてのクライアント装置とを含んで構成される旨、仮想空間にアバター等が配置される旨、仮想空間提供装置がサーバとして構成される旨、仮想空間がクライアント装置に表示される旨などが記載されている。
ところで、特許文献1に記載された技術では、例えばユーザのアバターを仮想空間内で移動させたり、アバターの表情を変化させたり、アバターの姿勢を変化させたりするために、クライアント装置に備えられている操作部(キーボードスイッチ、ポインティングデバイス等の入力機器)が使用される。そのため、特許文献1に記載された技術では、操作部の使用方法を習熟したユーザでなければ仮想空間提供システムを使いこなすことができず、ユーザの利便性を向上させることができない。
ところで、特許文献1に記載された技術では、例えばユーザのアバターを仮想空間内で移動させたり、アバターの表情を変化させたり、アバターの姿勢を変化させたりするために、クライアント装置に備えられている操作部(キーボードスイッチ、ポインティングデバイス等の入力機器)が使用される。そのため、特許文献1に記載された技術では、操作部の使用方法を習熟したユーザでなければ仮想空間提供システムを使いこなすことができず、ユーザの利便性を向上させることができない。
特許文献2には、カメラがユーザの顔の画像を取り込む旨、その画像を使用してカメラに対するユーザの顔の近接度が特定される旨、ユーザの顔に対するデバイス(カメラ)の相対位置を用いてズームインもしくはズームアウト機能を制御する旨などが記載されている。
ところが、ユーザの顔に対するカメラの相対位置を用いる入力操作では、入力可能な情報が限定される(つまり、入力可能な情報量が少ない)。そのため、特許文献2に記載された技術を特許文献1に記載された技術に適用した場合であっても、特許文献1に記載された仮想空間提供システムのユーザの利便性を向上させることはできない。
ところが、ユーザの顔に対するカメラの相対位置を用いる入力操作では、入力可能な情報が限定される(つまり、入力可能な情報量が少ない)。そのため、特許文献2に記載された技術を特許文献1に記載された技術に適用した場合であっても、特許文献1に記載された仮想空間提供システムのユーザの利便性を向上させることはできない。
上述した問題点に鑑み、本発明は、仮想空間提供システムのユーザの利便性を向上させることができる仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法を提供することを目的とする。
本発明の一態様は、少なくともユーザによって使用されるクライアント端末を備える仮想空間提供システムに備えられる仮想空間インターフェース装置であって、前記クライアント端末は、仮想空間内の状況を示す画像を表示する表示装置と、前記仮想空間内の音声を出力する音声出力装置と、前記ユーザが発する音声を収音する収音装置と、前記ユーザの顔画像を撮影する撮影装置とを備え、前記仮想空間インターフェース装置は、前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための表示データを生成する表示データ生成部と、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データを生成する音声データ生成部とを備え、前記音声データ生成部は、前記クライアント端末の収音装置によって収音される前記ユーザが発する音声を前記仮想空間内に出力するための音声データを生成し、前記表示データ生成部および前記音声データ生成部は、前記クライアント端末の撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための前記表示データ、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データ、および、前記ユーザが発する音声を前記仮想空間内に出力するための音声データの少なくともいずれかを制御し、前記表示データ生成部および前記音声データ生成部は、前記ユーザが手を位置させる顔領域の部位に応じて、前記制御対象を異ならせる、仮想空間インターフェース装置である。
本発明の一態様は、仮想空間インターフェース装置を備える仮想空間提供システムに備えられ、ユーザによって使用されるクライアント端末であって、仮想空間内の状況を示す画像を表示する表示装置と、前記仮想空間内の音声を出力する音声出力装置と、前記ユーザが発する音声を収音する収音装置と、前記ユーザの顔画像を撮影する撮影装置とを備え、前記表示装置は、前記仮想空間インターフェース装置の表示データ生成部によって生成される表示データに基づいて、前記仮想空間内の状況を示す画像を表示し、前記音声出力装置は、前記仮想空間インターフェース装置の音声データ生成部によって生成される音声データに基づいて、前記仮想空間内の音声を出力し、前記仮想空間インターフェース装置の前記音声データ生成部は、前記収音装置によって収音される前記ユーザが発する音声を前記仮想空間内に出力するための音声データを生成し、前記仮想空間インターフェース装置の前記表示データ生成部および前記音声データ生成部は、前記撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の状況を示す画像を前記表示装置に表示させるための前記表示データ、前記仮想空間内の音声を前記音声出力装置に出力させるための音声データ、および、前記ユーザが発する音声を前記仮想空間内に出力するための音声データの少なくともいずれかを制御し、前記仮想空間インターフェース装置の前記表示データ生成部および前記音声データ生成部は、前記ユーザが手を位置させる顔領域の部位に応じて、前記制御対象を異ならせる、クライアント端末である。
本発明の一態様は、仮想空間インターフェース装置を備える仮想空間提供システムに備えられ、ユーザによって使用されるクライアント端末を構成するコンピュータに、仮想空間内の状況を示す画像を表示する表示ステップと、前記仮想空間内の音声を出力する音声出力ステップと、前記ユーザが発する音声を収音する収音ステップと、前記ユーザの顔画像を撮影する撮影ステップとを実行させるためのプログラムであって、前記表示ステップでは、前記仮想空間インターフェース装置の表示データ生成部によって生成される表示データに基づいて、前記仮想空間内の状況を示す画像が表示され、前記音声出力ステップでは、前記仮想空間インターフェース装置の音声データ生成部によって生成される音声データに基づいて、前記仮想空間内の音声が出力され、前記仮想空間インターフェース装置の前記音声データ生成部は、前記収音ステップにおいて収音される前記ユーザが発する音声を前記仮想空間内に出力するための音声データを生成し、前記仮想空間インターフェース装置の前記表示データ生成部および前記音声データ生成部は、前記撮影ステップにおいて撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための前記表示データ、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データ、および、前記ユーザが発する音声を前記仮想空間内に出力するための音声データの少なくともいずれかを制御し、前記仮想空間インターフェース装置の前記表示データ生成部および前記音声データ生成部は、前記ユーザが手を位置させる顔領域の部位に応じて、前記制御対象を異ならせる、プログラムである。
本発明の一態様は、少なくともユーザによって使用されるクライアント端末を備える仮想空間提供システムに備えられる仮想空間インターフェース装置であって、前記クライアント端末は、仮想空間内の状況を示す画像を表示する表示装置と、前記ユーザの顔画像を撮影する撮影装置とを備え、前記仮想空間インターフェース装置は、前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための表示データを生成する表示データ生成部を備え、前記表示データ生成部は、前記クライアント端末の撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための前記表示データを制御する、仮想空間インターフェース装置である。
本発明の一態様は、少なくともユーザによって使用されるクライアント端末を備える仮想空間提供システムに備えられる仮想空間インターフェース装置であって、前記クライアント端末は、仮想空間内の音声を出力する音声出力装置と、前記ユーザが発する音声を収音する収音装置と、前記ユーザの顔画像を撮影する撮影装置とを備え、前記仮想空間インターフェース装置は、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データを生成する音声データ生成部を備え、前記音声データ生成部は、前記クライアント端末の収音装置によって収音される前記ユーザが発する音声を前記仮想空間内に出力するための音声データを生成し、前記音声データ生成部は、前記クライアント端末の撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データ、および、前記ユーザが発する音声を前記仮想空間内に出力するための音声データの少なくともいずれかを制御し、前記ユーザが手を位置させる顔領域の部位に応じて、前記制御対象を異ならせる、仮想空間インターフェース装置である。
本発明の一態様は、少なくともユーザによって使用されるクライアント端末を備える仮想空間提供システムを制御する仮想空間インターフェース制御方法であって、コンピュータが、仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための表示データを生成し、コンピュータが、前記クライアント端末の収音装置によって収音される前記ユーザが発する音声を前記仮想空間内に出力するための第1音声データを生成し、コンピュータが、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための第2音声データを生成し、コンピュータが、前記クライアント端末の撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、前記ユーザが手を位置させる顔領域の部位に応じて、前記表示データ、前記第1音声データ、および、前記第2音声データの少なくともいずれかを異ならせて制御する、仮想空間インターフェース制御方法である。
本発明によれば、仮想空間提供システムのユーザの利便性を向上させることができる仮想空間インターフェース装置、クライアント端末およびプログラムを提供することができる。
以下、本発明の仮想空間インターフェース装置、クライアント端末およびプログラムの実施形態について、添付図面を参照して説明する。
<第1実施形態>
図1は第1実施形態の仮想空間インターフェース装置12Xが適用された仮想空間提供システム1の一例を示す図である。
図1に示す例では、仮想空間提供システム1が、クライアント端末11、11-2、11-3、11-4と、仮想空間提供サーバ12とを備えている。クライアント端末11、11-2、11-3、11-4および仮想空間提供サーバ12は、例えばインターネット等のネットワークNWを介して接続されている。
図1に示す例では、仮想空間提供システム1が、4つのクライアント端末11、11-2、11-3、11-4を備えているが、他の例では、仮想空間提供システム1が、4以外の任意の数のクライアント端末を備えていてもよい。つまり、仮想空間提供システム1が備えるクライアント端末の数が1つであってもよい。
図1は第1実施形態の仮想空間インターフェース装置12Xが適用された仮想空間提供システム1の一例を示す図である。
図1に示す例では、仮想空間提供システム1が、クライアント端末11、11-2、11-3、11-4と、仮想空間提供サーバ12とを備えている。クライアント端末11、11-2、11-3、11-4および仮想空間提供サーバ12は、例えばインターネット等のネットワークNWを介して接続されている。
図1に示す例では、仮想空間提供システム1が、4つのクライアント端末11、11-2、11-3、11-4を備えているが、他の例では、仮想空間提供システム1が、4以外の任意の数のクライアント端末を備えていてもよい。つまり、仮想空間提供システム1が備えるクライアント端末の数が1つであってもよい。
図1に示す例では、クライアント端末11が、例えば第1ユーザUR1(図3参照)によって使用される。クライアント端末11は、表示装置11Aと、音声出力装置11Bと、収音装置11Cと、撮影装置11Dとを備えている。
表示装置11Aは、仮想空間提供サーバ12によってネットワークNWを介して提供される表示データに基づいて、仮想空間内の状況を示す画像(図2参照)を表示する。表示装置11Aは、例えばディスプレイ等を備えている。音声出力装置11Bは、仮想空間提供サーバ12によってネットワークNWを介して提供される音声データに基づいて、仮想空間内の音声を出力する。音声出力装置11Bは、例えばスピーカ等を備えている。収音装置11Cは、第1ユーザUR1が発する音声を収音する。収音装置11Cは、例えばマイクロフォン等を備えている。撮影装置11Dは、第1ユーザUR1の顔画像を撮影する。撮影装置11Dは、例えばカメラ等を備えている。
表示装置11Aは、仮想空間提供サーバ12によってネットワークNWを介して提供される表示データに基づいて、仮想空間内の状況を示す画像(図2参照)を表示する。表示装置11Aは、例えばディスプレイ等を備えている。音声出力装置11Bは、仮想空間提供サーバ12によってネットワークNWを介して提供される音声データに基づいて、仮想空間内の音声を出力する。音声出力装置11Bは、例えばスピーカ等を備えている。収音装置11Cは、第1ユーザUR1が発する音声を収音する。収音装置11Cは、例えばマイクロフォン等を備えている。撮影装置11Dは、第1ユーザUR1の顔画像を撮影する。撮影装置11Dは、例えばカメラ等を備えている。
クライアント端末11-2は、例えば第1ユーザUR1とは異なる第2ユーザUR2(図8参照)によって使用される。クライアント端末11-3は、例えば第1ユーザUR1および第2ユーザUR2とは異なる第3ユーザUR3(図9参照)によって使用される。
クライアント端末11-4は、例えば第1ユーザUR1、第2ユーザUR2および第3ユーザUR3とは異なる第4ユーザによって使用される。
図1に示す例では、クライアント端末11-2、11-3、11-4のそれぞれが、クライアント端末11と同様に構成されている。つまり、クライアント端末11-2、11-3、11-4のそれぞれが、表示装置11Aと、音声出力装置11Bと、収音装置11Cと、撮影装置11Dとを備えている。
すなわち、クライアント端末11-2の収音装置11Cは、第2ユーザUR2が発する音声を収音する。クライアント端末11-2の撮影装置11Dは、第2ユーザUR2の顔画像を撮影する。クライアント端末11-3の収音装置11Cは、第3ユーザUR3が発する音声を収音する。クライアント端末11-3の撮影装置11Dは、第3ユーザUR3の顔画像を撮影する。クライアント端末11-4の収音装置11Cは、第4ユーザが発する音声を収音する。クライアント端末11-4の撮影装置11Dは、第4ユーザの顔画像を撮影する。
他の例では、クライアント端末11の構成とクライアント端末11-2の構成とクライアント端末11-3の構成とクライアント端末11-4の構成とが異なっていたり、クライアント端末11、11-2、11-3、11-4のうちのいずれかのクライアント端末の構成が残りのクライアント端末の構成と異なっていたりしてもよい。
クライアント端末11-4は、例えば第1ユーザUR1、第2ユーザUR2および第3ユーザUR3とは異なる第4ユーザによって使用される。
図1に示す例では、クライアント端末11-2、11-3、11-4のそれぞれが、クライアント端末11と同様に構成されている。つまり、クライアント端末11-2、11-3、11-4のそれぞれが、表示装置11Aと、音声出力装置11Bと、収音装置11Cと、撮影装置11Dとを備えている。
すなわち、クライアント端末11-2の収音装置11Cは、第2ユーザUR2が発する音声を収音する。クライアント端末11-2の撮影装置11Dは、第2ユーザUR2の顔画像を撮影する。クライアント端末11-3の収音装置11Cは、第3ユーザUR3が発する音声を収音する。クライアント端末11-3の撮影装置11Dは、第3ユーザUR3の顔画像を撮影する。クライアント端末11-4の収音装置11Cは、第4ユーザが発する音声を収音する。クライアント端末11-4の撮影装置11Dは、第4ユーザの顔画像を撮影する。
他の例では、クライアント端末11の構成とクライアント端末11-2の構成とクライアント端末11-3の構成とクライアント端末11-4の構成とが異なっていたり、クライアント端末11、11-2、11-3、11-4のうちのいずれかのクライアント端末の構成が残りのクライアント端末の構成と異なっていたりしてもよい。
図1に示す例では、仮想空間提供サーバ12が、クライアント端末11、11-2、11-3、11-4に対して表示データおよび音声データを提供することによって仮想空間を提供する。仮想空間提供サーバ12は、仮想空間インターフェース装置12Xと、処理装置12Yとを備えている。仮想空間インターフェース装置12Xは、表示データ生成部12Aと、音声データ生成部12Bとを備えている。
表示データ生成部12Aは、仮想空間内の状況を示す画像をクライアント端末11、11-2、11-3、11-4の表示装置11Aに表示させるための表示データを生成する。つまり、表示データ生成部12Aは、仮想空間内の状況を示す画像(図2参照)をクライアント端末11の表示装置11Aに表示させるための表示データと、仮想空間内の状況を示す画像をクライアント端末11-2の表示装置11Aに表示させるための表示データと、仮想空間内の状況を示す画像をクライアント端末11-3の表示装置11Aに表示させるための表示データと、仮想空間内の状況を示す画像をクライアント端末11-4の表示装置11Aに表示させるための表示データとを生成する。
詳細には、表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像(図3参照)に基づいて、仮想空間内に位置する第1アバターAT1(図2参照)を生成する。同様に、表示データ生成部12Aは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2の顔画像(図8参照)に基づいて、仮想空間内に位置する第2アバターAT2(図2参照)を生成し、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3の顔画像(図9参照)に基づいて、仮想空間内に位置する第3アバターAT3(図2参照)を生成し、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザの顔画像に基づいて、仮想空間内に位置する第4アバターAT4(図2参照)を生成する。
他の例では、例えば表示データ生成部12Aが、第1ユーザUR1の顔画像とは異なる、記録された画像に基づいて、第1アバターAT1を生成してもよい。更に他の例では、例えば表示データ生成部12Aによって生成される第1アバターAT1が、イラスト、CG(コンピュータグラフィックス)等であってもよい。
図1に示す例では、処理装置12Yが、仮想空間内の状況を示す画像(つまり、クライアント端末11、11-2、11-3、11-4の表示装置11Aによって表示される画像)に、例えばイラスト、CG等の背景画像、オブジェクト画像、アバター画像などを含める機能を有する。
詳細には、表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像(図3参照)に基づいて、仮想空間内に位置する第1アバターAT1(図2参照)を生成する。同様に、表示データ生成部12Aは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2の顔画像(図8参照)に基づいて、仮想空間内に位置する第2アバターAT2(図2参照)を生成し、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3の顔画像(図9参照)に基づいて、仮想空間内に位置する第3アバターAT3(図2参照)を生成し、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザの顔画像に基づいて、仮想空間内に位置する第4アバターAT4(図2参照)を生成する。
他の例では、例えば表示データ生成部12Aが、第1ユーザUR1の顔画像とは異なる、記録された画像に基づいて、第1アバターAT1を生成してもよい。更に他の例では、例えば表示データ生成部12Aによって生成される第1アバターAT1が、イラスト、CG(コンピュータグラフィックス)等であってもよい。
図1に示す例では、処理装置12Yが、仮想空間内の状況を示す画像(つまり、クライアント端末11、11-2、11-3、11-4の表示装置11Aによって表示される画像)に、例えばイラスト、CG等の背景画像、オブジェクト画像、アバター画像などを含める機能を有する。
図1に示す例では、表示データ生成部12Aは、仮想空間内の状況を示す画像として、第1アバターAT1、第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像(図2参照)をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。同様に、表示データ生成部12Aは、仮想空間内の状況を示す画像として、第1アバターAT1、第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像をクライアント端末11-2の表示装置11Aに表示させるための第2クライアント端末用表示データを生成し、仮想空間内の状況を示す画像として、第1アバターAT1、第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像をクライアント端末11-3の表示装置11Aに表示させるための第3クライアント端末用表示データを生成し、仮想空間内の状況を示す画像として、第1アバターAT1、第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像をクライアント端末11-4の表示装置11Aに表示させるための第4クライアント端末用表示データを生成する。
他の例では、表示データ生成部12Aによって生成される例えば第1クライアント端末用表示データが示す「仮想空間内の状況を示す画像」に、第1アバターAT1~第4アバターAT4の他に、あるいは、第1アバターAT1~第4アバターAT4の代わりに、背景画像、アバター以外の他のオブジェクト等が含まれても良い。
「仮想空間内の状況を示す画像」に第1アバターAT1~第4アバターAT4が含まれない他の例では、ユーザが仮想空間内の特定の座標において視聴できる映像・音声を取得し端末(クライアント端末11、11-2、11-3、11-4)側で出力するのみであって、ユーザが何らかのオブジェクトに紐づけられなくてもよい。
他の例では、表示データ生成部12Aによって生成される例えば第1クライアント端末用表示データが示す「仮想空間内の状況を示す画像」に、第1アバターAT1~第4アバターAT4の他に、あるいは、第1アバターAT1~第4アバターAT4の代わりに、背景画像、アバター以外の他のオブジェクト等が含まれても良い。
「仮想空間内の状況を示す画像」に第1アバターAT1~第4アバターAT4が含まれない他の例では、ユーザが仮想空間内の特定の座標において視聴できる映像・音声を取得し端末(クライアント端末11、11-2、11-3、11-4)側で出力するのみであって、ユーザが何らかのオブジェクトに紐づけられなくてもよい。
図2は表示データ生成部12Aによって生成される第1クライアント端末用表示データに基づいてクライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像の一例を示す図である。
図2に示す例では、表示データ生成部12Aによって生成される第1クライアント端末用表示データに基づいてクライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像に、クライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1と、クライアント端末11-2を使用する第2ユーザUR2に対応する第2アバターAT2と、クライアント端末11-3を使用する第3ユーザUR3に対応する第3アバターAT3と、クライアント端末11-4を使用する第4ユーザに対応する第4アバターAT4とが含まれる。
図2に示す例では、表示データ生成部12Aによって生成される第1クライアント端末用表示データに基づいてクライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像に、クライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1と、クライアント端末11-2を使用する第2ユーザUR2に対応する第2アバターAT2と、クライアント端末11-3を使用する第3ユーザUR3に対応する第3アバターAT3と、クライアント端末11-4を使用する第4ユーザに対応する第4アバターAT4とが含まれる。
図2に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11を使用する第1ユーザUR1の顔画像に基づいて生成された第1アバターAT1が、クライアント端末11の表示装置11Aによって表示される仮想空間(図2に示す仮想空間)内の最も手前側に位置するように、第1クライアント端末用表示データを生成する。
詳細には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の表示装置11Aによって表示される仮想空間(図2に示す仮想空間)内において、第1アバターAT1の左隣にクライアント端末11-2を使用する第2ユーザUR2に対応する第2アバターAT2が位置し、第1アバターAT1の右隣にクライアント端末11-3を使用する第3ユーザUR3に対応する第3アバターAT3が位置し、第1アバターAT1の正面にクライアント端末11-4を使用する第4ユーザに対応する第4アバターAT4が位置するように、第1クライアント端末用表示データを生成する。
他の例では、クライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像に、クライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1が含まれなくてもよい。この例では、第1アバターAT1の視点(つまり、第1ユーザUR1の視点)から見た仮想空間内の状況を示す画像(第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像)が、クライアント端末11の表示装置11Aによって表示される。
更に他の例では、仮想空間内における第1アバターAT1などの位置(第1ユーザUR1などの座標)が、コントローラ(図示せず)によって制御されてもよい。
詳細には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の表示装置11Aによって表示される仮想空間(図2に示す仮想空間)内において、第1アバターAT1の左隣にクライアント端末11-2を使用する第2ユーザUR2に対応する第2アバターAT2が位置し、第1アバターAT1の右隣にクライアント端末11-3を使用する第3ユーザUR3に対応する第3アバターAT3が位置し、第1アバターAT1の正面にクライアント端末11-4を使用する第4ユーザに対応する第4アバターAT4が位置するように、第1クライアント端末用表示データを生成する。
他の例では、クライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像に、クライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1が含まれなくてもよい。この例では、第1アバターAT1の視点(つまり、第1ユーザUR1の視点)から見た仮想空間内の状況を示す画像(第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像)が、クライアント端末11の表示装置11Aによって表示される。
更に他の例では、仮想空間内における第1アバターAT1などの位置(第1ユーザUR1などの座標)が、コントローラ(図示せず)によって制御されてもよい。
図2に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-2を使用する第2ユーザUR2の顔画像に基づいて生成された第2アバターAT2が、クライアント端末11-2の表示装置11Aによって表示される仮想空間内の最も手前側に位置するように、第2クライアント端末用表示データを生成する。
詳細には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-2の表示装置11Aによって表示される仮想空間内において、第2アバターAT2の左隣にクライアント端末11-4を使用する第4ユーザに対応する第4アバターAT4が位置し、第2アバターAT2の右隣にクライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1が位置し、第2アバターAT2の正面にクライアント端末11-3を使用する第3ユーザUR3に対応する第3アバターAT3が位置するように、第2クライアント端末用表示データを生成する。
詳細には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-2の表示装置11Aによって表示される仮想空間内において、第2アバターAT2の左隣にクライアント端末11-4を使用する第4ユーザに対応する第4アバターAT4が位置し、第2アバターAT2の右隣にクライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1が位置し、第2アバターAT2の正面にクライアント端末11-3を使用する第3ユーザUR3に対応する第3アバターAT3が位置するように、第2クライアント端末用表示データを生成する。
更に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-3を使用する第3ユーザUR3の顔画像に基づいて生成された第3アバターAT3が、クライアント端末11-3の表示装置11Aによって表示される仮想空間内の最も手前側に位置するように、第3クライアント端末用表示データを生成する。
詳細には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-3の表示装置11Aによって表示される仮想空間内において、第3アバターAT3の左隣にクライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1が位置し、第3アバターAT3の右隣にクライアント端末11-4を使用する第4ユーザに対応する第4アバターAT4が位置し、第3アバターAT3の正面にクライアント端末11-2を使用する第2ユーザUR2に対応する第2アバターAT2が位置するように、第3クライアント端末用表示データを生成する。
詳細には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-3の表示装置11Aによって表示される仮想空間内において、第3アバターAT3の左隣にクライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1が位置し、第3アバターAT3の右隣にクライアント端末11-4を使用する第4ユーザに対応する第4アバターAT4が位置し、第3アバターAT3の正面にクライアント端末11-2を使用する第2ユーザUR2に対応する第2アバターAT2が位置するように、第3クライアント端末用表示データを生成する。
また、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-4を使用する第4ユーザの顔画像に基づいて生成された第4アバターAT4が、クライアント端末11-4の表示装置11Aによって表示される仮想空間内の最も手前側に位置するように、第4クライアント端末用表示データを生成する。
詳細には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-4の表示装置11Aによって表示される仮想空間内において、第4アバターAT4の左隣にクライアント端末11-3を使用する第3ユーザUR3に対応する第3アバターAT3が位置し、第4アバターAT4の右隣にクライアント端末11-2を使用する第2ユーザUR2に対応する第2アバターAT2が位置し、第4アバターAT4の正面にクライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1が位置するように、第4クライアント端末用表示データを生成する。
詳細には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-4の表示装置11Aによって表示される仮想空間内において、第4アバターAT4の左隣にクライアント端末11-3を使用する第3ユーザUR3に対応する第3アバターAT3が位置し、第4アバターAT4の右隣にクライアント端末11-2を使用する第2ユーザUR2に対応する第2アバターAT2が位置し、第4アバターAT4の正面にクライアント端末11を使用する第1ユーザUR1に対応する第1アバターAT1が位置するように、第4クライアント端末用表示データを生成する。
図3は第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作の一例を説明するための図である。図4は第1ユーザUR1がクライアント端末11の撮影装置11Dと第1ユーザUR1の顔との距離を変化させる例を説明するための図である。詳細には、図4Aは第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける例を示しており、図4Bは第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける例を示している。図5は仮想空間インターフェース装置12Xの表示データ生成部12Aによって行われる制御の第1例を説明するための図である。詳細には、図5Aはクライアント端末11の表示装置11Aによって表示される図2に示す仮想空間内の状況を示す画像を拡大することによって得られる拡大画像を示しており、図5Bはクライアント端末11の表示装置11Aによって表示される図2に示す仮想空間内の状況を示す画像を縮小することによって得られる縮小画像を示している。
図1に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)と、クライアント端末11の撮影装置11Dと第1ユーザUR1の顔との距離(図4参照)とに基づいて、クライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像(図2参照)の拡大および/または縮小を制御する。「画像の拡大および/または縮小を制御する」とは、表示データ生成部12Aが、例えばクライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像を拡大する機能、および、クライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像を縮小する機能の両方を有することを意味する。表示データ生成部12Aは、第1の場合(例えば、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作をする場合)に、例えばクライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像を拡大する制御を実行する。表示データ生成部12Aは、第1の場合とは異なる第2の場合(例えば、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作をする場合)に、例えばクライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像を縮小する制御を実行する。
具体的には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作(図4A参照)をする場合に、クライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像(図2参照)を拡大する制御を実行し、図5Aに示す拡大画像をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。
また、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をする場合に、クライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像(図2参照)を縮小する制御を実行し、図5Bに示す縮小画像をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。
具体的には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作(図4A参照)をする場合に、クライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像(図2参照)を拡大する制御を実行し、図5Aに示す拡大画像をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。
また、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をする場合に、クライアント端末11の表示装置11Aによって表示される仮想空間内の状況を示す画像(図2参照)を縮小する制御を実行し、図5Bに示す縮小画像をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。
図1に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aが、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像に基づいて、第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をしたか否かを判定する。仮想空間インターフェース装置12Xの表示データ生成部12Aが、例えば特許文献3の段落0041に記載された手法と同様に現在までの公知のジェスチャ認識に関する従来技術を用いることによって、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像に基づいて、第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作をしたか否かを判定してもよい。「第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作」には、例えば、第1ユーザUR1が第1ユーザUR1のまぶた等に第1ユーザUR1の手を触れさせる動作、第1ユーザUR1が、第1ユーザUR1のまぶた等に第1ユーザUR1の手を触れさせないものの、第1ユーザUR1が、第1ユーザUR1の手を、第1ユーザUR1の顔全体のうちの目の部位に最も近づける動作などが含まれる。つまり、第1ユーザUR1が第1ユーザUR1の手を第1ユーザUR1の顔に触れさせない動作も、「第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作」に該当し得る。
図1に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aが、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像に基づいて、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作(図4A参照)をしたか否か、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をしたか否か等を判定する。仮想空間インターフェース装置12Xの表示データ生成部12Aが、特許文献4に記載されるように第1時刻にクライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像上の例えば2つの特徴点間の距離と、第2時刻にクライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像上のそれらの特徴点間の距離とに基づいて、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作をしたか否か、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作をしたか否か等を判定してもよい。
また、仮想空間インターフェース装置12Xの表示データ生成部12Aが、公知のカメラによる距離測定技術を用いることにより、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像に基づいて、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作(図4A参照)をしたか否か、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をしたか否か等を判定してもよい。
また、仮想空間インターフェース装置12Xの表示データ生成部12Aが、公知のカメラによる距離測定技術を用いることにより、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像に基づいて、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作(図4A参照)をしたか否か、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をしたか否か等を判定してもよい。
図1に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の目に第2ユーザUR2の手を当てる動作と、クライアント端末11-2の撮影装置11Dと第2ユーザUR2の顔との距離とに基づいて、クライアント端末11-2の表示装置11Aによって表示される仮想空間内の状況を示す画像(第2クライアント端末用表示データに基づいてクライアント端末11-2の表示装置11Aによって表示される画像)の拡大および/または縮小を制御する。
同様に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の目に第3ユーザUR3の手を当てる動作と、クライアント端末11-3の撮影装置11Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末11-3の表示装置11Aによって表示される仮想空間内の状況を示す画像(第3クライアント端末用表示データに基づいてクライアント端末11-3の表示装置11Aによって表示される画像)の拡大および/または縮小を制御し、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの目に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dと第4ユーザの顔との距離とに基づいて、クライアント端末11-4の表示装置11Aによって表示される仮想空間内の状況を示す画像(第4クライアント端末用表示データに基づいてクライアント端末11-4の表示装置11Aによって表示される画像)の拡大および/または縮小を制御する。
同様に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の目に第3ユーザUR3の手を当てる動作と、クライアント端末11-3の撮影装置11Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末11-3の表示装置11Aによって表示される仮想空間内の状況を示す画像(第3クライアント端末用表示データに基づいてクライアント端末11-3の表示装置11Aによって表示される画像)の拡大および/または縮小を制御し、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの目に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dと第4ユーザの顔との距離とに基づいて、クライアント端末11-4の表示装置11Aによって表示される仮想空間内の状況を示す画像(第4クライアント端末用表示データに基づいてクライアント端末11-4の表示装置11Aによって表示される画像)の拡大および/または縮小を制御する。
図6は第1ユーザUR1がクライアント端末11の撮影装置11Dに対する第1ユーザUR1の顔の向きを変化させる例を説明するための図である。詳細には、図6Aは第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの左側に向ける例を示しており、図6Bは第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの右側に向ける例を示している。図7は仮想空間インターフェース装置12Xの表示データ生成部12Aによって行われる制御の第2例を説明するための図である。詳細には、図7Aはクライアント端末11の表示装置11Aによって表示される図2に示す仮想空間内の状況を示す画像の左側部分を中央に移動させることによって得られる画像を示しており、図7Bはクライアント端末11の表示装置11Aによって表示される図2に示す仮想空間内の状況を示す画像の右側部分を中央に移動させることによって得られる画像を示している。
図1に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)と、クライアント端末11の撮影装置11Dに対する第1ユーザUR1の顔の向き(図6参照)とに基づいて、仮想空間内における位置であって、クライアント端末11の表示装置11Aによって表示される画像に対応する位置を制御する。
具体的には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの左側(図6Aの左側)に向ける動作(図6A参照)をする場合に、仮想空間内において第1アバターAT1の左隣に位置する第2アバターAT2を、クライアント端末11の表示装置11Aによって表示される画像(図7A参照)の左右方向の中央に配置する制御を実行する。更に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、図7Aに示す画像(つまり、図2に示す画像の左側部分を中央に移動させることによって得られる画像)をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。
また、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの右側(図6Bの右側)に向ける動作(図6B参照)をする場合に、仮想空間内において第1アバターAT1の右隣に位置する第3アバターAT3を、クライアント端末11の表示装置11Aによって表示される画像(図7B参照)の左右方向の中央に配置する制御を実行する。更に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、図7Bに示す画像(つまり、図2に示す画像の右側部分を中央に移動させることによって得られる画像)をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。
具体的には、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの左側(図6Aの左側)に向ける動作(図6A参照)をする場合に、仮想空間内において第1アバターAT1の左隣に位置する第2アバターAT2を、クライアント端末11の表示装置11Aによって表示される画像(図7A参照)の左右方向の中央に配置する制御を実行する。更に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、図7Aに示す画像(つまり、図2に示す画像の左側部分を中央に移動させることによって得られる画像)をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。
また、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの右側(図6Bの右側)に向ける動作(図6B参照)をする場合に、仮想空間内において第1アバターAT1の右隣に位置する第3アバターAT3を、クライアント端末11の表示装置11Aによって表示される画像(図7B参照)の左右方向の中央に配置する制御を実行する。更に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、図7Bに示す画像(つまり、図2に示す画像の右側部分を中央に移動させることによって得られる画像)をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データを生成する。
図1に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aが、例えば特許文献5の段落0054に記載された手法と同様の手法などを用いることにより、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像に基づいて、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの左側に向ける動作(図6A参照)をしたか否か、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの右側に向ける動作(図6B参照)をしたか否か等を判定する。
他の例では、仮想空間インターフェース装置12Xの表示データ生成部12Aが、例えば第1時刻にクライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像上の例えば2つの特徴点間の距離の変化速度に基づいて、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの側方に向ける動作をしたか否か等を判定してもよい。
他の例では、仮想空間インターフェース装置12Xの表示データ生成部12Aが、例えば第1時刻にクライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔画像上の例えば2つの特徴点間の距離の変化速度に基づいて、第1ユーザUR1が第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの側方に向ける動作をしたか否か等を判定してもよい。
図1に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の目に第2ユーザUR2の手を当てる動作と、クライアント端末11-2の撮影装置11Dに対する第2ユーザUR2の顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末11-2の表示装置11Aによって表示される画像に対応する位置を制御する。例えば、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の目に第2ユーザUR2の手を当てる動作をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dの左側に向ける動作(仮想空間内の第4アバターAT4に向ける動作)をする場合に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、仮想空間内において第2アバターAT2の左隣に位置する第4アバターAT4を、クライアント端末11-2の表示装置11Aによって表示される画像の左右方向の中央に配置する制御を実行する。
更に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の目に第3ユーザUR3の手を当てる動作と、クライアント端末11-3の撮影装置11Dに対する第3ユーザUR3の顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末11-3の表示装置11Aによって表示される画像に対応する位置を制御する。例えば、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が、第3ユーザUR3の目に第3ユーザUR3の手を当てる動作をし、かつ、第3ユーザUR3の顔をクライアント端末11-3の撮影装置11Dの左側に向ける動作(仮想空間内の第1アバターAT1に向ける動作)をする場合に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、仮想空間内において第3アバターAT3の左隣に位置する第1アバターAT1を、クライアント端末11-3の表示装置11Aによって表示される画像の左右方向の中央に配置する制御を実行する。
同様に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの目に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dに対する第4ユーザの顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末11-4の表示装置11Aによって表示される画像に対応する位置を制御する。例えば、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが、第4ユーザの目に第4ユーザの手を当てる動作をし、かつ、第4ユーザの顔をクライアント端末11-4の撮影装置11Dの左側に向ける動作(仮想空間内の第3アバターAT3に向ける動作)をする場合に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、仮想空間内において第4アバターAT4の左隣に位置する第3アバターAT3を、クライアント端末11-4の表示装置11Aによって表示される画像の左右方向の中央に配置する制御を実行する。
更に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の目に第3ユーザUR3の手を当てる動作と、クライアント端末11-3の撮影装置11Dに対する第3ユーザUR3の顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末11-3の表示装置11Aによって表示される画像に対応する位置を制御する。例えば、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が、第3ユーザUR3の目に第3ユーザUR3の手を当てる動作をし、かつ、第3ユーザUR3の顔をクライアント端末11-3の撮影装置11Dの左側に向ける動作(仮想空間内の第1アバターAT1に向ける動作)をする場合に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、仮想空間内において第3アバターAT3の左隣に位置する第1アバターAT1を、クライアント端末11-3の表示装置11Aによって表示される画像の左右方向の中央に配置する制御を実行する。
同様に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの目に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dに対する第4ユーザの顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末11-4の表示装置11Aによって表示される画像に対応する位置を制御する。例えば、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが、第4ユーザの目に第4ユーザの手を当てる動作をし、かつ、第4ユーザの顔をクライアント端末11-4の撮影装置11Dの左側に向ける動作(仮想空間内の第3アバターAT3に向ける動作)をする場合に、仮想空間インターフェース装置12Xの表示データ生成部12Aは、仮想空間内において第4アバターAT4の左隣に位置する第3アバターAT3を、クライアント端末11-4の表示装置11Aによって表示される画像の左右方向の中央に配置する制御を実行する。
図1に示す例では、音声データ生成部12Bが、仮想空間内の音声をクライアント端末11、11-2、11-3、11-4の音声出力装置11Bに出力させるための音声データを生成する。つまり、音声データ生成部12Bは、仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための音声データと、仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための音声データと、仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための音声データと、仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための音声データとを生成する。
詳細には、音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声と、クライアント端末11-3の収音装置11Cによって収音される第3ユーザUR3が発する音声と、クライアント端末11-4の収音装置11Cによって収音される第4ユーザが発する音声とに基づいて、第2ユーザUR2が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。
また、音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声と、クライアント端末11-3の収音装置11Cによって収音される第3ユーザUR3が発する音声と、クライアント端末11-4の収音装置11Cによって収音される第4ユーザが発する音声とに基づいて、第1ユーザUR1が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。
更に、音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声と、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声と、クライアント端末11-4の収音装置11Cによって収音される第4ユーザが発する音声とに基づいて、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成する。
また、音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声と、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声と、クライアント端末11-3の収音装置11Cによって収音される第3ユーザUR3が発する音声とに基づいて、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第3ユーザUR3が発する音声を仮想空間内の音声としてクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
他の例では、音声データ生成部12Bが、第1ユーザUR1~第4ユーザUR4が発生する音声とは異なる、例えば背景音、アバター以外のオブジェクトに設定された音声(例えば動作音など)等をクライアント端末11、11-2、11-3、11-4の音声出力装置11Bに出力させるための音声データ、音声データ生成部12Bが、第1ユーザUR1~第4ユーザUR4が発生する音声とは異なる、例えば背景音、アバター以外のオブジェクトに設定された音声等を仮想空間内に出力(放音)するための音声データなどを生成してもよい。
図1に示す例では、音声データ生成部12Bが、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声、クライアント端末11-3の収音装置11Cによって収音される第3ユーザUR3が発する音声、クライアント端末11-4の収音装置11Cによって収音される第4ユーザUR4が発する音声などに基づいて、クライアント端末11、11-2、11-3、11-4のいずれの音声出力装置11Bにも出力させないものの、仮想空間内に出力される(例えば仮想空間インターフェース装置12Xに記録される)音声データを生成することもできる。
また、音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声と、クライアント端末11-3の収音装置11Cによって収音される第3ユーザUR3が発する音声と、クライアント端末11-4の収音装置11Cによって収音される第4ユーザが発する音声とに基づいて、第1ユーザUR1が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。
更に、音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声と、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声と、クライアント端末11-4の収音装置11Cによって収音される第4ユーザが発する音声とに基づいて、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成する。
また、音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声と、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声と、クライアント端末11-3の収音装置11Cによって収音される第3ユーザUR3が発する音声とに基づいて、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第3ユーザUR3が発する音声を仮想空間内の音声としてクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
他の例では、音声データ生成部12Bが、第1ユーザUR1~第4ユーザUR4が発生する音声とは異なる、例えば背景音、アバター以外のオブジェクトに設定された音声(例えば動作音など)等をクライアント端末11、11-2、11-3、11-4の音声出力装置11Bに出力させるための音声データ、音声データ生成部12Bが、第1ユーザUR1~第4ユーザUR4が発生する音声とは異なる、例えば背景音、アバター以外のオブジェクトに設定された音声等を仮想空間内に出力(放音)するための音声データなどを生成してもよい。
図1に示す例では、音声データ生成部12Bが、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声、クライアント端末11-3の収音装置11Cによって収音される第3ユーザUR3が発する音声、クライアント端末11-4の収音装置11Cによって収音される第4ユーザUR4が発する音声などに基づいて、クライアント端末11、11-2、11-3、11-4のいずれの音声出力装置11Bにも出力させないものの、仮想空間内に出力される(例えば仮想空間インターフェース装置12Xに記録される)音声データを生成することもできる。
図8は第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作の一例を説明するための図である。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2の顔画像に基づいて、第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作をしたか否かを判定する。仮想空間インターフェース装置12Xの音声データ生成部12Bが、例えば特許文献3の段落0041に記載された手法と同様に現在までの公知のジェスチャ認識に関する従来技術を用いることによって、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2の顔画像に基づいて、第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作をしたか否かを判定してもよい。「第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作」には、例えば、第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を触れさせる動作、第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を触れさせないものの、第2ユーザUR2が、第2ユーザUR2の手を、第2ユーザUR2の顔全体のうちの耳の部位に最も近づける動作などが含まれる。つまり、第2ユーザUR2が第2ユーザUR2の手を第2ユーザUR2の顔に触れさせない動作も、「第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作」に該当し得る。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2の顔画像に基づいて、第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作をしたか否かを判定する。仮想空間インターフェース装置12Xの音声データ生成部12Bが、例えば特許文献3の段落0041に記載された手法と同様に現在までの公知のジェスチャ認識に関する従来技術を用いることによって、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2の顔画像に基づいて、第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作をしたか否かを判定してもよい。「第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作」には、例えば、第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を触れさせる動作、第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を触れさせないものの、第2ユーザUR2が、第2ユーザUR2の手を、第2ユーザUR2の顔全体のうちの耳の部位に最も近づける動作などが含まれる。つまり、第2ユーザUR2が第2ユーザUR2の手を第2ユーザUR2の顔に触れさせない動作も、「第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作」に該当し得る。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作と、クライアント端末11の撮影装置11Dと第1ユーザUR1の顔との距離(図4参照)とに基づいて、クライアント端末11の音声出力装置11Bによって出力される仮想空間内の音声の音量を制御する。
具体的には、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作(図4A参照)をする場合に、クライアント端末11の音声出力装置11Bによって出力される仮想空間内の音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をする場合に、クライアント端末11の音声出力装置11Bによって出力される仮想空間内の音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内において第1アバターAT1から最も離れている第4アバターAT4に対応する第4ユーザが発する音声が、クライアント端末11の音声出力装置11Bによって出力されなくなるように制御してもよい。
具体的には、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作(図4A参照)をする場合に、クライアント端末11の音声出力装置11Bによって出力される仮想空間内の音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をする場合に、クライアント端末11の音声出力装置11Bによって出力される仮想空間内の音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内において第1アバターAT1から最も離れている第4アバターAT4に対応する第4ユーザが発する音声が、クライアント端末11の音声出力装置11Bによって出力されなくなるように制御してもよい。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)と、クライアント端末11-2の撮影装置11Dと第2ユーザUR2の顔との距離とに基づいて、クライアント端末11-2の音声出力装置11Bによって出力される仮想空間内の音声の音量を制御する。
具体的には、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dに近づける動作をする場合に、クライアント端末11-2の音声出力装置11Bによって出力される仮想空間内の音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dから遠ざける動作をする場合に、クライアント端末11-2の音声出力装置11Bによって出力される仮想空間内の音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内において第2アバターAT2から最も離れている第3アバターAT3に対応する第3ユーザUR3が発する音声が、クライアント端末11-2の音声出力装置11Bによって出力されなくなるように制御してもよい。
具体的には、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dに近づける動作をする場合に、クライアント端末11-2の音声出力装置11Bによって出力される仮想空間内の音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dから遠ざける動作をする場合に、クライアント端末11-2の音声出力装置11Bによって出力される仮想空間内の音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内において第2アバターAT2から最も離れている第3アバターAT3に対応する第3ユーザUR3が発する音声が、クライアント端末11-2の音声出力装置11Bによって出力されなくなるように制御してもよい。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の耳に第3ユーザUR3の手を当てる動作と、クライアント端末11-3の撮影装置11Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末11-3の音声出力装置11Bによって出力される仮想空間内の音声の音量を制御する。また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dと第4ユーザの顔との距離とに基づいて、クライアント端末11-4の音声出力装置11Bによって出力される仮想空間内の音声の音量を制御する。
また、図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作と、クライアント端末11の撮影装置11Dに対する第1ユーザUR1の顔の向き(図6参照)とに基づいて、クライアント端末11の音声出力装置11Bによって出力される仮想空間からの音声の到来方向を制御する。
図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11の音声出力装置11Bによって出力される仮想空間からの音声の到来方向の制御を実行するために、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作と、クライアント端末11の撮影装置11Dに対する第1ユーザUR1の顔の向きと、仮想空間内における第2アバターAT2の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末11の音声出力装置11Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声の音量を制御する。
具体的には、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの左側(図6Aの左側、図2に示す仮想空間内の第2アバターAT2の側、図2に示す仮想空間内の第3アバターAT3の反対側)に向ける動作(図6A参照)をする場合に、クライアント端末11の音声出力装置11Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声の音量を増加させると共に、第3ユーザUR3が発する音声の音量を減少させる制御を実行する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、第2ユーザUR2が発する音声の音量が増加させられると共に、第3ユーザUR3が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内における第3アバターAT3に対応する第3ユーザUR3が発する音声が、クライアント端末11の音声出力装置11Bによって出力されなくなるように制御してもよい。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの右側(図6Bの右側、図2に示す仮想空間内の第3アバターAT3の側、図2に示す仮想空間内の第2アバターAT2の反対側)に向ける動作(図6B参照)をする場合に、クライアント端末11の音声出力装置11Bによって仮想空間内の音声として出力される、第3ユーザUR3が発する音声の音量を増加させると共に、第2ユーザUR2が発する音声の音量を減少させる制御を実行する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、第3ユーザUR3が発する音声の音量が増加させられると共に、第2ユーザUR2が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内における第2アバターAT2に対応する第2ユーザUR2が発する音声が、クライアント端末11の音声出力装置11Bによって出力されなくなるように制御してもよい。
すなわち、仮想空間内における第1アバターAT1に対して、第1ユーザUR1の顔を向けた方向から到来する音声の音量を増加し、第1ユーザUR1の顔を向けた方向とは逆方向から到来する音声の音量を減少させることにより、仮想空間からの音声の到来方向を制御する。
図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11の音声出力装置11Bによって出力される仮想空間からの音声の到来方向の制御を実行するために、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作と、クライアント端末11の撮影装置11Dに対する第1ユーザUR1の顔の向きと、仮想空間内における第2アバターAT2の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末11の音声出力装置11Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声の音量を制御する。
具体的には、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの左側(図6Aの左側、図2に示す仮想空間内の第2アバターAT2の側、図2に示す仮想空間内の第3アバターAT3の反対側)に向ける動作(図6A参照)をする場合に、クライアント端末11の音声出力装置11Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声の音量を増加させると共に、第3ユーザUR3が発する音声の音量を減少させる制御を実行する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、第2ユーザUR2が発する音声の音量が増加させられると共に、第3ユーザUR3が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内における第3アバターAT3に対応する第3ユーザUR3が発する音声が、クライアント端末11の音声出力装置11Bによって出力されなくなるように制御してもよい。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの右側(図6Bの右側、図2に示す仮想空間内の第3アバターAT3の側、図2に示す仮想空間内の第2アバターAT2の反対側)に向ける動作(図6B参照)をする場合に、クライアント端末11の音声出力装置11Bによって仮想空間内の音声として出力される、第3ユーザUR3が発する音声の音量を増加させると共に、第2ユーザUR2が発する音声の音量を減少させる制御を実行する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、第3ユーザUR3が発する音声の音量が増加させられると共に、第2ユーザUR2が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内における第2アバターAT2に対応する第2ユーザUR2が発する音声が、クライアント端末11の音声出力装置11Bによって出力されなくなるように制御してもよい。
すなわち、仮想空間内における第1アバターAT1に対して、第1ユーザUR1の顔を向けた方向から到来する音声の音量を増加し、第1ユーザUR1の顔を向けた方向とは逆方向から到来する音声の音量を減少させることにより、仮想空間からの音声の到来方向を制御する。
更に、図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)と、クライアント端末11-2の撮影装置11Dに対する第2ユーザUR2の顔の向きとに基づいて、クライアント端末11-2の音声出力装置11Bによって出力される仮想空間からの音声の到来方向を制御する。
図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11-2の音声出力装置11Bによって出力される仮想空間からの音声の到来方向の制御を実行するために、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作と、クライアント端末11-2の撮影装置11Dに対する第2ユーザUR2の顔の向きと、仮想空間内における第1アバターAT1の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末11-2の音声出力装置11Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声の音量を制御する。
具体的には、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dの左側(図2に示す仮想空間内の第4アバターAT4の側、図2に示す仮想空間内の第1アバターAT1の反対側)に向ける動作をする場合に、クライアント端末11-2の音声出力装置11Bによって仮想空間内の音声として出力される、第4ユーザが発する音声の音量を増加させると共に、第1ユーザUR1が発する音声の音量を減少させる制御を実行する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、第4ユーザが発する音声の音量が増加させられると共に、第1ユーザUR1が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内における第1アバターAT1に対応する第1ユーザUR1が発する音声が、クライアント端末11-2の音声出力装置11Bによって出力されなくなるように制御してもよい。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dの右側(図2に示す仮想空間内の第1アバターAT1の側、図2に示す仮想空間内の第4アバターAT4の反対側)に向ける動作をする場合に、クライアント端末11-2の音声出力装置11Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声の音量を増加させると共に、第4ユーザが発する音声の音量を減少させる制御を実行する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、第1ユーザUR1が発する音声の音量が増加させられると共に、第4ユーザが発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内における第4アバターAT4に対応する第4ユーザが発する音声が、クライアント端末11-2の音声出力装置11Bによって出力されなくなるように制御してもよい。
図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11-2の音声出力装置11Bによって出力される仮想空間からの音声の到来方向の制御を実行するために、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作と、クライアント端末11-2の撮影装置11Dに対する第2ユーザUR2の顔の向きと、仮想空間内における第1アバターAT1の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末11-2の音声出力装置11Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声の音量を制御する。
具体的には、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dの左側(図2に示す仮想空間内の第4アバターAT4の側、図2に示す仮想空間内の第1アバターAT1の反対側)に向ける動作をする場合に、クライアント端末11-2の音声出力装置11Bによって仮想空間内の音声として出力される、第4ユーザが発する音声の音量を増加させると共に、第1ユーザUR1が発する音声の音量を減少させる制御を実行する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、第4ユーザが発する音声の音量が増加させられると共に、第1ユーザUR1が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内における第1アバターAT1に対応する第1ユーザUR1が発する音声が、クライアント端末11-2の音声出力装置11Bによって出力されなくなるように制御してもよい。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dの右側(図2に示す仮想空間内の第1アバターAT1の側、図2に示す仮想空間内の第4アバターAT4の反対側)に向ける動作をする場合に、クライアント端末11-2の音声出力装置11Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声の音量を増加させると共に、第4ユーザが発する音声の音量を減少させる制御を実行する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、第1ユーザUR1が発する音声の音量が増加させられると共に、第4ユーザが発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、図2に示す仮想空間内における第4アバターAT4に対応する第4ユーザが発する音声が、クライアント端末11-2の音声出力装置11Bによって出力されなくなるように制御してもよい。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の耳に第3ユーザUR3の手を当てる動作と、クライアント端末11-3の撮影装置11Dに対する第3ユーザUR3の顔の向きとに基づいて、クライアント端末11-3の音声出力装置11Bによって出力される仮想空間からの音声の到来方向を制御する。図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11-3の音声出力装置11Bによって出力される仮想空間からの音声の到来方向の制御を実行するために、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の耳に第3ユーザUR3の手を当てる動作と、クライアント端末11-3の撮影装置11Dに対する第3ユーザUR3の顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第4アバターAT4の位置とに基づいて、クライアント端末11-3の音声出力装置11Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第4ユーザが発する音声の音量を制御する。また、図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dに対する第4ユーザの顔の向きとに基づいて、クライアント端末11-4の音声出力装置11Bによって出力される仮想空間からの音声の到来方向を制御する。図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11-4の音声出力装置11Bによって出力される仮想空間からの音声の到来方向の制御を実行するために、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dに対する第4ユーザの顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第3アバターAT3の位置とに基づいて、クライアント端末11-4の音声出力装置11Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第3ユーザUR3が発する音声の音量を制御する。
図9は第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作の一例を説明するための図である。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3の顔画像に基づいて、第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作をしたか否かを判定する。仮想空間インターフェース装置12Xの音声データ生成部12Bが、例えば特許文献3の段落0041に記載された手法と同様に現在までの公知のジェスチャ認識に関する従来技術を用いることによって、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3の顔画像に基づいて、第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作をしたか否かを判定してもよい。「第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作」には、例えば、第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を触れさせる動作、第3ユーザUR3が、第3ユーザUR3の口に第3ユーザUR3の手を触れさせないものの、第3ユーザUR3が、第3ユーザUR3の手を、第3ユーザUR3の顔全体のうちの口の部位に最も近づける動作などが含まれる。つまり、第3ユーザUR3が第3ユーザUR3の手を第3ユーザUR3の顔に触れさせない動作も、「第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作」に該当し得る。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bが、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3の顔画像に基づいて、第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作をしたか否かを判定する。仮想空間インターフェース装置12Xの音声データ生成部12Bが、例えば特許文献3の段落0041に記載された手法と同様に現在までの公知のジェスチャ認識に関する従来技術を用いることによって、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3の顔画像に基づいて、第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作をしたか否かを判定してもよい。「第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作」には、例えば、第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を触れさせる動作、第3ユーザUR3が、第3ユーザUR3の口に第3ユーザUR3の手を触れさせないものの、第3ユーザUR3が、第3ユーザUR3の手を、第3ユーザUR3の顔全体のうちの口の部位に最も近づける動作などが含まれる。つまり、第3ユーザUR3が第3ユーザUR3の手を第3ユーザUR3の顔に触れさせない動作も、「第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作」に該当し得る。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の口に第1ユーザUR1の手を当てる動作と、クライアント端末11の撮影装置11Dと第1ユーザUR1の顔との距離(図4参照)とに基づいて、クライアント端末11の収音装置11Cによって収音されて仮想空間内に出力される第1ユーザUR1が発する音声の音量を制御する。仮想空間内に出力される第1ユーザUR1が発する音声は、クライアント端末11-2、11-3、11-4のそれぞれの音声出力装置11Bによって出力されてもよく、クライアント端末11-2、11-3、11-4のそれぞれの音声出力装置11Bによって出力されなくてもよい(この場合、第1ユーザUR1が発する音声は、例えば仮想空間インターフェース装置12Xに記録されてもよい)。
例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の口に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dに近づける動作(図4A参照)をする場合に、仮想空間内に出力されてクライアント端末11-2の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される音量を増加させる制御を実行する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される音量を増加させる制御を実行する。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の口に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をする場合に、仮想空間内に出力されてクライアント端末11-2の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される音量を減少させる制御を実行する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される音量を減少させる制御を実行する。
図1に示す例では、上述したように、第1ユーザUR1が、第1ユーザUR1の口に第1ユーザUR1の手を当て、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dから遠ざける動作(図4B参照)をする場合に、音声データ生成部12Bが、仮想空間内に出力されてクライアント端末11-2等の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量を減少させる制御を実行するが、他の例では、第1ユーザUR1が、第1ユーザUR1の口を第1ユーザUR1の手でふさぐ場合に、音声データ生成部12Bが、仮想空間内に出力されてクライアント端末11-2等の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量をゼロにする制御を実行してもよい。
図1に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末11-2の撮影装置11Dと第2ユーザUR2の顔との距離とに基づいて、クライアント端末11-2の収音装置11Cによって収音されて仮想空間内に出力される第2ユーザUR2が発する音声の音量を制御する。仮想空間内に出力される第2ユーザUR2が発する音声は、クライアント端末11、11-3、11-4のそれぞれの音声出力装置11Bによって出力されてもよく、クライアント端末11、11-3、11-4のそれぞれの音声出力装置11Bによって出力されなくてもよい(この場合、第2ユーザUR2が発する音声は、例えば仮想空間インターフェース装置12Xに記録されてもよい)。
例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の口に第2ユーザUR2の手を当てる動作をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dに近づける動作をする場合に、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される第2ユーザUR2が発する音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される第2ユーザUR2が発する音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される第2ユーザUR2が発する音声の音量を増加させる制御を実行し、音量が増加させられた仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される音量を増加させる制御を実行する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される音量を増加させる制御を実行する。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の口に第2ユーザUR2の手を当てる動作をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dから遠ざける動作をする場合に、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される第2ユーザUR2が発する音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される第2ユーザUR2が発する音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される第2ユーザUR2が発する音声の音量を減少させる制御を実行し、音量が減少させられた仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される音量を減少させる制御を実行する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される音量を減少させる制御を実行する。
図1に示す例では、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作(図9参照)と、クライアント端末11-3の撮影装置11Dと第3ユーザUR3の顔との距離とに基づいて、仮想空間内に出力されてクライアント端末11、11-2、11-4のそれぞれの音声出力装置11Bによって出力される第3ユーザUR3が発する音声の音量を制御する。また、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの口に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dと第4ユーザの顔との距離とに基づいて、仮想空間内に出力されてクライアント端末11、11-2、11-3のそれぞれの音声出力装置11Bによって出力される第4ユーザが発する音声の音量を制御する。
また、図1に示す例では、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の口に第1ユーザUR1の手を当てる動作と、クライアント端末11の撮影装置11Dに対する第1ユーザUR1の顔の向き(図6参照)とに基づいて、第1ユーザUR1が発する音声(クライアント端末11の収音装置11Cによって収音される音声)の仮想空間への出力方向を制御する。
図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の口に第1ユーザUR1の手を当てる動作と、クライアント端末11の撮影装置11Dに対する第1ユーザUR1の顔の向きと、仮想空間内における第2アバターAT2の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、仮想空間内に出力されてクライアント端末11-2の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を制御する。
図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が第1ユーザUR1の口に第1ユーザUR1の手を当てる動作と、クライアント端末11の撮影装置11Dに対する第1ユーザUR1の顔の向きと、仮想空間内における第2アバターAT2の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、仮想空間内に出力されてクライアント端末11-2の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を制御する。
具体的には、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の口に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの左側(図6Aの左側、図2に示す仮想空間内の第2アバターAT2の側、図2に示す仮想空間内の第3アバターAT3の反対側)に向ける動作(図6A参照)をする場合に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-2の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を増加させると共に、第1ユーザUR1が発する音声の音量が増加させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を減少させると共に、第1ユーザUR1が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成する。更に、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を変更せず、第1ユーザUR1が発する音声の音量が変更されない仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
すなわち、仮想空間内における第1アバターAT1に対して、第1ユーザUR1の顔を向けた方向に存在するアバター(例えば第2アバターAT2)に対応するユーザ(例えば第2ユーザUR2)のクライアント端末(例えばクライアント端末11-2)の音声出力装置11Bによって出力される音声の音量を増加し、第1ユーザUR1の顔を向けた方向とは逆方向に存在するアバター(例えば第3アバターAT3)に対応するユーザ(例えば第3ユーザUR3)のクライアント端末(クライアント端末11-3)の音声出力装置11Bによって出力される音声の音量を減少させることにより、音声の方向を制御する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
すなわち、仮想空間内における第1アバターAT1に対して、第1ユーザUR1の顔を向けた方向に存在するアバター(例えば第2アバターAT2)に対応するユーザ(例えば第2ユーザUR2)のクライアント端末(例えばクライアント端末11-2)の音声出力装置11Bによって出力される音声の音量を増加し、第1ユーザUR1の顔を向けた方向とは逆方向に存在するアバター(例えば第3アバターAT3)に対応するユーザ(例えば第3ユーザUR3)のクライアント端末(クライアント端末11-3)の音声出力装置11Bによって出力される音声の音量を減少させることにより、音声の方向を制御する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
図1に示す例では、上述したように、第1ユーザUR1が、第1ユーザUR1の口に第1ユーザUR1の手を当て、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの左側(図2に示す仮想空間内の第3アバターAT3の反対側)に向ける動作をする場合に、音声データ生成部12Bが、クライアント端末11-3の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量を減少させる制御を実行するが、他の例では、第1ユーザUR1が、第1ユーザUR1の口を第1ユーザUR1の手でふさぐ場合に、音声データ生成部12Bが、クライアント端末11-3等の音声出力装置11Bによって出力される第1ユーザUR1が発する音声の音量をゼロにする制御を実行してもよい。
また、例えば、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1が、第1ユーザUR1の口に第1ユーザUR1の手を当てる動作をし、かつ、第1ユーザUR1の顔をクライアント端末11の撮影装置11Dの右側(図6Bの右側、図2に示す仮想空間内の第3アバターAT3の側、図2に示す仮想空間内の第2アバターAT2の反対側)に向ける動作(図6B参照)をする場合に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-2の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を減少させると共に、第1ユーザUR1が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データを生成する。また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を増加させると共に、第1ユーザUR1が発する音声の音量が増加させられた仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成する。更に、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第1ユーザUR1が発する音声の音量を変更せず、第1ユーザUR1が発する音声の音量が変更されない仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11の収音装置11Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
また、図1に示す例では、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末11-2の撮影装置11Dに対する第2ユーザUR2の顔の向きとに基づいて、第2ユーザUR2が発する音声(クライアント端末11-2の収音装置11Cによって収音される音声)の仮想空間への出力方向を制御する。
図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末11-2の撮影装置11Dに対する第2ユーザUR2の顔の向きと、仮想空間内における第1アバターAT1の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を制御する。
図1および図2に示す例では、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末11-2の撮影装置11Dに対する第2ユーザUR2の顔の向きと、仮想空間内における第1アバターAT1の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を制御する。
具体的には、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の口に第2ユーザUR2の手を当てる動作をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dの左側(図2に示す仮想空間内の第4アバターAT4の側、図2に示す仮想空間内の第1アバターAT1の反対側)に向ける動作をする場合に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を増加させると共に、第2ユーザUR2が発する音声の音量が増加させられた仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を減少させると共に、第2ユーザUR2が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。更に、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を変更せず、第2ユーザUR2が発する音声の音量が変更されない仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成する。
すなわち、仮想空間内における第2アバターAT2に対して、第2ユーザUR2の顔を向けた方向に存在するアバター(例えば第4アバターAT4)に対応するユーザ(例えば第4ユーザUR4)のクライアント端末(例えばクライアント端末11-4)の音声出力装置11Bによって出力される音声の音量を増加し、第2ユーザUR2の顔を向けた方向とは逆方向に存在するアバター(例えば第1アバターAT1)に対応するユーザ(例えば第1ユーザUR1)のクライアント端末(クライアント端末11)の音声出力装置11Bによって出力される音声の音量を減少させることにより、音声の方向を制御する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
すなわち、仮想空間内における第2アバターAT2に対して、第2ユーザUR2の顔を向けた方向に存在するアバター(例えば第4アバターAT4)に対応するユーザ(例えば第4ユーザUR4)のクライアント端末(例えばクライアント端末11-4)の音声出力装置11Bによって出力される音声の音量を増加し、第2ユーザUR2の顔を向けた方向とは逆方向に存在するアバター(例えば第1アバターAT1)に対応するユーザ(例えば第1ユーザUR1)のクライアント端末(クライアント端末11)の音声出力装置11Bによって出力される音声の音量を減少させることにより、音声の方向を制御する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
また、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2が、第2ユーザUR2の口に第2ユーザUR2の手を当てる動作をし、かつ、第2ユーザUR2の顔をクライアント端末11-2の撮影装置11Dの右側(図2に示す仮想空間内の第1アバターAT1の側、図2に示す仮想空間内の第4アバターAT4の反対側)に向ける動作をする場合に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を減少させると共に、第2ユーザUR2が発する音声の音量が減少させられた仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データを生成する。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を増加させると共に、第2ユーザUR2が発する音声の音量が増加させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を変更せず、第2ユーザUR2が発する音声の音量が変更されない仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
また、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を増加させると共に、第2ユーザUR2が発する音声の音量が増加させられた仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データを生成する。更に、仮想空間インターフェース装置12Xの音声データ生成部12Bは、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第2ユーザUR2が発する音声の音量を変更せず、第2ユーザUR2が発する音声の音量が変更されない仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データを生成する。
換言すれば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-2の収音装置11Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
図1および図2に示す例では、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作(図9参照)と、クライアント端末11-3の撮影装置11Dに対する第3ユーザUR3の顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第4アバターAT4の位置とに基づいて、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される、第3ユーザUR3が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-2の音声出力装置11Bによって出力される、第3ユーザUR3が発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-4の音声出力装置11Bによって出力される、第3ユーザUR3が発する音声の音量を制御する。また、例えば、仮想空間インターフェース装置12Xの音声データ生成部12Bは、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザが第4ユーザの口に第4ユーザの手を当てる動作と、クライアント端末11-4の撮影装置11Dに対する第4ユーザの顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第3アバターAT3の位置とに基づいて、仮想空間内に出力されてクライアント端末11の音声出力装置11Bによって出力される、第4ユーザが発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-2の音声出力装置11Bによって出力される、第4ユーザが発する音声の音量を制御し、仮想空間内に出力されてクライアント端末11-3の音声出力装置11Bによって出力される、第4ユーザが発する音声の音量を制御する。
上述したように、図1に示す例では、仮想空間インターフェース装置12Xの表示データ生成部12Aおよび音声データ生成部12Bは、クライアント端末11の撮影装置11Dによって撮影される第1ユーザUR1の顔領域に手を位置させるジェスチャ(目に手を当てる動作、耳に手を当てる動作、口に手を当てる動作)と、クライアント端末11の撮影装置11Dと第1ユーザUR1の顔との位置関係(近づく、遠ざかる、クライアント端末11の撮影装置11Dの左側を向く、クライアント端末11の撮影装置11Dの右側を向く)と、クライアント端末11-2の撮影装置11Dによって撮影される第2ユーザUR2の顔領域に手を位置させるジェスチャ(目に手を当てる動作、耳に手を当てる動作、口に手を当てる動作)と、クライアント端末11-2の撮影装置11Dと第2ユーザUR2の顔との位置関係(近づく、遠ざかる、クライアント端末11-2の撮影装置11Dの左側を向く、クライアント端末11-2の撮影装置11Dの右側を向く)と、クライアント端末11-3の撮影装置11Dによって撮影される第3ユーザUR3の顔領域に手を位置させるジェスチャ(目に手を当てる動作、耳に手を当てる動作、口に手を当てる動作)と、クライアント端末11-3の撮影装置11Dと第3ユーザUR3の顔との位置関係(近づく、遠ざかる、クライアント端末11-3の撮影装置11Dの左側を向く、クライアント端末11-3の撮影装置11Dの右側を向く)と、クライアント端末11-4の撮影装置11Dによって撮影される第4ユーザの顔領域に手を位置させるジェスチャ(目に手を当てる動作、耳に手を当てる動作、口に手を当てる動作)と、クライアント端末11-4の撮影装置11Dと第4ユーザの顔との位置関係(近づく、遠ざかる、クライアント端末11-4の撮影装置11Dの左側を向く、クライアント端末11-4の撮影装置11Dの右側を向く)とに基づいて、制御対象として、仮想空間内の状況を示す画像をクライアント端末11の表示装置11Aに表示させるための第1クライアント端末用表示データ、仮想空間内の状況を示す画像をクライアント端末11-2の表示装置11Aに表示させるための第2クライアント端末用表示データ、仮想空間内の状況を示す画像をクライアント端末11-3の表示装置11Aに表示させるための第3クライアント端末用表示データ、仮想空間内の状況を示す画像をクライアント端末11-4の表示装置11Aに表示させるための第4クライアント端末用表示データ、仮想空間内の音声をクライアント端末11の音声出力装置11Bに出力させるための第1クライアント端末用音声データ、仮想空間内の音声をクライアント端末11-2の音声出力装置11Bに出力させるための第2クライアント端末用音声データ、仮想空間内の音声をクライアント端末11-3の音声出力装置11Bに出力させるための第3クライアント端末用音声データ、および、仮想空間内の音声をクライアント端末11-4の音声出力装置11Bに出力させるための第4クライアント端末用音声データの少なくともいずれかを制御する。
更に、表示データ生成部12Aおよび音声データ生成部12Bは、第1ユーザUR1が手を位置させる顔領域の部位(目、耳または口)と、第2ユーザUR2が手を位置させる顔領域の部位(目、耳または口)と、第3ユーザUR3が手を位置させる顔領域の部位(目、耳または口)と、第4ユーザが手を位置させる顔領域の部位(目、耳または口)とに応じて、制御対象(第1~第4クライアント端末用表示データおよび第1~第4クライアント端末用音声データの少なくともいずれか)を異ならせる。
更に、表示データ生成部12Aおよび音声データ生成部12Bは、第1ユーザUR1が手を位置させる顔領域の部位(目、耳または口)と、第2ユーザUR2が手を位置させる顔領域の部位(目、耳または口)と、第3ユーザUR3が手を位置させる顔領域の部位(目、耳または口)と、第4ユーザが手を位置させる顔領域の部位(目、耳または口)とに応じて、制御対象(第1~第4クライアント端末用表示データおよび第1~第4クライアント端末用音声データの少なくともいずれか)を異ならせる。
図10は第1実施形態の仮想空間インターフェース装置12Xによって実行される処理の一例を説明するためのフローチャートである。
図10に示す例では、仮想空間インターフェース装置12Xが、図10に示すルーチンにおいて、第1ユーザUR1によって使用されるクライアント端末11、第2ユーザUR2によって使用されるクライアント端末11-2、第3ユーザUR3によって使用されるクライアント端末11-3および第4ユーザによって使用されるクライアント端末11-4に仮想空間を提供する仮想空間提供ステップS1を実行する。
仮想空間提供ステップS1には、表示データ生成ステップS1Aと、音声データ生成ステップS1Bとが含まれる。
仮想空間インターフェース装置12Xは、表示データ生成ステップS1Aにおいて、仮想空間内の状況を示す画像をクライアント端末11、11-2、11-3、11-4のそれぞれの表示装置11Aに表示させるための表示データ(第1~第4クライアント端末用表示データ)を生成する。
また、仮想空間インターフェース装置12Xは、音声データ生成ステップS1Bにおいて、仮想空間内の音声をクライアント端末11、11-2、11-3、11-4のそれぞれの音声出力装置11Bに出力させるための音声データ(第1~第4クライアント端末用音声データ)を生成する。
図10に示す例では、仮想空間インターフェース装置12Xが、図10に示すルーチンにおいて、第1ユーザUR1によって使用されるクライアント端末11、第2ユーザUR2によって使用されるクライアント端末11-2、第3ユーザUR3によって使用されるクライアント端末11-3および第4ユーザによって使用されるクライアント端末11-4に仮想空間を提供する仮想空間提供ステップS1を実行する。
仮想空間提供ステップS1には、表示データ生成ステップS1Aと、音声データ生成ステップS1Bとが含まれる。
仮想空間インターフェース装置12Xは、表示データ生成ステップS1Aにおいて、仮想空間内の状況を示す画像をクライアント端末11、11-2、11-3、11-4のそれぞれの表示装置11Aに表示させるための表示データ(第1~第4クライアント端末用表示データ)を生成する。
また、仮想空間インターフェース装置12Xは、音声データ生成ステップS1Bにおいて、仮想空間内の音声をクライアント端末11、11-2、11-3、11-4のそれぞれの音声出力装置11Bに出力させるための音声データ(第1~第4クライアント端末用音声データ)を生成する。
第1実施形態の仮想空間インターフェース装置12Xが適用された仮想空間提供システム1では、第1ユーザUR1、第2ユーザUR2、第3ユーザUR3および第4ユーザが、操作部を用いた入力操作を行う必要なく、仮想空間提供サーバ12によって提供される仮想空間を利用することができる。つまり、第1実施形態の仮想空間提供システム1では、第1ユーザUR1、第2ユーザUR2、第3ユーザUR3および第4ユーザの利便性を向上させることができる。
他の例では、仮想空間内でのユーザとオブジェクトの位置関係によって、見える景色(クライアント端末に表示される画像)、聞こえる音(クライアント端末から出力される音声)、発する音(仮想空間内に出力される音声)が変化してもよい。この例では、仮想空間内に決められた座標でオブジェクトが配置され、表示される。
更に他の例では、仮想空間内の音声が、他のユーザのアバターが発する音声、鳥の声などの環境音であってもよく、オブジェクトが特定の音声出力を行ってもよい。例えば、木のオブジェクトから音楽を流す等の設定を行い、ユーザ(の座標)が近づくことによって、ユーザが使用するクライアント端末から音楽が聞こえてきてもよい。
更に他の例では、どのユーザが聞いているかを問わず、仮想空間内に音を出力すること、特定のオブジェクトに音声を記録(メッセージを録音)することを仮想空間インターフェース装置12Xが行ってもよい。
他の例では、仮想空間内でのユーザとオブジェクトの位置関係によって、見える景色(クライアント端末に表示される画像)、聞こえる音(クライアント端末から出力される音声)、発する音(仮想空間内に出力される音声)が変化してもよい。この例では、仮想空間内に決められた座標でオブジェクトが配置され、表示される。
更に他の例では、仮想空間内の音声が、他のユーザのアバターが発する音声、鳥の声などの環境音であってもよく、オブジェクトが特定の音声出力を行ってもよい。例えば、木のオブジェクトから音楽を流す等の設定を行い、ユーザ(の座標)が近づくことによって、ユーザが使用するクライアント端末から音楽が聞こえてきてもよい。
更に他の例では、どのユーザが聞いているかを問わず、仮想空間内に音を出力すること、特定のオブジェクトに音声を記録(メッセージを録音)することを仮想空間インターフェース装置12Xが行ってもよい。
<第2実施形態>
以下、本発明の仮想空間インターフェース装置、クライアント端末およびプログラムの第2実施形態について説明する。
第2実施形態の仮想空間提供システム2は、後述する点を除き、上述した第1実施形態の仮想空間提供システム1と同様に構成されている。従って、第2実施形態の仮想空間提供システム2によれば、後述する点を除き、上述した第1実施形態の仮想空間提供システム1と同様の効果を奏することができる。
以下、本発明の仮想空間インターフェース装置、クライアント端末およびプログラムの第2実施形態について説明する。
第2実施形態の仮想空間提供システム2は、後述する点を除き、上述した第1実施形態の仮想空間提供システム1と同様に構成されている。従って、第2実施形態の仮想空間提供システム2によれば、後述する点を除き、上述した第1実施形態の仮想空間提供システム1と同様の効果を奏することができる。
図11は第2実施形態の仮想空間インターフェース装置21Eが適用された仮想空間提供システム2の一例を示す図である。
図11に示す例では、仮想空間提供システム2が、クライアント端末21、21-2、21-3、21-4を備えている。クライアント端末21、21-2、21-3、21-4は、例えばインターネット等のネットワークNWを介して接続されている。
図11に示す例では、仮想空間提供システム2が、4つのクライアント端末21、21-2、21-3、21-4を備えているが、他の例では、仮想空間提供システム2が、4以外の任意の数のクライアント端末を備えていてもよい。
図11に示す例では、仮想空間提供システム2が、クライアント端末21、21-2、21-3、21-4を備えている。クライアント端末21、21-2、21-3、21-4は、例えばインターネット等のネットワークNWを介して接続されている。
図11に示す例では、仮想空間提供システム2が、4つのクライアント端末21、21-2、21-3、21-4を備えているが、他の例では、仮想空間提供システム2が、4以外の任意の数のクライアント端末を備えていてもよい。
図11に示す例では、クライアント端末21が、例えば第1ユーザUR1(図3参照)によって使用される。クライアント端末21は、表示装置21Aと、音声出力装置21Bと、収音装置21Cと、撮影装置21Dと、仮想空間インターフェース装置21Eと、処理装置21Fとを備えている。
表示装置21Aは、図1に示す表示装置11Aと概略同様の機能を有し、仮想空間インターフェース装置21Eによって提供される表示データに基づいて、仮想空間内の状況を示す画像(図2参照)を表示する。音声出力装置21Bは、図1に示す音声出力装置11Bと概略同様の機能を有し、仮想空間インターフェース装置21Eによって提供される音声データに基づいて仮想空間内の音声を出力する。収音装置21Cは、図1に示す収音装置11Cと概略同様の機能を有し、第1ユーザUR1が発する音声を収音する。撮影装置21Dは、図1に示す撮影装置11Dと概略同様の機能を有し、第1ユーザUR1の顔画像を撮影する。
仮想空間インターフェース装置21Eは、クライアント端末21、21-2、21-3、21-4に対して表示データおよび音声データを提供することによって仮想空間を提供する。仮想空間インターフェース装置21Eは、図1に示す表示データ生成部12Aと概略同様の機能を有する表示データ生成部21E1と、図1に示す音声データ生成部12Bと概略同様の機能を有する音声データ生成部21E2とを備えている。
処理装置21Fは、図1に示す処理装置12Yと概略同様の機能を有する。
表示装置21Aは、図1に示す表示装置11Aと概略同様の機能を有し、仮想空間インターフェース装置21Eによって提供される表示データに基づいて、仮想空間内の状況を示す画像(図2参照)を表示する。音声出力装置21Bは、図1に示す音声出力装置11Bと概略同様の機能を有し、仮想空間インターフェース装置21Eによって提供される音声データに基づいて仮想空間内の音声を出力する。収音装置21Cは、図1に示す収音装置11Cと概略同様の機能を有し、第1ユーザUR1が発する音声を収音する。撮影装置21Dは、図1に示す撮影装置11Dと概略同様の機能を有し、第1ユーザUR1の顔画像を撮影する。
仮想空間インターフェース装置21Eは、クライアント端末21、21-2、21-3、21-4に対して表示データおよび音声データを提供することによって仮想空間を提供する。仮想空間インターフェース装置21Eは、図1に示す表示データ生成部12Aと概略同様の機能を有する表示データ生成部21E1と、図1に示す音声データ生成部12Bと概略同様の機能を有する音声データ生成部21E2とを備えている。
処理装置21Fは、図1に示す処理装置12Yと概略同様の機能を有する。
クライアント端末21-2は、例えば第1ユーザUR1とは異なる第2ユーザUR2(図8参照)によって使用される。クライアント端末21-3は、例えば第1ユーザUR1および第2ユーザUR2とは異なる第3ユーザUR3(図9参照)によって使用される。
クライアント端末21-4は、例えば第1ユーザUR1、第2ユーザUR2および第3ユーザUR3とは異なる第4ユーザによって使用される。
図11に示す例では、クライアント端末21-2、21-3、21-4のそれぞれが、クライアント端末21の仮想空間インターフェース装置21Eおよび処理装置21Fを除く部分と概略同様に構成されている。つまり、クライアント端末21-2、21-3、21-4のそれぞれが、表示装置21Aと、音声出力装置21Bと、収音装置21Cと、撮影装置21Dとを備えている。
他の例では、クライアント端末21の仮想空間インターフェース装置21Eおよび処理装置21Fを除く部分の構成とクライアント端末21-2の構成とクライアント端末21-3の構成とクライアント端末21-4の構成とが異なっていたり、クライアント端末21の仮想空間インターフェース装置21Eおよび処理装置21Fを除く部分およびクライアント端末21-2、21-3、21-4のうちのいずれかの構成が残りの構成と異なっていたりしてもよい。
クライアント端末21-4は、例えば第1ユーザUR1、第2ユーザUR2および第3ユーザUR3とは異なる第4ユーザによって使用される。
図11に示す例では、クライアント端末21-2、21-3、21-4のそれぞれが、クライアント端末21の仮想空間インターフェース装置21Eおよび処理装置21Fを除く部分と概略同様に構成されている。つまり、クライアント端末21-2、21-3、21-4のそれぞれが、表示装置21Aと、音声出力装置21Bと、収音装置21Cと、撮影装置21Dとを備えている。
他の例では、クライアント端末21の仮想空間インターフェース装置21Eおよび処理装置21Fを除く部分の構成とクライアント端末21-2の構成とクライアント端末21-3の構成とクライアント端末21-4の構成とが異なっていたり、クライアント端末21の仮想空間インターフェース装置21Eおよび処理装置21Fを除く部分およびクライアント端末21-2、21-3、21-4のうちのいずれかの構成が残りの構成と異なっていたりしてもよい。
表示データ生成部21E1は、仮想空間内の状況を示す画像をクライアント端末21、21-2、21-3、21-4の表示装置21Aに表示させるための表示データを生成する。
詳細には、表示データ生成部21E1は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1の顔画像(図3参照)に基づいて、仮想空間内に位置する第1アバターAT1(図2参照)を生成する。同様に、表示データ生成部21E1は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2の顔画像(図8参照)に基づいて、仮想空間内に位置する第2アバターAT2(図2参照)を生成し、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3の顔画像(図9参照)に基づいて、仮想空間内に位置する第3アバターAT3(図2参照)を生成し、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザの顔画像に基づいて、仮想空間内に位置する第4アバターAT4(図2参照)を生成する。
詳細には、表示データ生成部21E1は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1の顔画像(図3参照)に基づいて、仮想空間内に位置する第1アバターAT1(図2参照)を生成する。同様に、表示データ生成部21E1は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2の顔画像(図8参照)に基づいて、仮想空間内に位置する第2アバターAT2(図2参照)を生成し、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3の顔画像(図9参照)に基づいて、仮想空間内に位置する第3アバターAT3(図2参照)を生成し、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザの顔画像に基づいて、仮想空間内に位置する第4アバターAT4(図2参照)を生成する。
更に、表示データ生成部21E1は、仮想空間内の状況を示す画像として、第1アバターAT1、第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像(図2参照)をクライアント端末21の表示装置21Aに表示させるための第1クライアント端末用表示データを生成する。同様に、表示データ生成部21E1は、仮想空間内の状況を示す画像として、第1アバターAT1、第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像をクライアント端末21-2の表示装置21Aに表示させるための第2クライアント端末用表示データを生成し、仮想空間内の状況を示す画像として、第1アバターAT1、第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像をクライアント端末21-3の表示装置21Aに表示させるための第3クライアント端末用表示データを生成し、仮想空間内の状況を示す画像として、第1アバターAT1、第2アバターAT2、第3アバターAT3および第4アバターAT4を含む画像をクライアント端末21-4の表示装置21Aに表示させるための第4クライアント端末用表示データを生成する。
図11に示す例では、表示データ生成部21E1は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)と、クライアント端末21の撮影装置21Dと第1ユーザUR1の顔との距離とに基づいて、クライアント端末21の表示装置21Aによって表示される仮想空間内の状況を示す画像(第1クライアント端末用表示データに基づいてクライアント端末21の表示装置21Aによって表示される画像)(図2参照)の拡大および/または縮小を制御する。
また、表示データ生成部21E1は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の目に第2ユーザUR2の手を当てる動作と、クライアント端末21-2の撮影装置21Dと第2ユーザUR2の顔との距離とに基づいて、クライアント端末21-2の表示装置11Aによって表示される仮想空間内の状況を示す画像(第2クライアント端末用表示データに基づいてクライアント端末21-2の表示装置21Aによって表示される画像)の拡大および/または縮小を制御する。
同様に、表示データ生成部21E1は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の目に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末21-3の表示装置21Aによって表示される仮想空間内の状況を示す画像(第3クライアント端末用表示データに基づいてクライアント端末21-3の表示装置21Aによって表示される画像)の拡大および/または縮小を制御し、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの目に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dと第4ユーザの顔との距離とに基づいて、クライアント端末21-4の表示装置21Aによって表示される仮想空間内の状況を示す画像(第4クライアント端末用表示データに基づいてクライアント端末21-4の表示装置21Aによって表示される画像)の拡大および/または縮小を制御する。
同様に、表示データ生成部21E1は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の目に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末21-3の表示装置21Aによって表示される仮想空間内の状況を示す画像(第3クライアント端末用表示データに基づいてクライアント端末21-3の表示装置21Aによって表示される画像)の拡大および/または縮小を制御し、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの目に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dと第4ユーザの顔との距離とに基づいて、クライアント端末21-4の表示装置21Aによって表示される仮想空間内の状況を示す画像(第4クライアント端末用表示データに基づいてクライアント端末21-4の表示装置21Aによって表示される画像)の拡大および/または縮小を制御する。
図11に示す例では、表示データ生成部21E1は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の目に第1ユーザUR1の手を当てる動作(図3参照)と、クライアント端末21の撮影装置21Dに対する第1ユーザUR1の顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末21の表示装置21Aによって表示される画像に対応する位置を制御する。
また、表示データ生成部21E1は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の目に第2ユーザUR2の手を当てる動作と、クライアント端末21-2の撮影装置21Dに対する第2ユーザUR2の顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末21-2の表示装置21Aによって表示される画像に対応する位置を制御する。
更に、表示データ生成部21E1は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の目に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dに対する第3ユーザUR3の顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末21-3の表示装置21Aによって表示される画像に対応する位置を制御する。
同様に、表示データ生成部21E1は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの目に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末21-4の表示装置21Aによって表示される画像に対応する位置を制御する。
更に、表示データ生成部21E1は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の目に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dに対する第3ユーザUR3の顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末21-3の表示装置21Aによって表示される画像に対応する位置を制御する。
同様に、表示データ生成部21E1は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの目に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きとに基づいて、仮想空間内における位置であって、クライアント端末21-4の表示装置21Aによって表示される画像に対応する位置を制御する。
図11に示す例では、音声データ生成部21E2が、仮想空間内の音声をクライアント端末21、21-2、21-3、21-4の音声出力装置21Bに出力させるための音声データを生成する。つまり、音声データ生成部21E2は、仮想空間内の音声をクライアント端末21の音声出力装置21Bに出力させるための音声データと、仮想空間内の音声をクライアント端末21-2の音声出力装置21Bに出力させるための音声データと、仮想空間内の音声をクライアント端末21-3の音声出力装置21Bに出力させるための音声データと、仮想空間内の音声をクライアント端末21-4の音声出力装置21Bに出力させるための音声データとを生成する。
詳細には、音声データ生成部21E2は、クライアント端末21-2の収音装置21Cによって収音される第2ユーザUR2が発する音声と、クライアント端末21-3の収音装置21Cによって収音される第3ユーザUR3が発する音声と、クライアント端末21-4の収音装置21Cによって収音される第4ユーザが発する音声とに基づいて、第2ユーザUR2が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末21の音声出力装置21Bに出力させるための第1クライアント端末用音声データを生成する。
また、音声データ生成部21E2は、クライアント端末21の収音装置21Cによって収音される第1ユーザUR1が発する音声と、クライアント端末21-3の収音装置21Cによって収音される第3ユーザUR3が発する音声と、クライアント端末21-4の収音装置21Cによって収音される第4ユーザが発する音声とに基づいて、第1ユーザUR1が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末21-2の音声出力装置21Bに出力させるための第2クライアント端末用音声データを生成する。
更に、音声データ生成部21E2は、クライアント端末21の収音装置21Cによって収音される第1ユーザUR1が発する音声と、クライアント端末21-2の収音装置21Cによって収音される第2ユーザUR2が発する音声と、クライアント端末21-4の収音装置21Cによって収音される第4ユーザが発する音声とに基づいて、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末21-3の音声出力装置21Bに出力させるための第3クライアント端末用音声データを生成する。
また、音声データ生成部21E2は、クライアント端末21の収音装置21Cによって収音される第1ユーザUR1が発する音声と、クライアント端末21-2の収音装置21Cによって収音される第2ユーザUR2が発する音声と、クライアント端末21-3の収音装置21Cによって収音される第3ユーザUR3が発する音声とに基づいて、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第3ユーザUR3が発する音声を仮想空間内の音声としてクライアント端末21-4の音声出力装置21Bに出力させるための第4クライアント端末用音声データを生成する。
また、音声データ生成部21E2は、クライアント端末21の収音装置21Cによって収音される第1ユーザUR1が発する音声と、クライアント端末21-3の収音装置21Cによって収音される第3ユーザUR3が発する音声と、クライアント端末21-4の収音装置21Cによって収音される第4ユーザが発する音声とに基づいて、第1ユーザUR1が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末21-2の音声出力装置21Bに出力させるための第2クライアント端末用音声データを生成する。
更に、音声データ生成部21E2は、クライアント端末21の収音装置21Cによって収音される第1ユーザUR1が発する音声と、クライアント端末21-2の収音装置21Cによって収音される第2ユーザUR2が発する音声と、クライアント端末21-4の収音装置21Cによって収音される第4ユーザが発する音声とに基づいて、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第4ユーザが発する音声を仮想空間内の音声としてクライアント端末21-3の音声出力装置21Bに出力させるための第3クライアント端末用音声データを生成する。
また、音声データ生成部21E2は、クライアント端末21の収音装置21Cによって収音される第1ユーザUR1が発する音声と、クライアント端末21-2の収音装置21Cによって収音される第2ユーザUR2が発する音声と、クライアント端末21-3の収音装置21Cによって収音される第3ユーザUR3が発する音声とに基づいて、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第3ユーザUR3が発する音声を仮想空間内の音声としてクライアント端末21-4の音声出力装置21Bに出力させるための第4クライアント端末用音声データを生成する。
図11に示す例では、音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作と、クライアント端末21の撮影装置21Dと第1ユーザUR1の顔との距離とに基づいて、クライアント端末21の音声出力装置21Bによって出力される仮想空間内の音声の音量を制御する。
音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)と、クライアント端末21-2の撮影装置21Dと第2ユーザUR2の顔との距離とに基づいて、クライアント端末21-2の音声出力装置21Bによって出力される仮想空間内の音声の音量を制御する。
音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の耳に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末21-3の音声出力装置21Bによって出力される仮想空間内の音声の音量を制御する。また、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dと第4ユーザの顔との距離とに基づいて、クライアント端末21-4の音声出力装置21Bによって出力される仮想空間内の音声の音量を制御する。
音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)と、クライアント端末21-2の撮影装置21Dと第2ユーザUR2の顔との距離とに基づいて、クライアント端末21-2の音声出力装置21Bによって出力される仮想空間内の音声の音量を制御する。
音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の耳に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末21-3の音声出力装置21Bによって出力される仮想空間内の音声の音量を制御する。また、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dと第4ユーザの顔との距離とに基づいて、クライアント端末21-4の音声出力装置21Bによって出力される仮想空間内の音声の音量を制御する。
図11に示す例では、音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作と、クライアント端末21の撮影装置21Dに対する第1ユーザUR1の顔の向きとに基づいて、クライアント端末21の音声出力装置21Bによって出力される仮想空間からの音声の到来方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作と、クライアント端末21の撮影装置21Dに対する第1ユーザUR1の顔の向きと、仮想空間内における第2アバターAT2の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末21の音声出力装置21Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声の音量を制御する。
また、図11に示す例では、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)と、クライアント端末21-2の撮影装置21Dに対する第2ユーザUR2の顔の向きとに基づいて、クライアント端末21-2の音声出力装置21Bによって出力される仮想空間からの音声の到来方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)と、クライアント端末21-2の撮影装置21Dに対する第2ユーザUR2の顔の向きと、仮想空間内における第1アバターAT1の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末21-2の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声の音量を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の耳に第1ユーザUR1の手を当てる動作と、クライアント端末21の撮影装置21Dに対する第1ユーザUR1の顔の向きと、仮想空間内における第2アバターAT2の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末21の音声出力装置21Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声の音量を制御する。
また、図11に示す例では、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)と、クライアント端末21-2の撮影装置21Dに対する第2ユーザUR2の顔の向きとに基づいて、クライアント端末21-2の音声出力装置21Bによって出力される仮想空間からの音声の到来方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の耳に第2ユーザUR2の手を当てる動作(図8参照)と、クライアント端末21-2の撮影装置21Dに対する第2ユーザUR2の顔の向きと、仮想空間内における第1アバターAT1の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末21-2の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第3ユーザUR3が発する音声および第4ユーザが発する音声の音量を制御する。
更に、図11に示す例では、音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の耳に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dに対する第3ユーザUR3の顔の向きとに基づいて、クライアント端末21-3の音声出力装置21Bによって出力される仮想空間からの音声の到来方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の耳に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dに対する第3ユーザUR3の顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第4アバターAT4の位置とに基づいて、クライアント端末21-3の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第4ユーザが発する音声の音量を制御する。
また、図11に示す例では、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きとに基づいて、クライアント端末21-4の音声出力装置21Bによって出力される仮想空間からの音声の到来方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第3アバターAT3の位置とに基づいて、クライアント端末21-4の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第3ユーザUR3が発する音声の音量を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の耳に第3ユーザUR3の手を当てる動作と、クライアント端末21-3の撮影装置21Dに対する第3ユーザUR3の顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第4アバターAT4の位置とに基づいて、クライアント端末21-3の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第4ユーザが発する音声の音量を制御する。
また、図11に示す例では、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きとに基づいて、クライアント端末21-4の音声出力装置21Bによって出力される仮想空間からの音声の到来方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの耳に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第3アバターAT3の位置とに基づいて、クライアント端末21-4の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声、第2ユーザUR2が発する音声および第3ユーザUR3が発する音声の音量を制御する。
図11に示す例では、音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の口に第1ユーザUR1の手を当てる動作と、クライアント端末21の撮影装置21Dと第1ユーザUR1の顔との距離とに基づいて、クライアント端末21-2、21-3、21-4のそれぞれの音声出力装置21Bによって出力される仮想空間内の音声(第1ユーザUR1が発する音声)の音量を制御する。
また、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末21-2の撮影装置21Dと第2ユーザUR2の顔との距離とに基づいて、クライアント端末21、21-3、21-4のそれぞれの音声出力装置21Bによって出力される仮想空間内の音声(第2ユーザUR2が発する音声)の音量を制御する。
更に、音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作(図9参照)と、クライアント端末21-3の撮影装置21Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末21、21-2、21-4のそれぞれの音声出力装置21Bによって出力される仮想空間内の音声(第3ユーザUR3が発する音声)の音量を制御する。また、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの口に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dと第4ユーザの顔との距離とに基づいて、クライアント端末21、21-2、21-3のそれぞれの音声出力装置21Bによって出力される仮想空間内の音声(第4ユーザが発する音声)の音量を制御する。
また、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末21-2の撮影装置21Dと第2ユーザUR2の顔との距離とに基づいて、クライアント端末21、21-3、21-4のそれぞれの音声出力装置21Bによって出力される仮想空間内の音声(第2ユーザUR2が発する音声)の音量を制御する。
更に、音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作(図9参照)と、クライアント端末21-3の撮影装置21Dと第3ユーザUR3の顔との距離とに基づいて、クライアント端末21、21-2、21-4のそれぞれの音声出力装置21Bによって出力される仮想空間内の音声(第3ユーザUR3が発する音声)の音量を制御する。また、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの口に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dと第4ユーザの顔との距離とに基づいて、クライアント端末21、21-2、21-3のそれぞれの音声出力装置21Bによって出力される仮想空間内の音声(第4ユーザが発する音声)の音量を制御する。
図11に示す例では、音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の口に第1ユーザUR1の手を当てる動作と、クライアント端末21の撮影装置21Dに対する第1ユーザUR1の顔の向きとに基づいて、第1ユーザUR1が発する音声(クライアント端末21の収音装置21Cによって収音される音声)の仮想空間への出力方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の口に第1ユーザUR1の手を当てる動作と、クライアント端末21の撮影装置21Dに対する第1ユーザUR1の顔の向きと、仮想空間内における第2アバターAT2の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末21-2の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声の音量を制御し、クライアント端末21-3の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声の音量を制御し、クライアント端末21-4の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声の音量を制御する。
換言すれば、音声データ生成部21E2は、クライアント端末21の収音装置21Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1が第1ユーザUR1の口に第1ユーザUR1の手を当てる動作と、クライアント端末21の撮影装置21Dに対する第1ユーザUR1の顔の向きと、仮想空間内における第2アバターAT2の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末21-2の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声の音量を制御し、クライアント端末21-3の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声の音量を制御し、クライアント端末21-4の音声出力装置21Bによって仮想空間内の音声として出力される、第1ユーザUR1が発する音声の音量を制御する。
換言すれば、音声データ生成部21E2は、クライアント端末21の収音装置21Cによって収音される第1ユーザUR1が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
また、図11に示す例では、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末21-2の撮影装置11Dに対する第2ユーザUR2の顔の向きとに基づいて、第2ユーザUR2が発する音声(クライアント端末21-2の収音装置21Cによって収音される音声)の仮想空間への出力方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末21-2の撮影装置11Dに対する第2ユーザUR2の顔の向きと、仮想空間内における第1アバターAT1の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末21の音声出力装置21Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声の音量を制御し、クライアント端末21-3の音声出力装置21Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声の音量を制御し、クライアント端末21-4の音声出力装置21Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声の音量を制御する。
換言すれば、音声データ生成部21E2は、クライアント端末21-2の収音装置21Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2が第2ユーザUR2の口に第2ユーザUR2の手を当てる動作と、クライアント端末21-2の撮影装置11Dに対する第2ユーザUR2の顔の向きと、仮想空間内における第1アバターAT1の位置、第3アバターAT3の位置および第4アバターAT4の位置とに基づいて、クライアント端末21の音声出力装置21Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声の音量を制御し、クライアント端末21-3の音声出力装置21Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声の音量を制御し、クライアント端末21-4の音声出力装置21Bによって仮想空間内の音声として出力される、第2ユーザUR2が発する音声の音量を制御する。
換言すれば、音声データ生成部21E2は、クライアント端末21-2の収音装置21Cによって収音される第2ユーザUR2が発する音声が仮想空間内に放音(出力)される方向の制御を実行する。
更に、図11に示す例では、音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作(図9参照)と、クライアント端末21-3の撮影装置21Dに対する第3ユーザUR3の顔の向きとに基づいて、第3ユーザUR3が発する音声(クライアント端末21-3の収音装置21Cによって収音される音声)の仮想空間への出力方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作(図9参照)と、クライアント端末21-3の撮影装置21Dに対する第3ユーザUR3の顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第4アバターAT4の位置とに基づいて、クライアント端末21の音声出力装置21Bによって仮想空間内の音声として出力される、第3ユーザUR3が発する音声の音量を制御し、クライアント端末21-2の音声出力装置21Bによって仮想空間内の音声として出力される、第3ユーザUR3が発する音声の音量を制御し、クライアント端末21-4の音声出力装置21Bによって仮想空間内の音声として出力される、第3ユーザUR3が発する音声の音量を制御する。
また、図11に示す例では、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの口に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きとに基づいて、第4ユーザUR4が発する音声(クライアント端末21-4の収音装置21Cによって収音される音声)の仮想空間への出力方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの口に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第3アバターAT3の位置とに基づいて、クライアント端末21の音声出力装置21Bによって仮想空間内の音声として出力される、第4ユーザが発する音声の音量を制御し、クライアント端末21-2の音声出力装置21Bによって仮想空間内の音声として出力される、第4ユーザが発する音声の音量を制御し、クライアント端末21-3の音声出力装置21Bによって仮想空間内の音声として出力される、第4ユーザが発する音声の音量を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3が第3ユーザUR3の口に第3ユーザUR3の手を当てる動作(図9参照)と、クライアント端末21-3の撮影装置21Dに対する第3ユーザUR3の顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第4アバターAT4の位置とに基づいて、クライアント端末21の音声出力装置21Bによって仮想空間内の音声として出力される、第3ユーザUR3が発する音声の音量を制御し、クライアント端末21-2の音声出力装置21Bによって仮想空間内の音声として出力される、第3ユーザUR3が発する音声の音量を制御し、クライアント端末21-4の音声出力装置21Bによって仮想空間内の音声として出力される、第3ユーザUR3が発する音声の音量を制御する。
また、図11に示す例では、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの口に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きとに基づいて、第4ユーザUR4が発する音声(クライアント端末21-4の収音装置21Cによって収音される音声)の仮想空間への出力方向を制御する。
図2および図11に示す例では、音声データ生成部21E2は、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザが第4ユーザの口に第4ユーザの手を当てる動作と、クライアント端末21-4の撮影装置21Dに対する第4ユーザの顔の向きと、仮想空間内における第1アバターAT1の位置、第2アバターAT2の位置および第3アバターAT3の位置とに基づいて、クライアント端末21の音声出力装置21Bによって仮想空間内の音声として出力される、第4ユーザが発する音声の音量を制御し、クライアント端末21-2の音声出力装置21Bによって仮想空間内の音声として出力される、第4ユーザが発する音声の音量を制御し、クライアント端末21-3の音声出力装置21Bによって仮想空間内の音声として出力される、第4ユーザが発する音声の音量を制御する。
上述したように、図11に示す例では、クライアント端末21の仮想空間インターフェース装置21Eの表示データ生成部21E1および音声データ生成部21E2は、クライアント端末21の撮影装置21Dによって撮影される第1ユーザUR1の顔領域に手を位置させるジェスチャ(目に手を当てる動作、耳に手を当てる動作、口に手を当てる動作)と、クライアント端末21の撮影装置21Dと第1ユーザUR1の顔との位置関係(近づく、遠ざかる、クライアント端末21の撮影装置21Dの左側を向く、クライアント端末21の撮影装置21Dの右側を向く)と、クライアント端末21-2の撮影装置21Dによって撮影される第2ユーザUR2の顔領域に手を位置させるジェスチャ(目に手を当てる動作、耳に手を当てる動作、口に手を当てる動作)と、クライアント端末21-2の撮影装置21Dと第2ユーザUR2の顔との位置関係(近づく、遠ざかる、クライアント端末21-2の撮影装置21Dの左側を向く、クライアント端末21-2の撮影装置21Dの右側を向く)と、クライアント端末21-3の撮影装置21Dによって撮影される第3ユーザUR3の顔領域に手を位置させるジェスチャ(目に手を当てる動作、耳に手を当てる動作、口に手を当てる動作)と、クライアント端末21-3の撮影装置21Dと第3ユーザUR3の顔との位置関係(近づく、遠ざかる、クライアント端末21-3の撮影装置21Dの左側を向く、クライアント端末21-3の撮影装置21Dの右側を向く)と、クライアント端末21-4の撮影装置21Dによって撮影される第4ユーザの顔領域に手を位置させるジェスチャ(目に手を当てる動作、耳に手を当てる動作、口に手を当てる動作)と、クライアント端末21-4の撮影装置21Dと第4ユーザの顔との位置関係(近づく、遠ざかる、クライアント端末21-4の撮影装置21Dの左側を向く、クライアント端末21-4の撮影装置21Dの右側を向く)とに基づいて、制御対象として、仮想空間内の状況を示す画像をクライアント端末21の表示装置21Aに表示させるための第1クライアント端末用表示データ、仮想空間内の状況を示す画像をクライアント端末21-2の表示装置21Aに表示させるための第2クライアント端末用表示データ、仮想空間内の状況を示す画像をクライアント端末21-3の表示装置21Aに表示させるための第3クライアント端末用表示データ、仮想空間内の状況を示す画像をクライアント端末21-4の表示装置21Aに表示させるための第4クライアント端末用表示データ、仮想空間内の音声をクライアント端末21の音声出力装置21Bに出力させるための第1クライアント端末用音声データ、仮想空間内の音声をクライアント端末21-2の音声出力装置21Bに出力させるための第2クライアント端末用音声データ、仮想空間内の音声をクライアント端末21-3の音声出力装置21Bに出力させるための第3クライアント端末用音声データ、および、仮想空間内の音声をクライアント端末21-4の音声出力装置21Bに出力させるための第4クライアント端末用音声データの少なくともいずれかを制御する。
更に、表示データ生成部21E1および音声データ生成部21E2は、第1ユーザUR1が手を位置させる顔領域の部位(目、耳または口)と、第2ユーザUR2が手を位置させる顔領域の部位(目、耳または口)と、第3ユーザUR3が手を位置させる顔領域の部位(目、耳または口)と、第4ユーザが手を位置させる顔領域の部位(目、耳または口)とに応じて、制御対象(第1~第4クライアント端末用表示データおよび第1~第4クライアント端末用音声データの少なくともいずれか)を異ならせる。
更に、表示データ生成部21E1および音声データ生成部21E2は、第1ユーザUR1が手を位置させる顔領域の部位(目、耳または口)と、第2ユーザUR2が手を位置させる顔領域の部位(目、耳または口)と、第3ユーザUR3が手を位置させる顔領域の部位(目、耳または口)と、第4ユーザが手を位置させる顔領域の部位(目、耳または口)とに応じて、制御対象(第1~第4クライアント端末用表示データおよび第1~第4クライアント端末用音声データの少なくともいずれか)を異ならせる。
図12は第2実施形態の仮想空間インターフェース装置21Eによって実行される処理の一例を説明するためのフローチャートである。
図12に示す例では、仮想空間インターフェース装置21Eが、図12に示すルーチンにおいて、第1ユーザUR1によって使用されるクライアント端末21、第2ユーザUR2によって使用されるクライアント端末21-2、第3ユーザUR3によって使用されるクライアント端末21-3および第4ユーザによって使用されるクライアント端末21-4に仮想空間を提供する仮想空間提供ステップS2を実行する。
仮想空間提供ステップS2には、表示データ生成ステップS2Aと、音声データ生成ステップS2Bとが含まれる。
仮想空間インターフェース装置21Eは、表示データ生成ステップS2Aにおいて、仮想空間内の状況を示す画像をクライアント端末21、21-2、21-3、21-4のそれぞれの表示装置21Aに表示させるための表示データ(第1~第4クライアント端末用表示データ)を生成する。
また、仮想空間インターフェース装置21Eは、音声データ生成ステップS2Bにおいて、仮想空間内の音声をクライアント端末21、21-2、21-3、21-4のそれぞれの音声出力装置11Bに出力させるための音声データ(第1~第4クライアント端末用音声データ)を生成する。
図12に示す例では、仮想空間インターフェース装置21Eが、図12に示すルーチンにおいて、第1ユーザUR1によって使用されるクライアント端末21、第2ユーザUR2によって使用されるクライアント端末21-2、第3ユーザUR3によって使用されるクライアント端末21-3および第4ユーザによって使用されるクライアント端末21-4に仮想空間を提供する仮想空間提供ステップS2を実行する。
仮想空間提供ステップS2には、表示データ生成ステップS2Aと、音声データ生成ステップS2Bとが含まれる。
仮想空間インターフェース装置21Eは、表示データ生成ステップS2Aにおいて、仮想空間内の状況を示す画像をクライアント端末21、21-2、21-3、21-4のそれぞれの表示装置21Aに表示させるための表示データ(第1~第4クライアント端末用表示データ)を生成する。
また、仮想空間インターフェース装置21Eは、音声データ生成ステップS2Bにおいて、仮想空間内の音声をクライアント端末21、21-2、21-3、21-4のそれぞれの音声出力装置11Bに出力させるための音声データ(第1~第4クライアント端末用音声データ)を生成する。
第2実施形態の仮想空間インターフェース装置21Eが適用された仮想空間提供システム2では、第1ユーザUR1、第2ユーザUR2、第3ユーザUR3および第4ユーザが、操作部を用いた入力操作を行う必要なく、仮想空間インターフェース装置21Eによって提供される仮想空間を利用することができる。つまり、第2実施形態の仮想空間提供システム2では、第1ユーザUR1、第2ユーザUR2、第3ユーザUR3および第4ユーザの利便性を向上させることができる。
以上、本発明を実施するための形態について実施形態を用いて説明したが、本発明はこうした実施形態に何等限定されるものではなく、本発明の要旨を逸脱しない範囲内において種々の変形及び置換を加えることができる。上述した各実施形態および各例に記載の構成を適宜組み合わせてもよい。
なお、上述した実施形態における仮想空間提供システム1、2が備える各部の機能全体あるいはその一部は、これらの機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現しても良い。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶部のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶部のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでも良い。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
1…仮想空間提供システム、11、11-2、11-3、11-4…クライアント端末、11A…表示装置、11B…音声出力装置、11C…収音装置、11D…撮影装置、12…仮想空間提供サーバ、12A…表示データ生成部、12B…音声データ生成部、12X…仮想空間インターフェース装置、12Y…処理装置、2…仮想空間提供システム、21、21-2、21-3、21-4…クライアント端末、21A…表示装置、21B…音声出力装置、21C…収音装置、21D…撮影装置、21E…仮想空間インターフェース装置、21E1…表示データ生成部、21E2…音声データ生成部、21F…処理装置、NW…ネットワーク、UR1…第1ユーザ、UR2…第2ユーザ、UR3…第3ユーザ、AT1…第1アバター、AT2…第2アバター、AT3…第3アバター、AT4…第4アバター
Claims (14)
- 少なくともユーザによって使用されるクライアント端末を備える仮想空間提供システムに備えられる仮想空間インターフェース装置であって、
前記クライアント端末は、
仮想空間内の状況を示す画像を表示する表示装置と、
前記仮想空間内の音声を出力する音声出力装置と、
前記ユーザが発する音声を収音する収音装置と、
前記ユーザの顔画像を撮影する撮影装置とを備え、
前記仮想空間インターフェース装置は、
前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための表示データを生成する表示データ生成部と、
前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データを生成する音声データ生成部とを備え、
前記音声データ生成部は、
前記クライアント端末の収音装置によって収音される前記ユーザが発する音声を前記仮想空間内に出力するための音声データを生成し、
前記表示データ生成部および前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための前記表示データ、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データ、および、前記ユーザが発する音声を前記仮想空間内に出力するための音声データの少なくともいずれかを制御し、
前記表示データ生成部および前記音声データ生成部は、
前記ユーザが手を位置させる顔領域の部位に応じて、前記制御対象を異ならせる、
仮想空間インターフェース装置。 - 前記表示データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの目に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置と前記ユーザの顔との距離とに基づいて、前記クライアント端末の表示装置によって表示される前記仮想空間内の状況を示す画像の拡大および/または縮小を制御し、
前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの耳に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置と前記ユーザの顔との距離とに基づいて、前記クライアント端末の音声出力装置によって出力される前記仮想空間内の音声の音量を制御し、
前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの口に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置と前記ユーザの顔との距離とに基づいて、前記クライアント端末の収音装置によって収音されて前記仮想空間内に出力される前記ユーザが発する音声の音量を制御する、
請求項1に記載の仮想空間インターフェース装置。 - 前記表示データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの目に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置に対する前記ユーザの顔の向きとに基づいて、前記仮想空間内における位置であって、前記クライアント端末の表示装置によって表示される画像に対応する位置を制御し、
前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの耳に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置に対する前記ユーザの顔の向きとに基づいて、前記クライアント端末の音声出力装置によって出力される前記仮想空間からの音声の到来方向を制御し、
前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの口に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置に対する前記ユーザの顔の向きとに基づいて、前記ユーザが発する音声の前記仮想空間への出力方向を制御する、
請求項1に記載の仮想空間インターフェース装置。 - 仮想空間インターフェース装置を備える仮想空間提供システムに備えられ、ユーザによって使用されるクライアント端末であって、
仮想空間内の状況を示す画像を表示する表示装置と、
前記仮想空間内の音声を出力する音声出力装置と、
前記ユーザが発する音声を収音する収音装置と、
前記ユーザの顔画像を撮影する撮影装置とを備え、
前記表示装置は、前記仮想空間インターフェース装置の表示データ生成部によって生成される表示データに基づいて、前記仮想空間内の状況を示す画像を表示し、
前記音声出力装置は、前記仮想空間インターフェース装置の音声データ生成部によって生成される音声データに基づいて、前記仮想空間内の音声を出力し、
前記仮想空間インターフェース装置の前記音声データ生成部は、前記収音装置によって収音される前記ユーザが発する音声を前記仮想空間内に出力するための音声データを生成し、
前記仮想空間インターフェース装置の前記表示データ生成部および前記音声データ生成部は、
前記撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の状況を示す画像を前記表示装置に表示させるための前記表示データ、前記仮想空間内の音声を前記音声出力装置に出力させるための音声データ、および、前記ユーザが発する音声を前記仮想空間内に出力するための音声データの少なくともいずれかを制御し、
前記仮想空間インターフェース装置の前記表示データ生成部および前記音声データ生成部は、
前記ユーザが手を位置させる顔領域の部位に応じて、前記制御対象を異ならせる、
クライアント端末。 - 仮想空間インターフェース装置を備える仮想空間提供システムに備えられ、ユーザによって使用されるクライアント端末を構成するコンピュータに、
仮想空間内の状況を示す画像を表示する表示ステップと、
前記仮想空間内の音声を出力する音声出力ステップと、
前記ユーザが発する音声を収音する収音ステップと、
前記ユーザの顔画像を撮影する撮影ステップとを実行させるためのプログラムであって、
前記表示ステップでは、前記仮想空間インターフェース装置の表示データ生成部によって生成される表示データに基づいて、前記仮想空間内の状況を示す画像が表示され、
前記音声出力ステップでは、前記仮想空間インターフェース装置の音声データ生成部によって生成される音声データに基づいて、前記仮想空間内の音声が出力され、
前記仮想空間インターフェース装置の前記音声データ生成部は、前記収音ステップにおいて収音される前記ユーザが発する音声を前記仮想空間内に出力するための音声データを生成し、
前記仮想空間インターフェース装置の前記表示データ生成部および前記音声データ生成部は、
前記撮影ステップにおいて撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための前記表示データ、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データ、および、前記ユーザが発する音声を前記仮想空間内に出力するための音声データの少なくともいずれかを制御し、
前記仮想空間インターフェース装置の前記表示データ生成部および前記音声データ生成部は、
前記ユーザが手を位置させる顔領域の部位に応じて、前記制御対象を異ならせる、
プログラム。 - 少なくともユーザによって使用されるクライアント端末を備える仮想空間提供システムに備えられる仮想空間インターフェース装置であって、
前記クライアント端末は、
仮想空間内の状況を示す画像を表示する表示装置と、
前記ユーザの顔画像を撮影する撮影装置とを備え、
前記仮想空間インターフェース装置は、
前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための表示データを生成する表示データ生成部を備え、
前記表示データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための前記表示データを制御する、
仮想空間インターフェース装置。 - 前記表示データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの目に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置と前記ユーザの顔との距離とに基づいて、前記クライアント端末の表示装置によって表示される前記仮想空間内の状況を示す画像の拡大および/または縮小を制御する、
請求項6に記載の仮想空間インターフェース装置。 - 前記表示データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの目に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置に対する前記ユーザの顔の向きとに基づいて、前記仮想空間内における位置であって、前記クライアント端末の表示装置によって表示される画像に対応する位置を制御する、
請求項6に記載の仮想空間インターフェース装置。 - 少なくともユーザによって使用されるクライアント端末を備える仮想空間提供システムに備えられる仮想空間インターフェース装置であって、
前記クライアント端末は、
仮想空間内の音声を出力する音声出力装置と、
前記ユーザが発する音声を収音する収音装置と、
前記ユーザの顔画像を撮影する撮影装置とを備え、
前記仮想空間インターフェース装置は、
前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データを生成する音声データ生成部を備え、
前記音声データ生成部は、
前記クライアント端末の収音装置によって収音される前記ユーザが発する音声を前記仮想空間内に出力するための音声データを生成し、
前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、制御対象として、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための音声データ、および、前記ユーザが発する音声を前記仮想空間内に出力するための音声データの少なくともいずれかを制御し、前記ユーザが手を位置させる顔領域の部位に応じて、前記制御対象を異ならせる、
仮想空間インターフェース装置。 - 前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの耳に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置と前記ユーザの顔との距離とに基づいて、前記クライアント端末の音声出力装置によって出力される前記仮想空間内の音声の音量を制御する、
請求項9に記載の仮想空間インターフェース装置。 - 前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの口に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置と前記ユーザの顔との距離とに基づいて、前記クライアント端末の収音装置によって収音されて前記仮想空間内に出力される前記ユーザが発する音声の音量を制御する、
請求項9に記載の仮想空間インターフェース装置。 - 前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの耳に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置に対する前記ユーザの顔の向きとに基づいて、前記クライアント端末の音声出力装置によって出力される前記仮想空間からの音声の到来方向を制御する、
請求項9に記載の仮想空間インターフェース装置。 - 前記音声データ生成部は、
前記クライアント端末の撮影装置によって撮影される前記ユーザが前記ユーザの口に前記ユーザの手を当てる動作と、前記クライアント端末の撮影装置に対する前記ユーザの顔の向きとに基づいて、前記ユーザが発する音声の前記仮想空間への出力方向を制御する、
請求項9に記載の仮想空間インターフェース装置。 - 少なくともユーザによって使用されるクライアント端末を備える仮想空間提供システムを制御する仮想空間インターフェース制御方法であって、
コンピュータが、仮想空間内の状況を示す画像を前記クライアント端末の表示装置に表示させるための表示データを生成し、
コンピュータが、前記クライアント端末の収音装置によって収音される前記ユーザが発する音声を前記仮想空間内に出力するための第1音声データを生成し、
コンピュータが、前記仮想空間内の音声を前記クライアント端末の音声出力装置に出力させるための第2音声データを生成し、
コンピュータが、前記クライアント端末の撮影装置によって撮影される前記ユーザの顔領域に手を位置させるジェスチャと、前記クライアント端末の撮影装置と前記ユーザの顔との位置関係とに基づいて、前記ユーザが手を位置させる顔領域の部位に応じて、前記表示データ、前記第1音声データ、および、前記第2音声データの少なくともいずれかを異ならせて制御する、
仮想空間インターフェース制御方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022-153488 | 2022-09-27 | ||
JP2022153488A JP2024047795A (ja) | 2022-09-27 | 2022-09-27 | 仮想空間インターフェース装置、クライアント端末およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2024070085A1 true WO2024070085A1 (ja) | 2024-04-04 |
Family
ID=90476897
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2023/023221 WO2024070085A1 (ja) | 2022-09-27 | 2023-06-22 | 仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法 |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2024047795A (ja) |
WO (1) | WO2024070085A1 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012235887A (ja) * | 2011-05-11 | 2012-12-06 | Nikon Corp | 電子機器及びプログラム |
JP2013012158A (ja) * | 2011-06-30 | 2013-01-17 | Toshiba Corp | 電子機器および制御方法 |
JP2013196140A (ja) * | 2012-03-16 | 2013-09-30 | Ntt Docomo Inc | 携帯端末及び表示制御方法 |
WO2018150831A1 (ja) * | 2017-02-16 | 2018-08-23 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
US20180349087A1 (en) * | 2017-06-01 | 2018-12-06 | Qualcomm Incorporated | Sound Control by Various Hand Gestures |
JP2020518321A (ja) * | 2017-04-28 | 2020-06-25 | 株式会社ソニー・インタラクティブエンタテインメント | Vr環境への第2の画面の仮想ウィンドウ |
-
2022
- 2022-09-27 JP JP2022153488A patent/JP2024047795A/ja active Pending
-
2023
- 2023-06-22 WO PCT/JP2023/023221 patent/WO2024070085A1/ja unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012235887A (ja) * | 2011-05-11 | 2012-12-06 | Nikon Corp | 電子機器及びプログラム |
JP2013012158A (ja) * | 2011-06-30 | 2013-01-17 | Toshiba Corp | 電子機器および制御方法 |
JP2013196140A (ja) * | 2012-03-16 | 2013-09-30 | Ntt Docomo Inc | 携帯端末及び表示制御方法 |
WO2018150831A1 (ja) * | 2017-02-16 | 2018-08-23 | ソニー株式会社 | 情報処理装置、情報処理方法及び記録媒体 |
JP2020518321A (ja) * | 2017-04-28 | 2020-06-25 | 株式会社ソニー・インタラクティブエンタテインメント | Vr環境への第2の画面の仮想ウィンドウ |
US20180349087A1 (en) * | 2017-06-01 | 2018-12-06 | Qualcomm Incorporated | Sound Control by Various Hand Gestures |
Also Published As
Publication number | Publication date |
---|---|
JP2024047795A (ja) | 2024-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9804682B2 (en) | Systems and methods for performing multi-touch operations on a head-mountable device | |
JP6250041B2 (ja) | 骨伝導スピーカーにおける外部振動の削減 | |
JP5456832B2 (ja) | 入力された発話の関連性を判定するための装置および方法 | |
WO2018150831A1 (ja) | 情報処理装置、情報処理方法及び記録媒体 | |
US12032155B2 (en) | Method and head-mounted unit for assisting a hearing-impaired user | |
TW201228332A (en) | Mobile electronic device | |
US11768576B2 (en) | Displaying representations of environments | |
JP2001160154A (ja) | 仮想空間通信システムにおけるアバタ表示装置、アバタ表示方法および記憶媒体 | |
CN114648623A (zh) | 信息处理装置、信息处理方法以及计算机可读介质 | |
JP2012175136A (ja) | カメラシステムおよびその制御方法 | |
JPWO2019155735A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
JP2018148436A (ja) | 装置、システム、方法およびプログラム | |
US20210209840A1 (en) | Generating a 3D Model of a Fingertip for Visual Touch Detection | |
JP2020155944A (ja) | 発話者検出システム、発話者検出方法及びプログラム | |
JP6969577B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
WO2024070085A1 (ja) | 仮想空間インターフェース装置、クライアント端末、プログラムおよび仮想空間インターフェース制御方法 | |
CN113821337A (zh) | 基于参与度分数改变与媒体对象相关联的资源利用率 | |
EP4100818A1 (en) | Method and device for invoking public or private interactions during a multiuser communication session | |
WO2023124972A1 (zh) | 显示状态切换方法、装置及系统、电子设备、存储介质 | |
JP6628853B2 (ja) | 音声映像追跡装置 | |
JP2020166641A (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6922743B2 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2019138682A1 (ja) | 情報処理装置、情報処理方法及びプログラム | |
WO2022202021A1 (ja) | 力覚デバイスの制御装置、制御方法、及び制御システム | |
WO2023058162A1 (ja) | 音声拡張現実オブジェクト再生装置及び音声拡張現実オブジェクト再生方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 23871330 Country of ref document: EP Kind code of ref document: A1 |