WO2011158493A1 - 音声通信システム、音声通信方法及び音声通信機器 - Google Patents

音声通信システム、音声通信方法及び音声通信機器 Download PDF

Info

Publication number
WO2011158493A1
WO2011158493A1 PCT/JP2011/003364 JP2011003364W WO2011158493A1 WO 2011158493 A1 WO2011158493 A1 WO 2011158493A1 JP 2011003364 W JP2011003364 W JP 2011003364W WO 2011158493 A1 WO2011158493 A1 WO 2011158493A1
Authority
WO
WIPO (PCT)
Prior art keywords
position information
location information
user
unit
voice communication
Prior art date
Application number
PCT/JP2011/003364
Other languages
English (en)
French (fr)
Inventor
健人 吉井
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Publication of WO2011158493A1 publication Critical patent/WO2011158493A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M3/00Automatic or semi-automatic exchanges
    • H04M3/42Systems providing special services or facilities to subscribers
    • H04M3/56Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities
    • H04M3/568Arrangements for connecting several subscribers to a common circuit, i.e. affording conference facilities audio processing specific to telephonic conferencing, e.g. spatial distribution, mixing of participants
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72457User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to geographic location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72427User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality for supporting games or graphical animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2203/00Aspects of automatic or semi-automatic exchanges
    • H04M2203/10Aspects of automatic or semi-automatic exchanges related to the purpose or context of the telephonic communication
    • H04M2203/1016Telecontrol
    • H04M2203/1025Telecontrol of avatars

Definitions

  • the present invention relates to a voice communication system and a voice communication method for sharing a conversation voice by connecting two or more remote points via a network, or adding a video of the user and conducting a conference electronically. And a voice communication device.
  • the broadband Internet network is a major element supporting the spread of such electronic conference systems.
  • a personal computer hereinafter referred to as a PC
  • the simplification of the apparatus side that a system can be configured with a simple external camera and external microphone is also a major factor.
  • FIG. 9 is a configuration diagram of an electronic conference system to which Patent Literature 1 is applied.
  • a server PC 201 that operates the electronic conference system and client PCs 210a, 210b, and 210c that participate in the system are connected to the network 100a.
  • 10A, 10B, and 10C show screen display contents of each client PC.
  • the screen of the client PC 210a is the screen 10a of FIG. 10A
  • the screen of the client PC 210b is the screen 10b of FIG. 10B
  • the screen of the client PC 210c is a diagram.
  • 10C is a screen 10c.
  • the avatar displayed in each screen the avatar of the user who operates the client PC 210a is the avatar 20a
  • the avatar of the user who operates the client PC 210b is the avatar 20b
  • the avatar of the user who operates the client PC 210c is the avatar 20c.
  • the range where conversations reach on the screens of the avatars 20a, 20b, and 20c is displayed as an elliptical area, the area of the avatar 20a is the area 30a, the area of the avatar 20b is the area 30b, and the area of the avatar 20c is the area 30c.
  • the user who operates each client PC can set the position and orientation of his / her avatar in the virtual space on the screen and the conversational area.
  • the direction of the avatar is indicated by the direction of the line protruding from the black circle indicating the avatars 20a, 20b, and 20c in FIGS. 10A, 10B, and 10C.
  • the synthesized screen is the screen 10t in FIG. 10D.
  • the regions 30a and 30b overlap, and the regions 30b and 30c also overlap, but the regions 30a and 30c do not overlap. That is, the avatars 20a and 20b can talk and the avatars 20b and 20c can talk.
  • the avatars 20a and 20c are in a state in which the other party's voice cannot be heard and the conversation cannot be performed. In this way, by changing the position, orientation, and area of the avatar corresponding to each user, each avatar is heard from and talks to which avatar among other avatars existing in the virtual space. Can be set.
  • Patent Document 1 not only shows the range of whether or not the voice can reach the above-described conversation possible area, but also distinguishes the volume level into a plurality of stages as shown in FIG.
  • the region 30a is a range in which 100% sound can be reached at the current volume level
  • the region 30a1 is a range in which 75% sound is reached at the current volume level
  • the region 30a2 is a range in which 50% sound is reached at the current volume level. It is also proposed to attenuate it in an analog manner to make it more realistic.
  • the voice communication system of the present invention is a voice communication system that includes a management server connected to a network and a plurality of voice communication devices, and performs voice communication using a virtual space between the plurality of voice communication devices.
  • the management server manages the first transmission / reception unit for connecting to the network, the original position information for sharing the position information of the plurality of users in the virtual space among the plurality of users, and the position information for each device set individually by each communication device A virtual space management unit.
  • An audio communication device includes: a second transmission / reception unit for connecting to a network; a video output unit that displays a virtual space; an audio input unit that performs audio input; an audio output unit that performs audio output; A position information setting unit that sets user position information; and a storage unit that stores position information of a plurality of users in the virtual space.
  • the second transmission / reception unit transmits the position information to the management server.
  • the management server registers the received position information as the original position information in the virtual space management unit, and transmits the original position information to the communication device.
  • the audio output unit performs output control of the audio received from the second transmission / reception unit according to the prototype position information.
  • the storage unit updates the location information of a plurality of users according to the updated location information of the own user.
  • the second transmitting / receiving unit transmits the updated location information of the own user to the management server.
  • the virtual space management unit updates the prototype position information according to the updated position information of the own user.
  • the first transmission / reception unit transmits the updated prototype position information to a plurality of voice communication devices.
  • the video output unit displays the virtual space according to the updated prototype position information.
  • the audio output unit performs output control of the audio received from the second transmission / reception unit according to the updated prototype position information.
  • the storage unit updates the location information of a plurality of users according to the updated location information of the other users.
  • the virtual space management unit updates the device-specific location information in accordance with the updated location information of the other user.
  • the video output unit displays the virtual space according to the position information of a plurality of users stored in the storage unit.
  • the voice output unit performs output control of the voice received from the second transmission / reception unit according to the position information of a plurality of users stored in the storage unit.
  • the output unit displays the virtual space according to the position information of a plurality of users stored in the storage unit.
  • the voice output unit performs voice output control according to the position information of a plurality of users stored in the storage unit.
  • the position information in the given virtual space is partially changed, and the user can communicate with other specific users by setting a position convenient for the user. It is possible to facilitate conversation, and conversely, a specific user's voice can be kept away.
  • the voice communication method of the present invention includes a management server connected to a network and a plurality of voice communication devices, and a voice communication method in a voice communication system that performs voice communication using a virtual space between a plurality of voice communication devices. It is.
  • the voice communication device transmits the location information of the own user to the management server, the management server registers the received location information as the prototype location information in the virtual space management unit, and sends the prototype location information to the voice communication device. To do.
  • the voice communication device performs output control of received voice according to the updated prototype position information.
  • the location information of the own user is changed in the voice communication device, the location information of the plurality of users is updated according to the updated location information of the own user, and the updated location information of the own user is transmitted to the management server.
  • the management server updates the original position information according to the updated position information of the own user, and transmits the updated original position information to a plurality of voice communication devices.
  • the voice communication device displays a virtual space according to the updated prototype position information, and performs voice output control according to the updated prototype position information.
  • the location information of other users is changed in the voice communication device
  • the location information of the plurality of users is updated according to the updated location information of the other users
  • the location information of the plurality of users is transmitted to the management server.
  • the management server updates the device-specific location information in accordance with the updated location information of the other user.
  • the voice communication device displays a virtual space according to the stored position information of the plurality of users, and performs output control of the received voice according to the stored position information of the plurality of users.
  • the voice communication device when the updated prototype position information is received and the position information of other users has been changed before the updated prototype position information is received, the stored positions of the plurality of users A virtual space is displayed according to the information, and voice output control is performed according to the stored location information of the plurality of users.
  • the voice communication device of the present invention includes a management server connected to a network and a plurality of voice communication devices, and the voice communication device in the voice communication system performs voice communication using a virtual space between the plurality of voice communication devices. It is.
  • An audio communication device includes: a second transmission / reception unit for connecting to a network; a video output unit that displays a virtual space; an audio input unit that performs audio input; an audio output unit that performs audio output; A position information setting unit that sets user position information; and a storage unit that stores position information of a plurality of users in the virtual space.
  • the storage unit updates the location information of a plurality of users according to the updated location information of the own user.
  • the second transmitting / receiving unit transmits the updated location information of the own user to the management server.
  • the video output unit displays the virtual space according to the updated prototype position information received by the second transmission / reception unit.
  • the audio output unit performs output control of the audio received by the second transmission / reception unit according to the updated prototype position information.
  • the storage unit updates the location information of a plurality of users according to the updated location information of the other users.
  • the video output unit displays the virtual space according to the position information of a plurality of users stored in the storage unit.
  • the voice output unit performs output control of the voice received by the second transmission / reception unit according to the position information of the plurality of users stored in the storage unit.
  • the output unit displays the virtual space according to the position information of a plurality of users stored in the storage unit.
  • the voice output unit performs voice output control according to the position information of a plurality of users stored in the storage unit.
  • FIG. 1 is a block diagram illustrating a configuration example of a management server, communication devices, and relationships between other communication devices according to an embodiment of the present invention.
  • FIG. 2 is an image diagram for explaining an operation for changing position information according to the embodiment of the present invention.
  • FIG. 3 is an image diagram showing an example of a virtual space in the embodiment of the present invention.
  • FIG. 4 is an image diagram showing another example of the virtual space in the embodiment of the present invention.
  • FIG. 5A is an image diagram showing an example of a method for setting position information data in the embodiment of the present invention.
  • FIG. 5B is an image diagram showing an example of a method for setting position information data in the embodiment of the present invention.
  • FIG. 5C is an image diagram showing an example of a method for setting position information data in the embodiment of the present invention.
  • FIG. 6 is a flowchart illustrating an example of an operation for registering user information and position information according to the embodiment of the present invention.
  • FIG. 7 is a flowchart showing an example of an operation for registering change of position information in the embodiment of the present invention.
  • FIG. 8 is a flowchart showing an example of an operation for performing voice communication of the electronic conference according to the embodiment of the present invention.
  • FIG. 9 is a block diagram showing a configuration of a conventional electronic conference system.
  • FIG. 10A is an image diagram showing a display example of the virtual space in the conventional example.
  • FIG. 10B is an image diagram showing a display example of the virtual space in the conventional example.
  • FIG. 10C is an image diagram illustrating a display example of the virtual space in the conventional example.
  • FIG. 10A is an image diagram showing a display example of the virtual space in the conventional example.
  • FIG. 10B is an image diagram showing a display example of the virtual space in the conventional example.
  • FIG. 10C is an image diagram illustrating
  • FIG. 10D is an image diagram illustrating a display example of the virtual space in the conventional example.
  • FIG. 11 is an image diagram showing a setting example of a voice arrival area in the conventional example.
  • FIG. 12 is an image diagram showing a conversation state by an undesired user in the conventional example.
  • the voice communication system includes a management server connected to a network and a plurality of voice communication devices, and performs voice communication using a virtual space between the plurality of voice communication devices.
  • FIG. 1 is a block diagram showing a configuration example of the management server 101 and the communication device 110 in this embodiment and the relationship between the other communication devices 110a, 110b, and 110c.
  • the management server 101 includes a transmission / reception unit 102 as a first transmission / reception unit, a control unit 103, a user information management unit 104, and a virtual space management unit 105.
  • the communication device 110 includes a transmission / reception unit 111 as a second transmission / reception unit, a control unit 112, a video generation unit 113, a video output unit 114, an audio generation unit 115, an audio output unit 116, an audio input unit 117, and an imaging unit 118.
  • a position information setting unit 119 and a storage unit 120 are provided.
  • the network 100 is connected to other communication devices 110a, 110b, and 110c that participate in the electronic conference together with the communication device 110.
  • the internal configurations of the other communication devices 110a, 110b, and 110c are the same as those of the communication device 110.
  • the transmission / reception unit 102 of the management server 101 is connected to the network 100 to transmit / receive data.
  • the network 100 is usually a local area LAN or the Internet.
  • the transmission / reception unit 102 performs connection with a physical layer of the network 100 and processing of a communication protocol.
  • the control unit 103 controls main operations of the management server 101, that is, various operations for operating the electronic conference. Specifically, data to be sent to the network 100 is generated, and data received from the network 100 is interpreted.
  • the user information management unit 104 has a function of managing information regarding users participating in the electronic conference.
  • the information regarding the user is information (for example, IP address) for identifying a communication device used by the user, or information such as an icon shape or a nickname representing each user when the virtual space is displayed on the screen.
  • the virtual space management unit 105 manages the position information of users existing in the virtual space where the electronic conference is held, and determines the communication conditions (communication availability or communication volume) between users and reflects them in the communication.
  • the virtual space management unit 105 also manages prototype position information shared by a plurality of communication devices and device-specific position information changed individually by each communication device. In other words, the virtual space management unit 105 manages the original position information for sharing the position information of the plurality of users in the virtual space among the plurality of users and the position information for each device set individually by each communication device.
  • the transmission / reception unit 111 of the communication device 110 is connected to the network 100 to transmit / receive data.
  • the transmission / reception unit 111 is functionally similar to the transmission / reception unit 102 of the management server 101. Therefore, detailed description is omitted.
  • the control unit 112 controls various operations of the electronic conference function in the communication device 110. Specifically, data to be sent to the network 100 is generated, and data received from the network 100 is interpreted.
  • the video generation unit 113 decodes video data received from the network 100 and reproduces a video signal. In an electronic conference, moving images such as the presence status of each user icon in the virtual space and the faces of other users are reproduced.
  • the video output unit 114 displays the reproduced video and displays a virtual space, and a liquid crystal panel or a plasma display panel is used.
  • the audio generation unit 115 decodes audio data received from the network 100 and reproduces an audio signal. In the electronic conference, voices such as voices of other users are reproduced.
  • the audio output unit 116 outputs the reproduced audio, and speakers or headphones are used.
  • the voice input unit 117 performs voice input. Specifically, the voice input unit 117 includes a microphone and a voice encoder, and collects and encodes a user's voice and generates voice data to be sent to the network 100.
  • the photographing unit 118 includes a small camera composed of a CCD or CMOS image sensor and a moving image encoder.
  • the photographing unit 118 captures and encodes an image such as a user's face and generates data to be sent to the network 100. As described above, the image capturing unit 118 captures an image and outputs video data to the control unit 112.
  • the position information setting unit 119 sets position information such as the user's position, orientation, and conversational area in the virtual space, and changes the positions of other user icons based on the user's intention. The position changing operation is performed by a device such as a mouse used in a PC or a remote controller used in a television receiver.
  • the storage unit 120 stores position information of a plurality of users in the virtual space.
  • the transmission / reception unit 102 is connected to a plurality of electronic conference user communication devices (communication devices 110, 110 a, 110 b, and 110 c in FIG. 1) via the network 100.
  • the transmission / reception unit 102 performs communication for registration from each communication device and communication for an actual electronic conference.
  • the control unit 103 determines the content of the received user information registration data and performs communication used by the user.
  • the user information management unit 104 If it is information about the device (for example, IP address) or information such as an icon or nickname representing each user when the virtual space is displayed on the screen, it is output to the user information management unit 104 to be registered and stored. If the received data is location information of a user existing in the virtual space where the electronic conference is held, the received data is registered and stored in the virtual space management unit 105.
  • the user's nickname, icon, and user location information are independently transmitted to the communication devices 110, 110a, 110b, and 110c, or transmitted in response to requests from the communication devices 110, 110a, 110b, and 110c. Shared. Thereby, each user can grasp on the screen of the video output unit 114 what kind of user participates in the virtual space and what positional relationship exists in the virtual space.
  • the control unit 103 detects the communication device of the transmission source. Then, based on the information stored in the virtual space management unit 105, the communication is performed to the communication device of the other party capable of conversation. As a result, the conversation can be performed only between the communication devices 110, 110a, 110b, and 110c existing in an area where conversation is possible in the virtual space.
  • the transmission / reception unit 111 is connected to the management server 101 via the network 100, and performs communication for registering information related to its own communication device 110 and communication for an actual electronic conference.
  • the voice input unit 117 collects the user's voice and inputs the user's voice.
  • a user's image is photographed by the photographing unit 118 and the user's video is input.
  • the voice generation unit 115 and the voice output unit 116 reproduce the voices of other users.
  • the video generation unit 113 and the video output unit 114 reproduce the video of another user. These video and audio inputs and outputs are controlled by the control unit 112.
  • the setting of the position information of the user and the change of the position information of other users in the given virtual space are performed by the position information setting unit 119.
  • FIG. 2 is an image diagram for explaining an operation for changing position information according to the embodiment of the present invention.
  • FIG. 2 shows an example of the screen of the video output unit 114.
  • This screen is an image diagram showing an example of a virtual space.
  • the user icon 60b when the position of the user who operates the communication device 110 is indicated by the user icon 60 and other users are indicated by the user icons 60a, 60b, and 60c, the user icon 60b does not want to be heard. Alternatively, when it is desired to lower the volume, it is moved away from the dotted circle as shown in FIG. Conversely, if the user icon 60c is desired to be heard more closely, the user icon 60c is moved closer to the position of the dotted triangle.
  • FIG. 3 is an image diagram showing an example of a virtual space in the embodiment of the present invention.
  • A, B, C, and D are row numbers of seats, and 1 to 10 are column numbers.
  • FIG. 4 is an image diagram showing another example of the virtual space in the embodiment of the present invention.
  • the position of the user who operates the communication device 110 is indicated by the user icon 60
  • the user icon 60c is a friend
  • the user icons 60a and 60b are commentators of sports performed at the stadium.
  • the explanation of the commentator of the user icon 60a is easy to hear and the commentary of the commentator of the user icon 60b is assumed to be inaudible.
  • FIGS. 5A, 5B, and 5C show examples of position information converted into data.
  • 5A, 5B, and 5C are image diagrams illustrating an example of a method for setting position information data according to the embodiment of the present invention.
  • the positions of the user icon 60 and other user icons 60a, 60b, and 60c for operating the communication device 110 are given as XY coordinates, respectively, as in FIGS.
  • the coordinate data is shared by the management server 101 and the communication devices 110, 110a, 110b, and 110c, so that all users can feel that they are in the same virtual space. Further, as shown in FIG.
  • the distance between the user icon 60 and the other user icons 60a, 60b, and 60c can be easily calculated mathematically, and the result can be owned.
  • the management server 101 and the communication devices 110, 110a, 110b, and 110c determine whether or not conversation is possible or the volume level of conversation.
  • a predetermined threshold is set for the distance between the user icon 60 and the other user icons 60a, 60b, 60c.
  • the conversation threshold value for determining whether conversation is possible is “4”. That is, when the distance is “4” or less, it is assumed that conversations between users are possible. On the other hand, when the distance exceeds “4”, it is assumed that conversation cannot be performed between users. In this way, the utterance arrival area can be set.
  • the volume level of the conversation may be set in proportion to the distance between the user icon 60 and the other user icons 60a, 60b, 60c. It should be noted that a plurality of predetermined values may be set, and a constant volume level may be set when the predetermined values are not more than each. That is, the position information includes at least the position in the user's virtual space and the utterance arrival area, and the audio output unit 116 controls the availability and volume of voice communication according to the utterance arrival area.
  • the audio output unit 116 controls the audio so that the user can recognize the direction and position in which the audio is transmitted, and the phase difference between the left and right audio according to the position in the user's virtual space. And output while controlling the volume.
  • the user can recognize the direction in which the sound is sent. That is, in order to be able to recognize the direction and position in which the sound is transmitted, the sound output unit 116 controls the phase difference and volume of the left and right sound that has been made stereo.
  • the voice output unit 116 determines the frequency and volume of the left and right voices stereoized so that the moving speed of the user can be recognized according to the position. May be controlled dynamically.
  • the control as described above can be easily realized by performing signal processing on the sound as a sound source using a DSP (Digital Signal Processor) or the like.
  • the DSP is included in the audio output unit 116 illustrated in FIG. 1, but can be included in any of the control units 103 and 112 and the audio generation unit 115.
  • FIG. 6 is a flowchart showing an example of an operation for registering user information and position information in the embodiment of the present invention.
  • the transmission / reception unit 111 transmits its own user information and position information to the management server 101.
  • the user information is a user name (information for identifying a user such as a nickname), an icon graphic characterizing the user on the virtual space screen, and device identification information (typically, a communication device used by the user). IP address).
  • the position information is the position and orientation of the user in the virtual space, the conversation possible area, and the like.
  • step S102 the management server 101 registers and stores the received user information in the user information management unit 104. Also, the management server 101 registers and stores the received position information in the virtual space management unit 105 as prototype position information.
  • the management server 101 When the management server 101 registers user information and position information from a plurality of communication devices, the management server 101 transmits all user information and prototype position information already stored in step S103 to the communication device 110.
  • step S104 the communication device 110 displays a plurality of user information received from the transmission / reception unit 111 on the video output unit 114 according to the received prototype position information.
  • the user can know the user's face to the electronic conference at that time.
  • the icon graphic may be image information of the user photographed by the photographing unit 118.
  • the audio output unit 116 of the communication device 110 performs output control of the audio received from the transmission / reception unit 111 according to the updated prototype position information.
  • FIG. 7 is a flowchart showing an example of an operation for changing and registering position information in the virtual space in the embodiment of the present invention.
  • the initial state of the position information is already shared by all the communication devices 110, 110a, 110b, and 110c.
  • the user selects a specific user by looking at an arrangement state display of each user icon in the virtual space.
  • the position information setting unit 119 performs an operation for changing the position of a specific user.
  • the location information of the specific user changed at this time is stored in the storage unit 120.
  • the changed position information is transmitted to the management server 101 in step S202.
  • the management server 101 stores the changed position information received in step S203 as device-specific position information.
  • the management server 101 there are a plurality of pieces of position information in the virtual space to be stored. That is, the original position information shared by all the communication devices 110, 110a, 110b, and 110c, and the device-specific position information changed individually by each communication device. As a matter of course, since the location information for each device is different for each communication device, the information is stored for the number of participating communication devices. The update of the original position information is performed only when each communication device corrects the position of the user icon of itself (own user). In this case, the updated prototype position information is transmitted again from the management server 101 to the communication devices 110, 110a, 110b, and 110c.
  • the storage unit 120 updates the location information of a plurality of users according to the updated location information of the own user.
  • the transmission / reception unit 111 transmits the updated location information of the own user to the management server 101.
  • the virtual space management unit 105 updates the original position information according to the updated position information of the own user.
  • the transmission / reception unit 102 as the first transmission / reception unit transmits the updated prototype position information to a plurality of voice communication devices.
  • the video output unit 114 displays the virtual space according to the updated prototype position information.
  • the audio output unit 116 performs output control of the audio received from the transmission / reception unit 111 according to the updated prototype position information.
  • the location information for each device is updated when each communication device changes the location of a user icon other than itself.
  • the updated location information for each device is updated only in the storage unit and the management server 101 inside the communication device. That is, when the location information setting unit 119 changes the location information of other users, the storage unit 120 updates the location information of multiple users according to the updated location information of other users. Then, the virtual space management unit 105 updates the device-specific position information according to the updated position information of the other user.
  • the video output unit 114 displays the virtual space according to the position information of a plurality of users stored in the storage unit 120.
  • the audio output unit 116 performs output control of the audio received from the transmission / reception unit 111 according to the position information of a plurality of users stored in the storage unit 120.
  • FIG. 8 is a flowchart showing an example of an operation for performing voice communication of the electronic conference according to the embodiment of the present invention.
  • the management server 101 receives audio data from another communication device.
  • the management server 101 refers to the location information for each device stored in the virtual space management unit 105, detects a destination communication device with which the transmission source communication device can talk, and Identify communication devices. Depending on the detection result, when there is no corresponding transmission destination, there may be a plurality of cases when there is only one device.
  • the audio data is relay-transmitted to a predetermined transmission destination communication device.
  • step S304 the audio data is received, the communication device of the transmission source is identified, and the corresponding position information is referred to. Thereafter, in step S 305, the playback volume is controlled according to the above-described position information, that is, according to the distance from the own position, and output from the audio output unit 116.
  • the position information setting unit 119 receives the position information of other users. Is changed, the video output unit 114 displays the virtual space according to the position information of a plurality of users stored in the storage unit 120.
  • the audio output unit 116 performs audio output control according to the position information of a plurality of users stored in the storage unit 120.
  • the management server 101 since the management server 101 also stores the location information for each device, the audio data whose volume is adjusted for each communication device may be transmitted individually. However, it is common that there are a plurality of destination communication devices. Therefore, in order to reduce the processing load on the management server 101, the volume adjustment is preferably performed on the individual communication device side.
  • a user-friendly electronic conference system can be realized, but further improvements can be made in the following points. Since the user icon position changing operation can be executed individually in each communication device, the change is not transmitted to the changed user. In the display of a certain user's communication device, other communication devices that are within a conversationable distance may be in a state in which conversation is impossible because the distance is actually set apart by the other party's individual setting operation. Occur. If you are calling from here, but there is no response, the cause is unknown and there is a possibility that it will be regarded as a malfunction of the system.
  • a display specific to the user icon of the counterpart communication device (for example, changing the color or blinking the display) is displayed on the virtual space position information display screen. For example, to notify that the position changing operation has been performed on the counterpart communication device. That is, when the position information of another user is changed, it may be displayed that the position information of the other user has been changed.
  • the video output unit of the second communication device displays that the first communication device has changed. In this way, even when the user is out of the conversation range due to the change setting of the other party, the user will not mistakenly assume that the system is malfunctioning.
  • the device used by each user is described as a communication device.
  • the device does not have to be a dedicated device.
  • a digital broadcast receiving device having a built-in bidirectional communication function through an Internet connection can be used. But you can. Since the digital broadcast receiving apparatus is originally provided with a display function and an audio reproduction function, it is useful as a communication device for an electronic conference system.
  • the voice input in the communication devices 110, 110a, 110b, and 110c is described on the assumption that the actual voice is collected by the microphone.
  • the voice input in the communication device 110, 110a, 110b, and 110c can be similarly applied even when the text input by the character input unit is output by voice synthesis. Needless to say.
  • the management server 101 is provided separately from a plurality of communication devices.
  • any of the communication devices 110, 110a, 110b, and 110c may have the function of the management server 101. Good.
  • the position information is two-dimensional with XY coordinates, but may be three-dimensional with XYZ coordinates.
  • the present invention is an electronic conference system in which a plurality of users can talk over a network, and is capable of adjusting the positional relationship of users in a virtual space with further flexibility, which is practical for enterprises. It can be used not only for the purpose of meeting, but also for providing services for everyday conversation in a virtual space where general individuals participate for hobbies and entertainment purposes.

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Environmental & Geological Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

 通信機器は、ネットワークに接続するための送受信部と、仮想空間内の複数ユーザの位置情報を表示する表示出力部と、音声通信を行うための音声入力部および音声出力部と、仮想空間における各ユーザの位置情報を設定するための位置情報設定部と、仮想空間内の複数ユーザの位置情報を記憶する記憶部を備えている。各ユーザは自らの位置情報を設定して管理サーバに登録し、各ユーザは位置情報設定部によって、仮想空間における他のユーザの位置情報の変更を行ない、自らの通信機器における音声出力の制御を行う。

Description

音声通信システム、音声通信方法及び音声通信機器
 本発明は、遠隔の2地点あるいはそれ以上の地点の間をネットワークで接続して会話音声を共有し、あるいはそのユーザの映像を付加して電子的に会議を実施する音声通信システム、音声通信方法及び音声通信機器に関する。
 近年、広帯域インターネット網の普及に伴って、遠隔地点間での電子会議システムが広く利用されるようになった。電子会議システムは、主に企業用途で用いられており、例えば本社、支社間や、国内拠点と海外拠点との間で使用されている。電子会議システムにより、遠隔地点間の移動のための費用や時間、さらにそれらに伴うエネルギー資源の節約にも貢献できる。したがって、今後もさらに利用の機会が増えるものと考えられる。
 従来、アナログ電話網、あるいはISDN電話網を用いてユーザの発言をマイクで集音し、各地点でスピーカー再生する電話会議システムが一般的に使用されていた。またその後、ISDN電話網の普及と高能率動画圧縮技術の発展に支えられて、動画の伝送、表示機能を付加したテレビ会議システムも、主に企業内用途で使用されていた(以下、電話会議とテレビ会議を総称して電子会議という)。さらに近年、広帯域インターネット網の普及により、数Mbpsの双方向伝送が企業だけでなく個人でも利用できるようになった。その結果、そのネットワークを利用した電子会議を利用するユーザが急激に増加している。また、電子会議は、利用の仕方も業務用のみならず、教育用(遠隔学習など)や、さらに個人が仲間との会話に利用する趣味娯楽用にも用いられるようになった。
 このような電子会議システムの普及を支えている大きな要素が広帯域インターネット網であることは前述したが、さらに従来のような専用の電子会議用装置の代わりに、パーソナルコンピュータ(以下、PCという)と簡単な外付けカメラ、および外付けマイクがあればシステムが構成できるという装置側の簡易化も大きな要因となっている。
 このような電子会議システムにおいては、複数の遠隔地点で集音した音声をそのまま加算して伝送するので、どのユーザの音声もほぼ同一の音量で伝えられ、実際の会議室内や建物内での会話の感覚とは著しく異なった状態での音声再生となっていた。企業が使用する業務目的の電子会議システムではさほど不自由はない。しかし、前述したような個人の趣味娯楽用の電子会議における会話では、参加する個人には、実際の対面式の会議とは違和感が生じる。
 近年、PC画面内の仮想空間において、ユーザが各ユーザに対応するキャラクター(以下、アバターという)として登場して、その仮想空間内の自身のアバター近傍の他のユーザのアバターと会話できるような一種の電子会議システムが運営されている。このような形態においては、各アバターの立っている位置や向きによって、その音声の音量が異なるのが自然である。しかし、従来の電子会議システムではそれが実現されないのが課題となっていた。
 そこで、ユーザが集まる仮想空間内で、各アバターの立つ位置や向きを設定し、音声の届く領域を指定することで、現実の空間における会話との疑似性を高めようとする技術が開示されている(例えば、特許文献1参照)。図9は、特許文献1が適用される電子会議システムの構成図である。図9に示す電子会議システムでは、電子会議システムを運営するサーバPC201、そのシステムに参加するクライアントPC210a、210b、210cがネットワーク100aに接続されている。
 図10A、10B、10Cは、各クライアントPCの画面表示内容を示すものであって、クライアントPC210aの画面が図10Aの画面10a、クライアントPC210bの画面が図10Bの画面10b、クライアントPC210cの画面が図10Cの画面10cである。また各画面内に表示されるアバターとして、クライアントPC210aを操作するユーザのアバターがアバター20a、クライアントPC210bを操作するユーザのアバターがアバター20b、クライアントPC210cを操作するユーザのアバターがアバター20cである。アバター20a、20b、20cの画面内における会話の届く範囲が楕円形の領域として表示され、アバター20aの領域が領域30a、アバター20bの領域が領域30b、アバター20cの領域が領域30cである。
 このとき、各クライアントPCを操作するユーザは、画面上の仮想空間における自らのアバターの位置と向きと会話可能領域を設定することができる。アバターの向きは、図10A、10B、10Cではアバター20a、20b、20cを示す黒丸から突き出た線の方向によって示されている。
 いまアバター20a、20b、20cの設定が、画面10a、10b、10cであったとすると、それを合成した画面は図10Dの画面10tとなる。画面10tからわかるように領域30aと30bには重なりがあり、領域30bと30cにも重なりがあるが、領域30aと30cには重なりがない。すなわち、アバター20aと20bは会話が可能、アバター20bと20cも会話が可能である。しかし、アバター20aと20cは相手の声が聞こえない状態となって、会話ができない設定となっている。このように、各ユーザは自分に対応するアバターの位置、向き、領域を変えることにより、仮想空間内に存在する他のアバターのうち、どのアバターの話を聞くか、およびどのアバターと話をするかを設定することができる。
 また、特許文献1では上記の会話可能領域を単に音声が届くか届かないかの範囲を示すだけでなく、図11に示すように、音量のレベルも複数の段階に区別している。たとえば、領域30aは現在の音量レベルで100%の音声が届く範囲、領域30a1は現在の音量レベルで75%の音声が届く範囲、領域30a2は現在の音量レベルで50%の音声が届く範囲として、アナログ的に減衰させて、より現実空間での感覚に近づけることも提案している。
 前述のように、特許文献1による方法を用いれば、電子会議システムにおいて仮想空間を設定し、その中で各ユーザが自分に対応するアバターの存在位置や方向を自由に設定することによって、より自然な感覚で、かつ自分にとって都合のよい環境で電子会議に参加することが可能となる。
 しかしながら、この方法では、たとえば図12に示す画面10aのように、アバター20aはアバター20bとのみの会話を希望しているにもかかわらず、アバター20cが接近してくると、アバター20cの音声も聞かざるを得ないという課題が生じる。不特定多数のアバターが集まる仮想空間による電子会議システムでは、たとえば広告目的で強引に会話グループに入り込んでくる場合も想定され、特定のアバターを除外可能な設定も必要である。
特開2003-67317号公報
 本発明の音声通信システムは、ネットワークに接続された管理サーバと複数の音声通信機器とを含み、複数の音声通信機器間で仮想空間を用いて音声通信を行う音声通信システムである。
 管理サーバは、ネットワークに接続するための第1の送受信部と、仮想空間における複数ユーザの位置情報を複数ユーザで共有する原型位置情報、及び各通信機器が個別に設定する機器別位置情報を管理する仮想空間管理部と、を備えている。
 音声通信機器は、ネットワークに接続するための第2の送受信部と、仮想空間を表示する映像出力部と、音声入力を行う音声入力部と、音声出力を行う音声出力部と、仮想空間における複数ユーザの位置情報を設定する位置情報設定部と、仮想空間内の複数ユーザの位置情報を記憶する記憶部と、を備えている。
 第2の送受信部は、位置情報を管理サーバに送信する。管理サーバは、受信した位置情報を原型位置情報として仮想空間管理部に登録し、原型位置情報を通信機器に送信する。音声出力部は、原型位置情報に応じて第2の送受信部から受信した音声の出力制御を行う。
 位置情報設定部において自ユーザの位置情報が変更された場合、記憶部は更新された自ユーザの位置情報に応じて複数ユーザの位置情報を更新する。第2の送受信部は更新された自ユーザの位置情報を管理サーバへ送信する。仮想空間管理部は更新された自ユーザの位置情報に応じて原型位置情報を更新する。第1の送受信部は、更新された原型位置情報を複数の音声通信機器に送信する。映像出力部は更新された原型位置情報に応じて仮想空間を表示する。音声出力部は更新された原型位置情報に応じて第2の送受信部から受信した音声の出力制御を行う。
 位置情報設定部において他ユーザの位置情報が変更された場合、記憶部は更新された他ユーザの位置情報に応じて複数ユーザの位置情報を更新する。仮想空間管理部は更新された他ユーザの位置情報に応じて機器別位置情報を更新する。映像出力部は記憶部に記憶された複数ユーザの位置情報に応じて仮想空間を表示する。音声出力部は記憶部に記憶された複数ユーザの位置情報に応じて第2の送受信部から受信した音声の出力制御を行う。
 第2の送受信部において更新された原型位置情報が受信された場合であって、かつ更新された原型位置情報の受信前に位置情報設定部において他ユーザの位置情報が変更されていた場合、映像出力部は記憶部に記憶された複数ユーザの位置情報に応じて仮想空間を表示する。音声出力部は記憶部に記憶された複数ユーザの位置情報に応じて音声の出力制御を行う。
 このような構成により、仮想空間内で会話することを想定した電子会議において、与えられた仮想空間内の位置情報を部分変更して、ユーザの都合のよい位置設定により他の特定のユーザとの会話をしやすくしたり、逆に特定のユーザの声を遠ざけたりすることができる。
 また、本発明の音声通信方法は、ネットワークに接続された管理サーバと複数の音声通信機器とを含み、複数の音声通信機器間で仮想空間を用いて音声通信を行う音声通信システムにおける音声通信方法である。
 音声通信方法は、音声通信機器が自ユーザの位置情報を管理サーバに送信し、管理サーバは受信した位置情報を原型位置情報として仮想空間管理部に登録し、原型位置情報を音声通信機器に送信する。音声通信機器は更新された原型位置情報に応じて受信した音声の出力制御を行う。
 音声通信機器において、自ユーザの位置情報が変更された場合、更新された自ユーザの位置情報に応じて複数ユーザの位置情報を更新し、更新された自ユーザの位置情報を管理サーバへ送信し、管理サーバは更新された自ユーザの位置情報に応じて原型位置情報を更新し、更新された原型位置情報を複数の音声通信機器に送信する。音声通信機器は更新された原型位置情報に応じて仮想空間を表示し、更新された原型位置情報に応じて音声の出力制御を行う。
 音声通信機器において、他ユーザの位置情報が変更された場合、更新された他ユーザの位置情報に応じて複数ユーザの位置情報を更新し、複数ユーザの位置情報を管理サーバに送信する。管理サーバは更新された他ユーザの位置情報に応じて機器別位置情報を更新する。音声通信機器は記憶された複数ユーザの位置情報に応じて仮想空間を表示し、記憶された複数ユーザの位置情報に応じて受信した音声の出力制御を行う。
 音声通信機器において、更新された原型位置情報が受信された場合であって、かつ更新された原型位置情報の受信前に他ユーザの位置情報が変更されていた場合、記憶された複数ユーザの位置情報に応じて仮想空間を表示し、記憶された複数ユーザの位置情報に応じて音声の出力制御を行う。
 また、本発明の音声通信機器は、ネットワークに接続された管理サーバと複数の音声通信機器とを含み、複数の音声通信機器間で仮想空間を用いて音声通信を行う音声通信システムにおける音声通信機器である。
 音声通信機器は、ネットワークに接続するための第2の送受信部と、仮想空間を表示する映像出力部と、音声入力を行う音声入力部と、音声出力を行う音声出力部と、仮想空間における複数ユーザの位置情報を設定する位置情報設定部と、仮想空間内の複数ユーザの位置情報を記憶する記憶部と、を備えている。
 位置情報設定部において自ユーザの位置情報が変更された場合、記憶部は更新された自ユーザの位置情報に応じて複数ユーザの位置情報を更新する。第2の送受信部は更新された自ユーザの位置情報を管理サーバへ送信する。映像出力部は第2の送受信部が受信した更新された原型位置情報に応じて仮想空間を表示する。音声出力部は更新された原型位置情報に応じて第2の送受信部が受信した音声の出力制御を行う。
 位置情報設定部において他ユーザの位置情報が変更された場合、記憶部は更新された他ユーザの位置情報に応じて複数ユーザの位置情報を更新する。映像出力部は記憶部に記憶された複数ユーザの位置情報に応じて仮想空間を表示する。音声出力部は記憶部に記憶された複数ユーザの位置情報に応じて第2の送受信部が受信した音声の出力制御を行う。
 第2の送受信部において更新された原型位置情報が受信された場合であって、かつ更新された原型位置情報の受信前に位置情報設定部において他ユーザの位置情報が変更されていた場合、映像出力部は記憶部に記憶された複数ユーザの位置情報に応じて仮想空間を表示する。音声出力部は記憶部に記憶された複数ユーザの位置情報に応じて音声の出力制御を行う。
図1は、本発明の実施の形態における管理サーバと通信機器の構成例、および他の通信機器との関係を示すブロック図である。 図2は、本発明の実施の形態における位置情報の変更操作を説明するイメージ図である。 図3は、本発明の実施の形態における仮想空間の例を示すイメージ図である。 図4は、本発明の実施の形態における仮想空間の他の例を示すイメージ図である。 図5Aは、本発明の実施の形態における位置情報データの設定方法の例を示すイメージ図である。 図5Bは、本発明の実施の形態における位置情報データの設定方法の例を示すイメージ図である。 図5Cは、本発明の実施の形態における位置情報データの設定方法の例を示すイメージ図である。 図6は、本発明の実施の形態におけるユーザ情報及び位置情報の登録するための動作の1例を示すフローチャートである。 図7は、本発明の実施の形態における位置情報の変更登録するための動作の1例を示すフローチャートである。 図8は、本発明の実施の形態における電子会議の音声通信を行うための動作の1例を示すフローチャートである。 図9は、従来例における電子会議システムの構成を示すブロック図である。 図10Aは、従来例における仮想空間の表示例を示すイメージ図である。 図10Bは、従来例における仮想空間の表示例を示すイメージ図である。 図10Cは、従来例における仮想空間の表示例を示すイメージ図である。 図10Dは、従来例における仮想空間の表示例を示すイメージ図である。 図11は、従来例における音声到達領域の設定例を示すイメージ図である。 図12は、従来例における希望しないユーザによる会話状態を示すイメージ図である。
 (実施の形態)
 以下、本発明の実施の形態における音声通信システム、音声通信方法及び音声通信機器について、図面を参照しながら説明する。ここでは音声通信システム、音声通信方法及び音声通信機器の一形態としての電子会議システム、音声通信方法及び音声通信機器としての通信機器を例に説明する。音声通信システムは、ネットワークに接続された管理サーバと複数の音声通信機器とを含み、複数の音声通信機器間で仮想空間を用いて音声通信を行う。
 図1は本実施の形態における管理サーバ101と通信機器110の構成例、および他の通信機器110a、110b、110cとの関係を示すブロック図である。管理サーバ101は、第1の送受信部としての送受信部102、制御部103、ユーザ情報管理部104、仮想空間管理部105を備えている。
 また、通信機器110は、第2の送受信部としての送受信部111、制御部112、映像生成部113、映像出力部114、音声生成部115、音声出力部116、音声入力部117、撮影部118、位置情報設定部119、記憶部120を備えている。
 ネットワーク100には、通信機器110とともに電子会議に参加する他の通信機器110a、110b、110cが接続されている。他の通信機器110a、110b、110cの内部の構成は、通信機器110と同様である。
 管理サーバ101の送受信部102はネットワーク100と接続してデータの送受信を行う。ここでネットワーク100は通常、構内LANあるいはインターネットである。送受信部102は、ネットワーク100の物理層との接続および通信プロトコルの処理を行う。制御部103は管理サーバ101の主要動作、すなわち電子会議を運用するための諸動作を制御する。具体的には、ネットワーク100に送出するデータを生成したり、ネットワーク100から受信したデータの解釈を行う。ユーザ情報管理部104は電子会議に参加するユーザに関する情報を管理する機能を有する。ユーザに関する情報とは、ユーザが使用する通信機器を識別する情報(例えばIPアドレス)や、仮想空間を画面に表示するときに各ユーザを表すアイコン形状やニックネームなどの情報である。仮想空間管理部105は電子会議が行われる仮想空間内に存在するユーザの位置情報を管理し、ユーザ間の通信の条件(通信の可否あるいは通信音量)を定めて通信に反映させる。また、仮想空間管理部105は複数の通信機器で共有される原型位置情報、および各通信機器が個別に変更した機器別位置情報も管理する。すなわち、仮想空間管理部105は、仮想空間における複数ユーザの位置情報を複数ユーザで共有する原型位置情報、及び各通信機器が個別に設定する機器別位置情報を管理する。
 通信機器110の送受信部111はネットワーク100と接続してデータの送受信を行う。送受信部111は、機能的には管理サーバ101の送受信部102と同様である。したがって、詳細な説明は省略する。制御部112は通信機器110における電子会議機能の諸動作を制御する。具体的には、ネットワーク100に送出するデータを生成したり、ネットワーク100から受信したデータの解釈を行う。映像生成部113はネットワーク100から受信した映像データをデコードして映像信号を再生する。電子会議においては仮想空間における各ユーザアイコンの存在状況や、他のユーザの顔などの動画を再生する。映像出力部114は再生された映像を表示し、仮想空間を表示するもので、液晶パネルやプラズマディスプレイパネルが用いられる。音声生成部115はネットワーク100から受信した音声データをデコードして音声信号を再生する。電子会議においては他のユーザの声などの音声を再生する。音声出力部116は再生された音声を出力するもので、スピーカーやヘッドホンが用いられる。音声入力部117は音声入力を行う。具体的には、音声入力部117はマイクロホンと音声エンコーダによって構成され、ユーザの音声を集音、符号化してネットワーク100に送出する音声データを発生させる。撮影部118はCCDまたはCMOSの撮像素子からなる小型カメラと動画エンコーダによって構成され、ユーザの顔などの画像を撮影、符号化してネットワーク100に送出するデータを発生させる。このように、撮影部118は、画像を撮影し、映像のデータを制御部112に出力する。位置情報設定部119は仮想空間におけるユーザの位置、向き、会話可能領域などの位置情報を設定するとともに、ユーザの意向に基づいて他のユーザアイコンの位置を変更する。位置変更の操作は、PCで使用されるマウスや、テレビ受信機で使用されるリモコンなどの装置で行われる。記憶部120は、仮想空間内の複数ユーザの位置情報を記憶する。
 以上の構成において、まず、管理サーバ101の動作を述べる。送受信部102はネットワーク100を介して複数の電子会議ユーザの通信機器(図1では通信機器110、110a、110b、110c)と接続されている。送受信部102は、各通信機器からの登録のための通信、および実際の電子会議のための通信を行う。送受信部102が、通信機器110、110a、110b、110cから電子会議参加のためのユーザ情報登録データを受信すると、制御部103は受信したユーザ情報登録データの内容を判別し、ユーザが使用する通信機器に関する情報(例えばIPアドレス)や、仮想空間を画面に表示するときに各ユーザを表すアイコンやニックネームなどの情報であれば、ユーザ情報管理部104に出力して登録、保存させる。また、受信データが電子会議の行われる仮想空間内に存在するユーザの位置情報であれば、仮想空間管理部105に登録、保存させる。
 ユーザのニックネーム、アイコン、およびユーザの位置情報は、通信機器110、110a、110b、110cに自主的に送信、あるいは通信機器110、110a、110b、110cからの要求に応じて送信され、各ユーザにおいて共有される。これにより各ユーザは、どのようなユーザが仮想空間内に参加し、かつその仮想空間の中でどのような位置関係で存在しているのかを映像出力部114の画面で把握することができる。
 通信機器110、110a、110b、110cの間で実際の電子会議が行われ、そのための音声データ、あるいは映像・音声データの通信が行われると、制御部103はその送信元の通信機器を検出し、仮想空間管理部105で保管されている情報に基づいて、会話可能な相手先の通信機器に中継を行う。これによって、仮想空間内で会話可能な領域に存在している通信機器110、110a、110b、110cの間でのみ、会話が可能となる。
 次に、通信機器110の動作について述べる。送受信部111はネットワーク100を介して管理サーバ101と接続され、自身の通信機器110に関する情報を登録するための通信、および実際の電子会議のための通信を行う。電子会議を行うための入力部分としては、音声入力部117でユーザの音声を集音し、ユーザの音声を入力する。また、撮影部118でユーザの画像を撮影し、ユーザの映像を入力する。出力部分としては、音声生成部115と音声出力部116で他のユーザの音声を再生する。また映像生成部113と、映像出力部114で他のユーザの映像を再生する。これらの映像、音声の入出力は制御部112で制御される。
 一方、ユーザの位置情報の設定、および与えられた仮想空間における他のユーザの位置情報の変更は位置情報設定部119で行われる。
 位置情報設定部119における他のユーザの位置変更について説明する。図2は、本発明の実施の形態における位置情報の変更操作を説明するイメージ図である。図2は、映像出力部114の画面の一例を示している。この画面は、仮想空間の一例を示すイメージ図である。図2で、通信機器110を操作するユーザ自身の位置がユーザアイコン60で示され、他のユーザがユーザアイコン60a、60b、60cで示されているとき、ユーザアイコン60bの声は聞きたくない、あるいは音量を下げたい場合に、図2のように点線丸の位置まで移動させて遠ざける。逆にユーザアイコン60cの声はもっとよく聞きたい場合は、点線三角形の位置まで移動させて近づける。
 なお、仮想空間は、図2のように単なる矩形上の平面が一般的であるが、例えば図3のように、ホールやスタジアムの観客席の設定になっていてもよい。図3は、本発明の実施の形態における仮想空間の例を示すイメージ図である。図3でA、B、C、Dは座席の行番号、1~10は列番号を示している。
 さらに、図4のような仮想のスタジアム150の全体を共有する仮想空間とすることも可能である。図4は、本発明の実施の形態における仮想空間の他の例を示すイメージ図である。このような場合、通信機器110を操作するユーザ自身の位置がユーザアイコン60で示され、ユーザアイコン60cは友人、ユーザアイコン60aや60bは、そのスタジアムで行われているスポーツの解説者であるような応用も可能である。図4ではユーザアイコン60aの解説者の解説は聞きやすくし、ユーザアイコン60bの解説者の解説は聞こえないようにした場合を想定した内容に描いている。
 仮想空間における各ユーザアイコンの位置情報のデータ化は、もっとも一般的にはXY座標における座標値で指定することで得られる。図5A、5B、5Cにそのようにしてデータ化された位置情報の例を示す。図5A、5B、5Cは、本発明の実施の形態における位置情報データの設定方法の例を示すイメージ図である。図5A、5Bに示すように、図2、図3、図4と同様に、通信機器110を操作するユーザアイコン60、他のユーザアイコン60a、60b、60cの位置がそれぞれXY座標として与えられており、この座標データを管理サーバ101および通信機器110、110a、110b、110cが共有することにより、全てのユーザが同じ仮想空間に存在している実感を持つことができる。また、図5Cに示すように、ユーザアイコン60と他のユーザアイコン60a、60b、60cとの距離も数学的に簡単に算出され、その結果を所有することができる。この距離に応じて、管理サーバ101および通信機器110、110a、110b、110cは、会話の可否あるいは会話の音量レベルを定めることになる。
 具体的には、ユーザアイコン60と他のユーザアイコン60a、60b、60cとの距離について、所定の閾値を設定する。例えば、会話の可否を決定する会話の可否閾値を「4」とする。すなわち、その距離が、「4」以下では、ユーザ間で会話ができるものとする。一方、その距離が、「4」を超える場合、ユーザ間で会話はできないものとする。このようにして、発声到達領域を設定できる。また、会話の音量レベルは、ユーザアイコン60と他のユーザアイコン60a、60b、60cとの距離に比例して設定するとしてもよい。なお、複数の所定値を設定し、各所定値以下の場合、一定の音量レベルを設定してもよい。すなわち、位置情報は、少なくともユーザの仮想空間内における位置と、発声到達領域とを含み、音声出力部116は、発声到達領域に応じて音声通信可否及び音量を制御する。
 また、位置情報は、少なくともユーザの仮想空間内における位置を含むので、音声通信を行うユーザ間の相対的な方向関係を容易に算出できる。したがって、音声出力部116は、音声を制御して、音声が送られてくる方向と位置がユーザに認識できるようにステレオ音声を、ユーザの仮想空間内における位置に応じて左右の音声の位相差と音量を制御しながら出力してもよい。音声がステレオ化されることにより、ユーザは、音声が送られてくる方向を認識できる。すなわち、音声が送られてくる方向と位置を認識できるようにするために、音声出力部116は、ステレオ化された左右の音声の位相差と音量を制御する。
 さらにまた、図2で示したような移動中のユーザの音声を送る場合、音声出力部116は、ユーザの移動速度を認識できるようにステレオ化された左右の音声の周波数と音量を位置に応じて動的に制御してもよい。上記したような制御は、音源である音声をDSP(Digital Signal Processor)などにより信号処理することにより、容易に実現できる。なお、DSPは、図1に示した音声出力部116に含まれるが、制御部103、112や音声生成部115のいずれかにも含むことができる。
 次に、図6、図7、図8を用いて本実施の形態における電子会議システムの動作を説明する。図6は、本発明の実施の形態におけるユーザ情報及び位置情報を登録するための動作の1例を示すフローチャートである。まず、通信機器110で、ステップS101において、送受信部111が自身のユーザ情報及び位置情報を管理サーバ101に送信する。ユーザ情報とは、前述したようにユーザ名(ニックネーム等のユーザを識別するための情報)、ユーザを仮想空間画面上で特徴付けるアイコン図形、ユーザが使用する通信機器の機器識別情報(代表的にはIPアドレス)である。位置情報とは、前述したように仮想空間におけるユーザの位置、向き、会話可能領域などである。
 管理サーバ101はステップS102において、受信したユーザ情報をユーザ情報管理部104に登録、保管する。また、管理サーバ101は、受信した位置情報を原型位置情報として仮想空間管理部105に登録、保管する。
 管理サーバ101は複数の通信機器からのユーザ情報及び位置情報を登録すると、ステップS103において既に保管している全てのユーザ情報及び原型位置情報を通信機器110に送信する。
 ステップS104において、通信機器110は送受信部111から受信した複数のユーザ情報を、受信した原型位置情報に応じて映像出力部114で表示する。ユーザはこの表示を見ることによって、その時点での電子会議へのユーザの顔ぶれを知ることができる。なお、アイコン図形は撮影部118で撮影したユーザの画像情報であってもよい。そして、通信機器110の音声出力部116は更新された原型位置情報に応じて送受信部111から受信した音声の出力制御を行う。
 図7は、本発明の実施の形態における仮想空間内の位置情報を変更登録するための動作の1例を示すフローチャートである。ここでは位置情報の初期状態は既にすべての通信機器110、110a、110b、110cで共有されているものとする。まず、通信機器110側で、ステップS201において仮想空間における各ユーザアイコンの配置状態表示を見て、ユーザは、特定のユーザを選択する。そして、特定のユーザの位置を変更する操作を位置情報設定部119が行う。このとき変更された特定のユーザの位置情報は記憶部120に記憶される。次に、同じく通信機器110側で、ステップS202において、変更された位置情報を管理サーバ101に送信する。管理サーバ101は、ステップS203において受信した変更位置情報を機器別位置情報として保存する。
 前述の説明で分かるように、管理サーバ101においては、保存する仮想空間内の位置情報は複数存在する。すなわち、すべての通信機器110、110a、110b、110cで共有される原型位置情報、および各通信機器が個別に変更した機器別位置情報である。当然のことながら、機器別位置情報は通信機器ごとに異なるので、参加している通信機器の台数分保存することになる。原型位置情報の更新は、各通信機器が自身(自ユーザ)のユーザアイコンの位置を修正した場合にのみ行われる。この場合、更新された原型位置情報は、改めて管理サーバ101から通信機器110、110a、110b、110cに送信される。すなわち、位置情報設定部119において自ユーザの位置情報が変更された場合、記憶部120は更新された自ユーザの位置情報に応じて複数ユーザの位置情報を更新する。送受信部111は更新された自ユーザの位置情報を管理サーバ101へ送信する。また、仮想空間管理部105は更新された自ユーザの位置情報に応じて原型位置情報を更新する。そして、第1の送受信部としての送受信部102は、更新された原型位置情報を複数の音声通信機器に送信する。映像出力部114は更新された原型位置情報に応じて仮想空間を表示する。音声出力部116は更新された原型位置情報に応じて送受信部111から受信した音声の出力制御を行う。
 一方、機器別位置情報の更新は、各通信機器が自身以外のユーザアイコンの位置を変更した場合に行われる。この場合、更新された機器別位置情報は、該当通信機器内部の記憶部と管理サーバ101においてのみ更新される。すなわち、位置情報設定部119において他ユーザの位置情報が変更された場合、記憶部120は更新された他ユーザの位置情報に応じて複数ユーザの位置情報を更新する。そして、仮想空間管理部105は更新された他ユーザの位置情報に応じて機器別位置情報を更新する。また、映像出力部114は記憶部120に記憶された複数ユーザの位置情報に応じて仮想空間を表示する。音声出力部116は記憶部120に記憶された複数ユーザの位置情報に応じて送受信部111から受信した音声の出力制御を行う。
 次に、以上の操作を経て実際の音声会議通信を行うための動作について説明する。図8は、本発明の実施の形態における電子会議の音声通信を行うための動作の1例を示すフローチャートである。まず、管理サーバ101は、ステップS301において、他の通信機器からの音声データを受信する。次に管理サーバ101は、ステップS302において、仮想空間管理部105に保存されている機器別位置情報を参照して、送信元の通信機器が会話可能な送信先の通信機器を検出し、該当の通信機器を特定する。検出結果によっては、該当の送信先が存在しない場合、1台のみの場合、複数の場合が起こりうる。この後、ステップS303において、所定の送信先通信機器に音声データを中継送信する。
 通信機器110側では、ステップS304において、音声データを受信し、送信元の通信機器を識別して該当する位置情報を参照する。この後、ステップS305において、前述の位置情報に応じて、すなわち自身の位置との距離に応じて再生音量を制御し、音声出力部116から出力する。
 なお、第2の送受信部としての送受信部111において更新された原型位置情報が受信された場合であって、かつ更新された原型位置情報の受信前に位置情報設定部119において他ユーザの位置情報が変更されていた場合、映像出力部114は記憶部120に記憶された複数ユーザの位置情報に応じて仮想空間を表示する。音声出力部116は記憶部120に記憶された複数ユーザの位置情報に応じて音声の出力制御を行う。
 また、管理サーバ101も機器別位置情報を保存しているので、通信機器ごとに音量調節した音声データを個別に送信するようにしてもよい。しかし、送信先の通信機器が複数あることが一般的である。したがって、管理サーバ101の処理負担を減らすためには、音量調節は個々の通信機器側で行うのが好ましい。
 以上の構成と処理フローによって、ユーザにとって使い勝手の良い電子会議システムが実現できるが、以下の点でさらに改良を行うことができる。ユーザアイコンの位置変更操作は、各通信機器で個別に実行することができるので、変更された側のユーザにはその変更が伝わらない。あるユーザの通信機器の表示では会話可能な距離にある他の通信機器が、実際には相手側の個別設定操作で距離が離れているために、会話が不可能な状態となっている場合が起こる。こちらからは呼びかけているのに、反応がない場合に原因不明となりシステムの誤動作とみなされる可能性がある。そこで、相手側の変更設定によって会話範囲外となった場合には、仮想空間内位置情報の表示画面において、その相手側通信機器のユーザアイコンに特有の表示(例えば色を変えたり、表示を点滅させたりする)を行って、その相手側通信機器で位置変更操作が行われたことを知らせてもよい。すなわち、他ユーザの位置情報が変更された場合、他ユーザの位置情報が変更されたことを表示してもよい。言い換えると、第1の通信機器が第2の通信機器の位置情報を変更した場合、第2の通信機器の映像出力部は、第1の通信機器が変更を行ったことを示す表示を行う。このようにすることにより、ユーザは、相手側の変更設定によって会話範囲外となった場合にも、原因不明なシステムの誤動作と勘違いをすることがなくなる。
 以上の説明では、各ユーザの使用する装置は通信機器と記載したが、専用の装置である必要はなく、例えばPCが利用できることはもちろん、インターネット接続による双方向通信機能を内蔵したデジタル放送受信装置でもよい。デジタル放送受信装置では、元来、表示機能や音声再生機能が備わっているので、電子会議システムの通信機器として有用である。
 また、通信機器110、110a、110b、110cにおける音声入力は、マイクロホンによる実音声の集音を想定して記載したが、文字入力手段によるテキスト入力を音声合成で出力する場合でも同様に適用できることは言うまでもない。
 また、本実施の形態では、管理サーバ101を複数の通信機器とは別に設けているが、通信機器110、110a、110b、110cのいずれかに管理サーバ101の機能を持たせる構成であってもよい。
 更に、本実施の形態では、位置情報をXY座標の2次元としているがXYZ座標の3次元であってもよい。
 本発明は、複数のユーザがネットワーク経由で会話できる電子会議システムにおいて、仮想空間内でのユーザの位置関係の調整をさらに柔軟性を高めて行えるようにしたものであり、企業用の実用的な打合せ目的だけでなく、一般個人が趣味や娯楽の目的で参加する仮想空間内の日常会話の場の提供サービスにも利用可能である。
 100  ネットワーク
 101  管理サーバ
 110,110a,110b,110c  通信機器
 102  送受信部(第1の送受信部)
 111  送受信部(第2の送受信部)
 103,112  制御部
 104  ユーザ情報管理部
 105  仮想空間管理部
 113  映像生成部
 114  映像出力部
 115  音声生成部
 116  音声出力部
 117  音声入力部
 118  撮影部
 119  位置情報設定部
 120  記憶部
 150  仮想のスタジアム

Claims (12)

  1. ネットワークに接続された管理サーバと複数の音声通信機器とを含み、前記複数の音声通信機器間で仮想空間を用いて音声通信を行う音声通信システムであって、
    前記管理サーバは、
    前記ネットワークに接続するための第1の送受信部と、前記仮想空間における前記複数ユーザの位置情報を前記複数ユーザで共有する原型位置情報、及び各通信機器が個別に設定する機器別位置情報を管理する仮想空間管理部と、を備え、
    前記音声通信機器は、
    前記ネットワークに接続するための第2の送受信部と、前記仮想空間を表示する映像出力部と、音声入力を行う音声入力部と、音声出力を行う音声出力部と、前記仮想空間における前記複数ユーザの位置情報を設定する位置情報設定部と、前記仮想空間内の前記複数ユーザの位置情報を記憶する記憶部と、を備え、
      前記第2の送受信部は、前記位置情報を管理サーバに送信し、
      前記管理サーバは、受信した前記位置情報を前記原型位置情報として前記仮想空間管理部に登録し、
      前記管理サーバは、前記原型位置情報を前記通信機器に送信し、
      前記音声出力部は前記原型位置情報に応じて前記第2の送受信部から受信した音声の出力制御を行い、
    前記位置情報設定部において自ユーザの位置情報が変更された場合、
      前記記憶部は更新された前記自ユーザの位置情報に応じて前記複数ユーザの位置情報を更新し、
      前記第2の送受信部は更新された前記自ユーザの位置情報を前記管理サーバへ送信し、
      前記仮想空間管理部は更新された前記自ユーザの位置情報に応じて前記原型位置情報を更新し、
      前記第1の送受信部は、更新された前記原型位置情報を複数の前記音声通信機器に送信し、
      前記映像出力部は更新された前記原型位置情報に応じて前記仮想空間を表示し、
      前記音声出力部は更新された前記原型位置情報に応じて前記第2の送受信部から受信した音声の出力制御を行い、
    前記位置情報設定部において他ユーザの位置情報が変更された場合、
      前記記憶部は更新された前記他ユーザの位置情報に応じて前記複数ユーザの位置情報を更新し、
      前記仮想空間管理部は更新された前記他ユーザの位置情報に応じて前記機器別位置情報を更新し、
      前記映像出力部は前記記憶部に記憶された前記複数ユーザの位置情報に応じて前記仮想空間を表示し、
      前記音声出力部は前記記憶部に記憶された前記複数ユーザの位置情報に応じて前記第2の送受信部から受信した音声の出力制御を行い、
    前記第2の送受信部において更新された前記原型位置情報が受信された場合であって、かつ更新された前記原型位置情報の受信前に前記位置情報設定部において他ユーザの位置情報が変更されていた場合、
      前記映像出力部は前記記憶部に記憶された前記複数ユーザの位置情報に応じて前記仮想空間を表示し、
      前記音声出力部は前記記憶部に記憶された前記複数ユーザの位置情報に応じて音声の出力制御を行う、
    音声通信システム。
  2. 前記位置情報は、少なくとも前記ユーザの前記仮想空間内における位置と、発声到達領域とを含み、
    前記音声出力部は、前記発声到達領域に応じて音声通信可否及び音量を制御する請求項1に記載の音声通信システム。
  3. 前記音声通信機器は、画像を撮影し、映像を入力する撮影部を更に備える請求項1に記載の音声通信システム。
  4. 第1の通信機器が第2の通信機器の位置情報を変更した場合、前記第2の通信機器の映像出力部は、前記第1の通信機器が前記変更を行ったことを示す表示を行う請求項1に記載の音声通信システム。
  5. 前記位置情報は、少なくとも前記ユーザの前記仮想空間内における位置を含み、
    前記音声出力部は、前記位置に応じてステレオ化された左右の音声の位相差と音量を制御する請求項1に記載の音声通信システム。
  6. 前記位置情報は、少なくとも前記ユーザの前記仮想空間内における位置を含み、
    前記音声出力部は、前記位置に応じてステレオ化された左右の音声の周波数と音量を制御する請求項1に記載の音声通信システム。
  7. ネットワークに接続された管理サーバと複数の音声通信機器とを含み、前記複数の音声通信機器間で仮想空間を用いて音声通信を行う音声通信システムにおける音声通信方法であって、
      前記音声通信機器は、自ユーザの位置情報を前記管理サーバに送信し、
      前記管理サーバは、受信した前記位置情報を原型位置情報として仮想空間管理部に登録し、
      前記管理サーバは、前記原型位置情報を前記音声通信機器に送信し、
      前期音声通信機器は、前記原型位置情報に応じて受信した音声の出力制御を行い、
    前記音声通信機器において、前記自ユーザの位置情報が変更された場合、
      更新された前記自ユーザの位置情報に応じて複数ユーザの位置情報を更新し、
      更新された前記自ユーザの位置情報を前記管理サーバへ送信し、
      前記管理サーバは、更新された前記自ユーザの位置情報に応じて前記原型位置情報を更新し、
      更新された前記原型位置情報を複数の前記音声通信機器に送信し、
      前記音声通信機器は、更新された前記原型位置情報に応じて前記仮想空間を表示し、
      更新された前記原型位置情報に応じて受信した音声の出力制御を行い、
    前記音声通信機器において、他ユーザの位置情報が変更された場合、
      更新された前記他ユーザの位置情報に応じて前記複数ユーザの位置情報を更新し、前記複数ユーザの位置情報を前記管理サーバに送信し、
      前記管理サーバは、更新された前記他ユーザの位置情報に応じて機器別位置情報を更新し、
      前記音声通信機器は、記憶された複数ユーザの位置情報に応じて前記仮想空間を表示し、
      記憶された複数ユーザの位置情報に応じて受信した音声の出力制御を行い、
    前期音声通信機器において、更新された前記原型位置情報が受信された場合であって、かつ更新された前記原型位置情報の受信前に前記他ユーザの位置情報が変更されていた場合、
      記憶された前記複数ユーザの位置情報に応じて前記仮想空間を表示し、
      記憶された前記複数ユーザの位置情報に応じて音声の出力制御を行う
    音声通信方法。
  8. 前記位置情報は、少なくとも前記ユーザの前記仮想空間内における位置と、発声到達領域を含み、
    前記発声到達領域に応じて音声通信可否及び音量を制御する
    請求項7に記載の音声通信方法。
  9. 前記他ユーザの位置情報が変更された場合、前記他ユーザの位置情報が変更されたことを表示する
    請求項7に記載の音声通信方法。
  10. ネットワークに接続された管理サーバと複数の音声通信機器とを含み、前記複数の音声通信機器間で仮想空間を用いて音声通信を行う音声通信システムにおける音声通信機器であって、
    前記音声通信機器は、
    前記ネットワークに接続するための第2の送受信部と、前記仮想空間を表示する映像出力部と、音声入力を行う音声入力部と、音声出力を行う音声出力部と、前記仮想空間における前記複数ユーザの位置情報を設定する位置情報設定部と、前記仮想空間内の前記複数ユーザの位置情報を記憶する記憶部と、を備え、
    前記位置情報設定部において自ユーザの位置情報が変更された場合、
      前記記憶部は更新された前記自ユーザの位置情報に応じて前記複数ユーザの位置情報を更新し、
      前記第2の送受信部は更新された前記自ユーザの位置情報を前記管理サーバへ送信し、
      前記映像出力部は前記第2の送受信部が受信した更新された前記原型位置情報に応じて前記仮想空間を表示し、
      前記音声出力部は更新された前記原型位置情報に応じて前記第2の送受信部が受信した音声の出力制御を行い、
    前記位置情報設定部において他ユーザの位置情報が変更された場合、
      前記記憶部は更新された前記他ユーザの位置情報に応じて前記複数ユーザの位置情報を更新し、
      前記映像出力部は前記記憶部に記憶された前記複数ユーザの位置情報に応じて前記仮想空間を表示し、
      前記音声出力部は前記記憶部に記憶された前記複数ユーザの位置情報に応じて前記第2の送受信部が受信した音声の出力制御を行い、
    前記第2の送受信部において更新された前記原型位置情報が受信された場合であって、かつ更新された前記原型位置情報の受信前に前記位置情報設定部において他ユーザの位置情報が変更されていた場合、
      前記映像出力部は前記記憶部に記憶された前記複数ユーザの位置情報に応じて前記仮想空間を表示し、
      前記音声出力部は前記記憶部に記憶された前記複数ユーザの位置情報に応じて音声の出力制御を行う、
    音声通信機器。
  11. 前記位置情報は、少なくとも前記ユーザの前記仮想空間内における位置と、発声到達領域を含み、
    前記音声出力部は、前記発声到達領域に応じて音声通信可否及び音量を制御する請求項10に記載の音声通信機器。
  12. 画像を撮影し、映像を入力する撮影部を更に備える請求項10に記載の音声通信機器。
PCT/JP2011/003364 2010-06-15 2011-06-14 音声通信システム、音声通信方法及び音声通信機器 WO2011158493A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010135773 2010-06-15
JP2010-135773 2010-06-15

Publications (1)

Publication Number Publication Date
WO2011158493A1 true WO2011158493A1 (ja) 2011-12-22

Family

ID=45347908

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/003364 WO2011158493A1 (ja) 2010-06-15 2011-06-14 音声通信システム、音声通信方法及び音声通信機器

Country Status (1)

Country Link
WO (1) WO2011158493A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048534A (ja) * 2013-12-25 2016-04-07 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067317A (ja) * 2001-08-30 2003-03-07 Fuji Xerox Co Ltd メッセージ交換方法、コンピュータ、管理装置、記録媒体
JP2007133738A (ja) * 2005-11-11 2007-05-31 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2010122826A (ja) * 2008-11-18 2010-06-03 Sony Computer Entertainment Inc オンライン会話システム、オンライン会話用サーバ、オンライン会話制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003067317A (ja) * 2001-08-30 2003-03-07 Fuji Xerox Co Ltd メッセージ交換方法、コンピュータ、管理装置、記録媒体
JP2007133738A (ja) * 2005-11-11 2007-05-31 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
JP2010122826A (ja) * 2008-11-18 2010-06-03 Sony Computer Entertainment Inc オンライン会話システム、オンライン会話用サーバ、オンライン会話制御方法及びプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016048534A (ja) * 2013-12-25 2016-04-07 キヤノンマーケティングジャパン株式会社 情報処理システム、その制御方法、及びプログラム、並びに情報処理装置、その制御方法、及びプログラム

Similar Documents

Publication Publication Date Title
US8379076B2 (en) System and method for displaying a multipoint videoconference
KR101659674B1 (ko) 보이스 링크 시스템
US20080252637A1 (en) Virtual reality-based teleconferencing
RU2396730C2 (ru) Управление компоновкой конференции и протокол управления
US20060215585A1 (en) Conference system, conference terminal, and mobile terminal
WO2008125593A2 (en) Virtual reality-based teleconferencing
US20050280701A1 (en) Method and system for associating positional audio to positional video
CN103220491A (zh) 用于操作会议系统的方法以及用于会议系统的装置
US11647157B2 (en) Multi-device teleconferences
US11184362B1 (en) Securing private audio in a virtual conference, and applications thereof
JP2001339764A (ja) 通信制御装置、通信装置、通信システムおよびその方法
US20240187553A1 (en) Integration of remote audio into a performance venue
US20100110160A1 (en) Videoconferencing Community with Live Images
JP2001016563A (ja) 3次元共有仮想空間表示方法、3次元共有仮想空間通信システム及び方法、仮想会議システム、並びにそのための利用者端末プログラムを記録した記録媒体
WO2023283257A1 (en) User-configurable spatial audio based conferencing system
US11451593B2 (en) Persistent co-presence group videoconferencing system
US10469800B2 (en) Always-on telepresence device
WO2011158493A1 (ja) 音声通信システム、音声通信方法及び音声通信機器
JP7143874B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP7160263B2 (ja) 情報処理システム、情報処理装置およびプログラム
JP2006339869A (ja) 映像信号と音響信号の統合装置
JP5682376B2 (ja) 通信装置
JPH08125760A (ja) 情報処理装置
JPH06175942A (ja) マルチメディア電子会議装置
JP2003235018A (ja) テレビ会議システムおよび多地点教育システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11795401

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11795401

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP