JP2007288255A - Communication system, information management apparatus, information processing apparatus, information processing method, and program - Google Patents
Communication system, information management apparatus, information processing apparatus, information processing method, and program Download PDFInfo
- Publication number
- JP2007288255A JP2007288255A JP2006109814A JP2006109814A JP2007288255A JP 2007288255 A JP2007288255 A JP 2007288255A JP 2006109814 A JP2006109814 A JP 2006109814A JP 2006109814 A JP2006109814 A JP 2006109814A JP 2007288255 A JP2007288255 A JP 2007288255A
- Authority
- JP
- Japan
- Prior art keywords
- user
- information processing
- information
- transmitted
- packet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Telephonic Communication Services (AREA)
Abstract
Description
本発明は、通信システム、情報管理装置、情報処理装置、情報処理方法、およびプログラムに関し、特に、複数のユーザが同時に発言を行っているときであっても、それぞれの情報処理装置が、発言を行っているユーザと発言を行っていないユーザを情報管理装置から送信されてくる情報に基づいて容易に特定することができるようにした通信システム、情報管理装置、情報処理装置、情報処理方法、およびプログラムに関する。 The present invention relates to a communication system, an information management apparatus, an information processing apparatus, an information processing method, and a program, and in particular, even when a plurality of users are speaking at the same time, each information processing apparatus A communication system, an information management device, an information processing device, an information processing method, and an information management device, which can easily identify a user who is performing and a user who is not speaking based on information transmitted from the information management device; Regarding the program.
近年、IP(Internet Protocol)ネットワークを利用した、VoIP(Voice over IP)による会話サービスが普及し始めている。VoIPによる会話サービスを利用することによって、ユーザは、パーソナルコンピュータなどに接続したハンドセット(通話機)を使って、電話回線を利用した電話機を使う場合と同じように、離れた場所にいる知人などと音声による会話を行うことができる。 In recent years, conversation services using VoIP (Voice over IP) using an IP (Internet Protocol) network have begun to spread. By using a VoIP conversation service, a user can use a handset (phone) connected to a personal computer, etc., as if using a telephone using a telephone line, and with an acquaintance at a remote location. You can have a voice conversation.
特許文献1には、ビデオ会議システムを構成する装置間で送受信される音声データにユーザに関する情報を多重化し、そのユーザに関する情報に基づいて、同時に伝送される画像をそれぞれの装置に表示させる技術が開示されている。この技術によっては、話者の名前や顔の画像などがそれぞれの装置により表示される。
ところで、VoIPによる会話のモードとして、3人以上のユーザが同時に会話に参加することのできるカンファレンスモードがある。カンファレンスモードにおいては、カンファレンス(会議)を主催するユーザの端末やサーバが、カンファレンスに参加するユーザの端末によって取り込まれた音声を合成し、合成して得られた音声をそれぞれの端末に送信して出力させることによって複数のユーザの間で会話が実現される。 By the way, as a conversation mode by VoIP, there is a conference mode in which three or more users can participate in the conversation at the same time. In the conference mode, the user's terminal or server that hosts the conference synthesizes the audio captured by the user's terminal participating in the conference, and sends the synthesized audio to each terminal. By outputting, conversation is realized among a plurality of users.
このようなカンファレンスモードで会話が行われている場合、それがP to P(peer-to-pee)の会話であるときには互いに相手を特定することができるので問題はないが、3人以上のユーザによって会話が行われており、しかも複数のユーザにより同時に発言が行われたとき、VoIPによる会話サービスにおいてはテレビ会議のように会話を行っている相手の顔を見ることができないことなどもあって、それが、どのユーザによって行われたものであるのかが分かりづらいことがある。このことを解決する方法については、上述した特許文献1にも開示されていない。
If a conversation is taking place in such a conference mode, there is no problem because it is possible to identify each other when it is a P-to-P (peer-to-pee) conversation, but three or more users When there is a conversation by multiple users, and when a user speaks at the same time, the VoIP conversation service may not be able to see the face of the other party who is having a conversation like a video conference. , It may be difficult to understand which user it was performed by. A method for solving this problem is not disclosed in
本発明はこのような状況に鑑みてなされたものであり、複数のユーザが同時に発言を行っているときであっても、それぞれの情報処理装置が、発言を行っているユーザと発言を行っていないユーザを情報管理装置から送信されてくる情報に基づいて容易に特定することができるようにするものである。 The present invention has been made in view of such a situation, and even when a plurality of users are speaking at the same time, each information processing apparatus is speaking with the user who is speaking. This makes it possible to easily identify a user who is not present based on information transmitted from the information management apparatus.
本発明の第1の側面の通信システムは、ネットワークを介して接続される、情報管理装置と複数の情報処理装置からなる。このうちの前記情報管理装置は、所定の前記情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせる合成手段と、複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出する検出手段と、前記検出手段によりユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信する生成手段とを備え、複数の前記情報処理装置は、それぞれ、前記情報管理装置から送信されてきた前記制御情報を取得する取得手段と、前記取得手段により前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させる表示制御手段とを備える。 The communication system according to the first aspect of the present invention includes an information management device and a plurality of information processing devices connected via a network. Of these, the information management apparatus synthesizes the voices acquired and transmitted by the predetermined information processing apparatus, and transmits the synthesized voices to the plurality of information processing apparatuses for output. Synthesizing means for carrying out conversations between a plurality of users of the information processing devices, detection means for detecting the start or end of the user's speech based on the state of the voice acquired by the plurality of information processing devices; Each time the detection means detects the start or end of a user's speech, and the configuration of the user who speaks at the same time is changed, the first identification information for identifying the users of the plurality of information processing devices and the speech are performed. Generating information for generating control information including second identification information for identifying a user and transmitting the control information to a plurality of the information processing devices, wherein each of the plurality of information processing devices includes the information An acquisition unit that acquires the control information transmitted from the physical device, and each time the control information is acquired by the acquisition unit, does not speak with the user who is speaking based on the control information Display control means for identifying users and displaying information related to each user in different formats.
本発明の第2の側面の情報管理装置は、複数の情報処理装置とネットワークを介して接続される情報管理装置において、所定の前記情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせる合成手段と、複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出する検出手段と、前記検出手段によりユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信する生成手段とを備える。 An information management device according to a second aspect of the present invention is an information management device connected to a plurality of information processing devices via a network, and synthesizes voices acquired and transmitted by the predetermined information processing device, The speech obtained by the synthesis is acquired by the plurality of information processing devices, and the synthesizing means for causing the plurality of information processing devices to have a conversation by transmitting and outputting the voices to the plurality of information processing devices. Detecting means for detecting the start or end of the user's speech based on the state of the voice, and the detection means detects the start or end of the user's speech, and each time the configuration of the user who speaks is changed Control information including first identification information for identifying a user of the information processing apparatus and second identification information for identifying a user who is making a statement, And a generation means for transmitting device.
前記制御情報をRTCPパケットとし、前記第1の識別情報を、RTCPパケットに記述されるCSRCとすることができる。 The control information may be an RTCP packet, and the first identification information may be a CSRC described in the RTCP packet.
前記第2の識別情報を、SDES ITEMとしてSDESタイプのRTCPパケットに記述される情報とすることができる。 The second identification information may be information described in an SDES type RTCP packet as SDES ITEM.
本発明の第2の側面の情報処理方法またはプログラムは、所定の情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせ、複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出し、ユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信するステップを含む。 An information processing method or program according to a second aspect of the present invention synthesizes voices acquired and transmitted by a predetermined information processing apparatus, and transmits the synthesized voices to the plurality of information processing apparatuses. The user of the plurality of information processing devices to have a conversation with each other, detect the start or end of the user's speech based on the state of the voice acquired by the plurality of information processing devices, and The first identification information for identifying the users of the plurality of information processing devices and the user who is speaking Generating control information including two pieces of identification information and transmitting the control information to a plurality of the information processing apparatuses.
本発明の第3の側面の情報処理装置は、情報管理装置から送信されてきた制御情報を取得する取得手段と、前記取得手段により前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させる表示制御手段とを備える。 An information processing apparatus according to a third aspect of the present invention includes an acquisition unit that acquires control information transmitted from an information management apparatus, and each time the control information is acquired by the acquisition unit, based on the control information. Display control means for specifying a user who is speaking and a user who is not speaking and displaying information related to each user in different formats.
本発明の第3の側面の情報処理方法またはプログラムは、情報管理装置から送信されてきた制御情報を取得し、前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させるステップを含む。 An information processing method or program according to a third aspect of the present invention acquires control information transmitted from an information management device, and makes a remark based on the control information each time the control information is acquired. Identifying a user who is speaking and a user who is not speaking, and displaying information related to each user in different formats.
本発明の第1の側面においては、所定の情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話が行われる。複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報が生成され、複数の前記情報処理装置に送信される。 In the first aspect of the present invention, by synthesizing voices acquired and transmitted by a predetermined information processing apparatus, and transmitting the synthesized voices to the plurality of information processing apparatuses for output. A conversation is performed between a plurality of users of the information processing apparatus. Based on the state of voice acquired by the plurality of information processing devices, the start or end of the user's speech is detected, and each time the configuration of the user who speaks changes, the user of the plurality of information processing devices is identified. Control information including first identification information to be performed and second identification information for identifying a user who is making a statement is generated and transmitted to the plurality of information processing apparatuses.
また、本発明の第1の側面においては、情報管理装置から送信されてきた前記制御情報が取得され、前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザが特定され、それぞれのユーザに関する情報が異なる形式で表示される。 In the first aspect of the present invention, the control information transmitted from the information management apparatus is acquired, and a user who makes a statement based on the control information every time the control information is acquired Are identified, and information about each user is displayed in a different format.
本発明の第2の側面においては、所定の前記情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話が行われる。複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報が生成され、複数の前記情報処理装置に送信される。 In the second aspect of the present invention, the voice acquired and transmitted by the predetermined information processing apparatus is synthesized, and the synthesized voice is transmitted to the plurality of information processing apparatuses for output. Thus, a conversation is performed among a plurality of users of the information processing apparatus. Based on the state of voice acquired by the plurality of information processing devices, the start or end of the user's speech is detected, and each time the configuration of the user who speaks changes, the user of the plurality of information processing devices is identified. Control information including first identification information to be performed and second identification information for identifying a user who is making a statement is generated and transmitted to the plurality of information processing apparatuses.
本発明の第3の側面においては、情報管理装置から送信されてきた制御情報が取得され、前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザが特定され、それぞれのユーザに関する情報が異なる形式で表示される。 In the third aspect of the present invention, the control information transmitted from the information management device is acquired, and each time the control information is acquired, the user who makes a statement is remarked based on the control information. Users who have not gone are identified, and information about each user is displayed in a different format.
本発明によれば、複数のユーザが同時に発言を行っているときであっても、それぞれの情報処理装置が、発言を行っているユーザと発言を行っていないユーザを情報管理装置から送信されてくる情報に基づいて容易に特定することができる。 According to the present invention, even when a plurality of users are speaking at the same time, each information processing apparatus transmits a user who is speaking and a user who is not speaking from the information management apparatus. It can be easily identified based on the information that comes.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書又は図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書又は図面に記載されていることを確認するためのものである。従って、明細書又は図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が発明に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. On the contrary, even if an embodiment is described herein as corresponding to the invention, this does not mean that the embodiment does not correspond to other than the configuration requirements. .
本発明の第1の側面の通信システムは、ネットワークを介して接続される、情報管理装置(例えば、図1のユーザ端末1−1)と複数の情報処理装置(例えば、図1のユーザ端末1−2と1−3)からなる。このうちの情報管理装置は、本発明の第2の側面の情報管理装置と実質的に同様の構成を有し、情報処理装置は、本発明の第3の側面の情報処理装置と実質的に同様の構成を有する。
The communication system according to the first aspect of the present invention includes an information management apparatus (for example, the user terminal 1-1 in FIG. 1) and a plurality of information processing apparatuses (for example, the
本発明の第2の側面の情報管理装置(例えば、図1のユーザ端末1−1)は、複数の情報処理装置(例えば、図1のユーザ端末1−2と1−3)とネットワークを介して接続される情報管理装置において、所定の前記情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせる合成手段(例えば、図10の音声合成部32)と、複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出する検出手段(例えば、図10のパケット解析部31)と、前記検出手段によりユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信する生成手段(例えば、図10のパケット生成部33)とを備える。
An information management apparatus (for example, user terminal 1-1 in FIG. 1) according to the second aspect of the present invention is connected to a plurality of information processing apparatuses (for example, user terminals 1-2 and 1-3 in FIG. 1) via a network. The information management devices connected to each other by synthesizing the voices acquired and transmitted by the predetermined information processing device, and transmitting the synthesized voices to the plurality of information processing devices for output. A synthesizing unit (for example, the
本発明の第2の側面の情報処理方法またはプログラムは、所定の情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせ、複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出し、ユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信するステップ(例えば、図12のステップS40)を含む。 An information processing method or program according to a second aspect of the present invention synthesizes voices acquired and transmitted by a predetermined information processing apparatus, and transmits the synthesized voices to the plurality of information processing apparatuses. The user of the plurality of information processing devices to have a conversation with each other, detect the start or end of the user's speech based on the state of the voice acquired by the plurality of information processing devices, and The first identification information for identifying the users of the plurality of information processing devices and the user who is speaking 2 including the step of generating control information including two pieces of identification information and transmitting the control information to the plurality of information processing apparatuses (for example, step S40 in FIG. 12).
本発明の第3の側面の情報処理装置(例えば、図1のユーザ端末1−2)は、情報管理装置から送信されてきた制御情報を取得する取得手段(例えば、図11のパケット解析部41)と、前記取得手段により前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させる表示制御手段(例えば、図9の表示制御部16)とを備える。
The information processing apparatus (for example, the user terminal 1-2 in FIG. 1) according to the third aspect of the present invention acquires acquisition means (for example, the
本発明の第3の側面の情報処理方法またはプログラムは、前記情報管理装置から送信されてきた前記制御情報を取得し、前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させるステップ(例えば、図13のステップS54)を含む。 An information processing method or program according to a third aspect of the present invention acquires the control information transmitted from the information management device, and makes a remark based on the control information each time the control information is acquired. This includes a step of identifying a user who is performing and a user who is not speaking and displaying information related to each user in different formats (for example, step S54 in FIG. 13).
以下、本発明の実施の形態について図を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
図1は、本発明の一実施形態に係る通信システムの構成例を示す図である。 FIG. 1 is a diagram illustrating a configuration example of a communication system according to an embodiment of the present invention.
図1に示されるように、この通信システムは、ユーザ端末1−1乃至1−3がインターネットなどよりなるネットワーク2を介して相互に接続されることによって構成される。4つ以上のユーザ端末がネットワーク2に接続されるようにしてもよい。図1の例においては、サーバ3もネットワーク2に接続されている。
As shown in FIG. 1, this communication system is configured by connecting user terminals 1-1 to 1-3 to each other via a
このような構成からなる図1の通信システムにおいては、例えば、ユーザ端末1−1をカンファレンスを主催するユーザ(主催者)の端末、ユーザ端末1−2と1−3をカンファレンスに参加するユーザ(参加者)の端末として、VoIPを利用したカンファレンスモードの音声会話がユーザ端末1−1乃至1−3のユーザの間で行われる。以下、適宜、ユーザ端末1−1のユーザをユーザA、ユーザ端末1−2のユーザをユーザB、ユーザ端末1−3のユーザをユーザCとして説明する。 In the communication system of FIG. 1 having such a configuration, for example, the user terminal (host) that hosts the user terminal 1-1 and the user terminals 1-2 and 1-3 that participate in the conference (users) As a participant's terminal, conference mode voice conversation using VoIP is performed between the users of the user terminals 1-1 to 1-3. Hereinafter, the user of the user terminal 1-1 will be described as user A, the user of the user terminal 1-2 as user B, and the user of the user terminal 1-3 as user C, as appropriate.
後に詳述するように、ユーザ端末1−1乃至1−3には、それぞれ、ユーザの音声を取り込むマイクロフォンと、ネットワーク2を介して送信されてきたデータに基づいて音声を出力するスピーカが設けられている。
As will be described in detail later, each of the user terminals 1-1 to 1-3 is provided with a microphone that captures the user's voice and a speaker that outputs sound based on data transmitted via the
ユーザ端末1−1は、図1に示されるように、ユーザ端末1−2によって取り込まれたユーザBの音声のデータである音声データABがユーザ端末1−2から送信されてきたり、ユーザ端末1−3によって取り込まれたユーザCの音声のデータである音声データACがユーザ端末1−3から送信されてきたとき、それらの音声データと、自分自身が取り込んだユーザAの音声のデータとを合成し、合成して得られた音声データAmixをユーザ端末1−2と1−3に送信する。 As shown in FIG. 1, the user terminal 1-1 transmits voice data A B that is voice data of the user B captured by the user terminal 1-2 or is transmitted from the user terminal 1-2. When the voice data A C that is the voice data of the user C captured by 1-3 is transmitted from the user terminal 1-3, the voice data and the voice data of the user A captured by the user C itself And the voice data A mix obtained by the synthesis is transmitted to the user terminals 1-2 and 1-3.
また、ユーザ端末1−1は、音声データAmixをユーザ端末1−2と1−3に送信するだけでなく、音声データAmixなどに基づいて音声を出力し、ユーザAに、ユーザBの発言やユーザCの発言などを聴かせる。 Further, the user terminal 1-1 not only transmits the audio data A mix to the user terminals 1-2 and 1-3, but also outputs audio based on the audio data A mix and the like. Listen to remarks, user C's remarks, etc.
ユーザ端末1−2は、ユーザBの音声を取り込み、得られた音声データABをユーザ端末1−1に送信する。また、ユーザ端末1−2は、音声データAmixがユーザ端末1−1から送信されてきたとき、音声データAmixに基づいて音声を出力し、ユーザBに、ユーザAの発言やユーザCの発言などを聴かせる。 The user terminal 1-2 captures the voice of the user B and transmits the obtained voice data AB to the user terminal 1-1. Further, when the voice data A mix is transmitted from the user terminal 1-1, the user terminal 1-2 outputs voice based on the voice data A mix , and the user B speaks to the user B or the user C Listen to remarks.
同様に、ユーザ端末1−3は、ユーザCの音声を取り込み、得られた音声データACをユーザ端末1−1に送信する。また、ユーザ端末1−3は、音声データAmixがユーザ端末1−1から送信されてきたとき、音声データAmixに基づいて音声を出力し、ユーザCに、ユーザAの発言やユーザBの発言などを聴かせる。 Similarly, the user terminal 1-3 takes in the voice of the user C and transmits the obtained voice data AC to the user terminal 1-1. In addition, when the voice data A mix is transmitted from the user terminal 1-1, the user terminal 1-3 outputs a voice based on the voice data A mix , and the user C speaks to the user C or the user B Listen to remarks.
ここで、音声データの送受信は、RTP(Real-time Transport Protocol)にしたがって行われる。RTPは、映像や音声をリアルタイムに伝送することを目的としたプロトコルである。RTPパケットには、タイムスタンプや再生順序を表す情報などが含まれる。 Here, transmission / reception of audio data is performed according to RTP (Real-time Transport Protocol). RTP is a protocol intended to transmit video and audio in real time. The RTP packet includes a time stamp and information indicating the reproduction order.
また、図1の通信システムにおいて、ユーザ端末1−1は、カンファレンスに新たに参加するユーザや、カンファレンスから退場するユーザを検出する。 In the communication system of FIG. 1, the user terminal 1-1 detects a user who newly participates in a conference or a user who leaves the conference.
カンファレンスに新たに参加するユーザやカンファレンスから退場するユーザを検出した場合、ユーザ端末1−1は、リストに登録して管理するカンファレンスに参加しているユーザの識別情報を更新し、その更新したユーザの識別情報を、ユーザ端末1−2と1−3に送信する音声データAmixなどの情報に含めてユーザ端末1−2と1−3に送信する。 When a user who newly participates in the conference or a user who leaves the conference is detected, the user terminal 1-1 updates the identification information of the user participating in the conference registered and managed in the list, and the updated user Is included in information such as audio data A mix transmitted to the user terminals 1-2 and 1-3, and transmitted to the user terminals 1-2 and 1-3.
さらに、ユーザ端末1−1は、参加者の端末であるユーザ端末1−2と1−3から送信されてくる音声データと、自分自身が取り込んだユーザAの音声のデータなどに基づいて、ユーザによる発言の開始や発言の終了を検出する。 Furthermore, the user terminal 1-1 is based on the voice data transmitted from the user terminals 1-2 and 1-3, which are the participants' terminals, and the voice data of the user A captured by the user terminal 1-1. Detects the start and end of utterances.
ユーザ端末1−1は、同時に発言を行うユーザの構成が変わったことを検出した場合、発言を行っているユーザを識別する識別情報を含む制御情報をユーザ端末1−2と1−3に送信する。 When the user terminal 1-1 detects that the configuration of the user who speaks at the same time is changed, the user terminal 1-1 transmits control information including identification information for identifying the user who is speaking to the user terminals 1-2 and 1-3. To do.
例えば、ユーザBが発言を開始したことによって、ユーザBとユーザCが同時に発言を行う状態になったとき、そのときユーザ端末1−1から送信される制御情報には、発言を行っているユーザBの識別情報とユーザCの識別情報が含まれる。制御情報を受信したユーザ端末1−2と1−3は、ユーザBとユーザCが発言を行っていることを制御情報から特定することができる。 For example, when the user B and the user C speak at the same time because the user B starts speaking, the control information transmitted from the user terminal 1-1 at that time includes the user who is speaking. B identification information and user C identification information are included. The user terminals 1-2 and 1-3 that have received the control information can specify from the control information that the user B and the user C are speaking.
ユーザBとユーザCが発言を行っていることが特定されたとき、ユーザ端末1−2と1−3においては、例えば、発言を行っているユーザの名前である「ユーザB」と「ユーザC」が、発言を行っていないユーザの名前である「ユーザA」と異なる色で表示されるといったように、それらの情報が異なる形式で表示される。ユーザ端末1−1においても、同様の表示がなされる。なお、カンファレンスに参加するユーザがユーザA乃至Cの3人であることも、ユーザ端末1−1からユーザ端末1−2と1−3に通知されている。 When it is determined that the user B and the user C are speaking, the user terminals 1-2 and 1-3, for example, “user B” and “user C”, which are the names of the users who are speaking, are used. "Is displayed in a different color from" User A ", which is the name of the user who is not speaking, such information is displayed in a different format. A similar display is made on the user terminal 1-1. In addition, it is notified from the user terminal 1-1 to the user terminals 1-2 and 1-3 that there are three users A to C participating in the conference.
これにより、ユーザA乃至Cは、ユーザBとユーザCが同時に発言を行っていることをユーザ端末による画面表示から確認することができる。 Thereby, the users A to C can confirm from the screen display by the user terminal that the user B and the user C are simultaneously speaking.
このように、制御情報には、同時に発言を行っているユーザの識別情報が含まれるため、それを取得したユーザ端末は、容易に、発言を行っているユーザを特定することができる。例えば、発言を行っているユーザを特定するために、音声データAmixの解析などを音声データAmixを受信したユーザ端末自身が行わなければならないとするとそのユーザ端末にとって負担になるが、そのようなことを行う必要がない。 Thus, since the control information includes the identification information of the user who is speaking at the same time, the user terminal that has acquired it can easily identify the user who is speaking. For example, if the user terminal that has received the voice data A mix must analyze the voice data A mix in order to identify the user who is making a speech, it will be a burden on the user terminal. There is no need to do anything.
ここで、制御情報は、RTCP(RTP Control Protocol)パケットとしてユーザ端末1−1から送信される。RTCPは、RTPパケットの送信者、受信者に関する情報などを伝達するためのプロトコルである。 Here, the control information is transmitted from the user terminal 1-1 as an RTCP (RTP Control Protocol) packet. RTCP is a protocol for transmitting information about the sender and receiver of an RTP packet.
RTCPパケットには、主に、SR(Sender Report)、RR(Receiver Report)、SDES(Source Description)、BYE(Goodbye)、APP(Application Specific)の5つのタイプがある。 There are mainly five types of RTCP packets: SR (Sender Report), RR (Receiver Report), SDES (Source Description), BYE (Goodbye), and APP (Application Specific).
SRタイプのRTCPパケットは、音声データの送信側の端末が、受信側の端末に自分自身のステータスを教えるために用いられるパケットであり、RRタイプのRTCPパケットは、音声データの受信側の端末が、送信側の端末に自分自身のステータスを教えるために用いられるパケットである。 The SR type RTCP packet is a packet used by the terminal on the voice data transmitting side to teach its own status to the terminal on the receiving side. The RR type RTCP packet is used by the terminal on the voice data receiving side. , A packet used to tell the sending terminal its own status.
SDESタイプのRTCPパケットは、音声データの詳細情報を送信するのに用いられるパケットであり、BYEタイプのRTCPパケットは、カンファレンスから退場することを主催者の端末に教えるために用いられるパケットである。APPタイプのRTCPパケットは、どのようなアプリケーションを用いてカンファレンスを開催しているのかを教えるために用いられるパケットである。 The SDES type RTCP packet is a packet used for transmitting detailed information of voice data, and the BYE type RTCP packet is a packet used for instructing the organizer's terminal to leave the conference. An APP type RTCP packet is a packet used to teach what application is used to hold a conference.
制御情報を送信するRTCPパケットとしては、このうちのSDESタイプのRTCPパケットが用いられる。以下、適宜、SDESタイプのRTCPパケットを単にSDESパケットという。RTPパケットとRTCPパケットのデータ構造の詳細については後述する。 Of these, SDES type RTCP packets are used as RTCP packets for transmitting control information. Hereinafter, as appropriate, the SDES type RTCP packet is simply referred to as an SDES packet. Details of the data structure of the RTP packet and the RTCP packet will be described later.
図2は、図1のユーザ端末1−1乃至1−3の間で行われるデータの送受信の流れについて説明する図である。 FIG. 2 is a diagram for explaining a flow of data transmission / reception performed between the user terminals 1-1 to 1-3 in FIG.
VoIPによる音声データの伝送においては、一般的に、遅延を防ぐことを優先してUDP(User Datagram Protocol)が使われる。その際、上述したように、メディア(音声データ)の伝送にはRTPが用いられ、メディアの伝送の制御などにはRTCPが用いられる。音声データの送信側の端末は、対象のデータにRTPヘッダを付けて送信し、このRTPヘッダの記述によって、受信側の端末における再生の手順を規定する。送信側の端末と受信側の端末は定期的にRTCPパケットを交換し、受信側の端末はRTCP-SR(SRタイプのRTCPパケット)にしたがって動作し、送信側の端末はRTCP-RR(RRタイプのRTCPパケット)にしたがってフロー制御を行う。 In voice data transmission by VoIP, UDP (User Datagram Protocol) is generally used with priority given to preventing delay. At this time, as described above, RTP is used for transmitting media (voice data), and RTCP is used for controlling media transmission. The terminal on the transmission side of the audio data transmits the target data with an RTP header attached, and the playback procedure in the terminal on the reception side is defined by the description of the RTP header. The sending terminal and receiving terminal regularly exchange RTCP packets, the receiving terminal operates according to RTCP-SR (SR type RTCP packet), and the sending terminal uses RTCP-RR (RR type). Flow control according to the RTCP packet).
ユーザBの音声を取り込んだとき、ステップS11において、ユーザ端末1−2は、得られた音声データABをRTPパケットによりユーザ端末1−1に送信する。また、ステップS12において、ユーザ端末1−2は、RTCP-RRパケット(RRタイプのRTCPパケット)をユーザ端末1−1に送信する。 When incorporating the user's voice B, in step S11, the user terminal 1-2 transmits the resulting audio data A B by RTP packets to the user terminal 1-1. In step S12, the user terminal 1-2 transmits an RTCP-RR packet (RR type RTCP packet) to the user terminal 1-1.
ユーザ端末1−1は、ユーザ端末1−2から送信されてきたRTPパケットをステップS1において受信し、RTCP-RRパケットをステップS2において受信する。 The user terminal 1-1 receives the RTP packet transmitted from the user terminal 1-2 in step S1, and receives the RTCP-RR packet in step S2.
一方、ユーザCの音声を取り込んだとき、ステップS21において、ユーザ端末1−3は、得られた音声データACをRTPパケットによりユーザ端末1−1に送信する。また、ステップS22において、ユーザ端末1−3は、RTCP-RRパケットをユーザ端末1−1に送信する。 On the other hand, when the user C's voice is captured, in step S21, the user terminal 1-3 transmits the obtained voice data A C to the user terminal 1-1 using an RTP packet. In step S22, the user terminal 1-3 transmits an RTCP-RR packet to the user terminal 1-1.
ユーザ端末1−1は、ユーザ端末1−3から送信されてきたRTPパケットをステップS3において受信し、RTCP-RRパケットをステップS4において受信する。 The user terminal 1-1 receives the RTP packet transmitted from the user terminal 1-3 in step S3, and receives the RTCP-RR packet in step S4.
ステップS5において、ユーザ端末1−1は、そのときユーザAの音声を取り込んでいる場合にはユーザAの音声を含めて、ユーザ端末1−2から送信されてきたRTPパケットに格納される音声データABとユーザ端末1−3から送信されてきたRTPパケットに格納される音声データACを合成する。 In step S5, if the user terminal 1-1 captures the voice of the user A at that time, the voice data stored in the RTP packet transmitted from the user terminal 1-2 includes the voice of the user A. to synthesize speech data a C stored in the a B and RTP packets transmitted from the user terminal 1-3.
ユーザ端末1−1は、ステップS6において、合成して得られた音声データAmixをRTPパケットによってユーザ端末1−2と1−3に送信する。 In step S6, the user terminal 1-1 transmits the voice data A mix obtained by the synthesis to the user terminals 1-2 and 1-3 by the RTP packet.
また、ユーザ端末1−1は、それまではユーザCだけが発言を行っていたのがユーザBとユーザCが同時に発言を行うようになったというように、同時に発言を行うユーザの構成が変わったことを検出した場合、ステップS7において、SDESパケットをユーザ端末1−2と1−3に送信する。ここで送信されるSDESパケットには、カンファレンスに参加するユーザA乃至Cのそれぞれの識別情報と、ステップS6で送信されたRTPパケットに含まれる音声の主である例えばユーザB,Cのそれぞれの識別情報が含まれる。 In addition, the configuration of the user terminal 1-1 is changed so that the user B and the user C speak at the same time, but the user C and the user C speak at the same time. If it is detected, the SDES packet is transmitted to the user terminals 1-2 and 1-3 in step S7. In the SDES packet transmitted here, the identification information of each of the users A to C participating in the conference and the identification of each of the users B and C, which are the main voices included in the RTP packet transmitted in step S6, for example. Contains information.
ユーザ端末1−2は、ユーザ端末1−1から送信されてきたRTPパケットをステップS13において受信し、SDESパケットをステップS14において受信する。 The user terminal 1-2 receives the RTP packet transmitted from the user terminal 1-1 in step S13, and receives the SDES packet in step S14.
ステップS15において、ユーザ端末1−2は、受信したRTPパケットに基づいて音声を出力する。 In step S15, the user terminal 1-2 outputs voice based on the received RTP packet.
また、ユーザ端末1−2は、ステップS16において、受信したSDESパケットに記述されている情報に基づいて、発言を行っているユーザの情報を、発言を行っていないユーザの情報と異なる形式で表示する。 In step S16, the user terminal 1-2 displays the information of the user who is speaking in a format different from the information of the user who is not speaking based on the information described in the received SDES packet. To do.
同様に、ユーザ端末1−3は、ユーザ端末1−1から送信されてきたRTPパケットをステップS23において受信し、SDESパケットをステップS24において受信する。 Similarly, the user terminal 1-3 receives the RTP packet transmitted from the user terminal 1-1 in step S23, and receives the SDES packet in step S24.
ステップS25において、ユーザ端末1−3は、受信したRTPパケットに基づいて音声を出力する。 In step S25, the user terminal 1-3 outputs voice based on the received RTP packet.
また、ユーザ端末1−3は、ステップS26において、受信したSDESパケットに記述されている情報に基づいて、発言を行っているユーザの情報を、発言を行っていないユーザの情報と異なる形式で表示する。 Further, in step S26, the user terminal 1-3 displays the information of the user who is speaking in a format different from the information of the user who is not speaking based on the information described in the received SDES packet. To do.
このように、同時に発言を行うユーザの構成が変わる毎にユーザ端末1−1からSDESパケットが送信される。また、ユーザ端末1−2,1−3においては、SDESパケットが受信される毎に、発言を行っているユーザの情報の表示が切り替えられる。 Thus, every time the configuration of a user who speaks at the same time changes, an SDES packet is transmitted from the user terminal 1-1. Further, in the user terminals 1-2 and 1-3, every time an SDES packet is received, the display of the information of the user who is speaking is switched.
以上においては、カンファレンスの主催者の装置がユーザ端末1−1であるとしたが、カンファレンスが図1のサーバ3により管理されるようにしてもよい。この場合、ユーザ端末1−1乃至1−3により取り込まれたユーザの音声のデータは、ネットワーク2を介してサーバ3に送信され、サーバ3により、それらの合成が行われる。合成された音声はサーバ3からユーザ端末1−1乃至1−3に送信され、それぞれのユーザ端末において音声が出力される。
In the above, the conference organizer's device is the user terminal 1-1, but the conference may be managed by the
また、サーバ3により、ユーザの発言の開始や発言の終了の検出などが行われ、同時に発言を行うユーザの構成が変わったとき、同時に発言を行っているユーザの識別情報などを含む制御情報がサーバ3からユーザ端末1−1乃至1−3に送信される。
Further, when the
ユーザ端末1−1乃至1−3においては、サーバ3から送信されてきた制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザが特定され、発言を行っているユーザの情報が、発言を行っていないユーザの情報と異なる形式で表示される。
In the user terminals 1-1 to 1-3, based on the control information transmitted from the
ここで、パケットのデータ構造について説明する。 Here, the data structure of the packet will be described.
図3は、RTPパケットのデータ構造を示す図である。 FIG. 3 is a diagram illustrating a data structure of the RTP packet.
図3に示されるように、RTPパケットはデータリンクヘッダ(Data Link Header)、IPヘッダ(IP Header)、UDPヘッダ(UDP Header)、RTPヘッダ(RTP Header)、データ部(Data)から構成される。図3には、RTPヘッダに記述されるデータを拡大して示している。 As shown in FIG. 3, an RTP packet is composed of a data link header (Data Link Header), an IP header (IP Header), a UDP header (UDP Header), an RTP header (RTP Header), and a data part (Data). . FIG. 3 shows enlarged data described in the RTP header.
RTPヘッダに記述されるデータのうちの「V」はバージョン番号を表し、「P」はパディングの有無を表す。例えば「P」の値として1が記述されている場合、それは、パケットの最後にペイロードがパディングされていることを表す。「X」はRTPヘッダの直後に拡張ヘッダがある場合に設定されるフラグである。 Of the data described in the RTP header, “V” represents a version number, and “P” represents the presence or absence of padding. For example, when 1 is described as the value of “P”, it indicates that the payload is padded at the end of the packet. “X” is a flag set when there is an extension header immediately after the RTP header.
「CC」はCSRC(Contributing Source)として記述される識別子の数を表し、「M」はマーカビットでありVoIPによる音声データの伝送においては有音・無音の境界を表す。 “CC” represents the number of identifiers described as CSRC (Contributing Source), and “M” is a marker bit, which represents a boundary between sound and silence in voice data transmission by VoIP.
「PT」はペイロードのタイプを表し、「Sequence」はパケットの通し番号を表す。「Sequence」と次に記述される「Time Stamp」により、RTPパケットを受信した受信側の端末における再生の同期が確立される。 “PT” represents a payload type, and “Sequence” represents a packet serial number. With “Sequence” and “Time Stamp” described next, synchronization of reproduction in the terminal on the receiving side that has received the RTP packet is established.
「SSRC(Synchronization Source)」は、セッション毎に変わる一時的な識別子であり、VoIPによる音声データの伝送においてはカンファレンスの主催者のユーザ端末が再生の同期を司るので、その主催者の識別子が割り当てられる。「CSRC」は、RTPパケットに含まれる音声データを用意したユーザ端末を使っている参加者の識別子である。 "SSRC (Synchronization Source)" is a temporary identifier that changes from session to session. In audio data transmission by VoIP, the conference organizer's user terminal controls playback, so the organizer's identifier is assigned. It is done. “CSRC” is an identifier of a participant who uses a user terminal that has prepared voice data included in an RTP packet.
RTPヘッダには、「CSRC」に続けて、「Payload Format Extension」、「Data」が記述される。 In the RTP header, “Payload Format Extension” and “Data” are described after “CSRC”.
RTPパケットはこのような構造を有している。例えば、カンファレンスの参加者の端末であるユーザ端末1−2から主催者の端末であるユーザ端末1−1に送信されるRTPパケットのSSRCにはユーザAの識別子が記述され、CSRCにはユーザBの識別子が記述される。ユーザ端末1−2から送信されてきたRTPパケットを受信したユーザ端末1−1は、受信したRTPパケットがユーザBが利用するユーザ端末1−2から送信されてきたものであることをCSRCに基づいて特定し、RTPパケットのマーカビットの値から、ユーザBが発言を行っているのか否かを判断することができる。 The RTP packet has such a structure. For example, the identifier of the user A is described in the SSRC of the RTP packet transmitted from the user terminal 1-2 that is the conference participant's terminal to the user terminal 1-1 that is the organizer's terminal, and the user B is included in the CSRC. Is described. Based on CSRC, the user terminal 1-1 that has received the RTP packet transmitted from the user terminal 1-2 determines that the received RTP packet is transmitted from the user terminal 1-2 used by the user B. It is possible to determine whether or not the user B is speaking from the marker bit value of the RTP packet.
一方、カンファレンスの主催者の端末であるユーザ端末1−1から参加者の端末であるユーザ端末1−2に送信されるRTPパケットのSSRCにはユーザAの識別子が記述され、CSRCには、ユーザBの識別子とユーザCの識別子が記述される。カンファレンスの参加者が変わる毎にユーザ端末1−1によってCSRCも書き換えられるから、カンファレンスの参加者のユーザ端末は、ユーザ端末1−1から送信されてくるRTPパケットに記述されるCSRCから、カンファレンスの参加者を確認することができる。 On the other hand, the identifier of user A is described in the SSRC of the RTP packet transmitted from the user terminal 1-1, which is the conference organizer's terminal, to the user terminal 1-2, which is the participant's terminal, and the user is identified in CSRC. The identifier of B and the identifier of user C are described. Since the CSRC is also rewritten by the user terminal 1-1 each time the conference participant changes, the user terminal of the conference participant can read the conference from the CSRC described in the RTP packet transmitted from the user terminal 1-1. Participants can be confirmed.
このように、ユーザ端末1−1から送信されるRTPパケットにおいては、カンファレンスの参加者の識別子がRTPヘッダに記述されるから、RTPパケットを受信するユーザ端末のアプリケーション毎に処理を規定する必要がない。例えば、カンファレンスの参加者の識別子を記述する領域としてデータ領域を用いることも可能であるが、この場合、データ領域のこの部分に参加者の識別子が記述されているといったことをユーザ端末のアプリケーション毎に規定する必要があるが、そのようなことを行う必要がない。 Thus, in the RTP packet transmitted from the user terminal 1-1, since the identifier of the conference participant is described in the RTP header, it is necessary to specify the process for each application of the user terminal that receives the RTP packet. Absent. For example, it is possible to use a data area as an area for describing an identifier of a conference participant, but in this case, an identifier of the participant is described in this part of the data area for each application of the user terminal. It is not necessary to do such a thing.
図4は、RTCPパケットのデータ構造を示す図である。 FIG. 4 is a diagram showing a data structure of the RTCP packet.
図4に示されるように、RTCPパケットはデータリンクヘッダ、IPヘッダ、UDPヘッダ、RTCPデータ(RTCP Data)から構成される。上述したRTCPパケットのタイプに応じて、RTCPデータの記述内容が異なる。カンファレンスの主催者の端末であるユーザ端末1−1から制御情報として送信されるRTCPパケットにはSDESパケットが用いられる。 As shown in FIG. 4, the RTCP packet is composed of a data link header, an IP header, a UDP header, and RTCP data (RTCP Data). The description contents of the RTCP data differ depending on the type of the RTCP packet described above. An SDES packet is used as an RTCP packet transmitted as control information from the user terminal 1-1 which is a conference organizer's terminal.
図5は、SDESパケットのデータ部に記述されるデータの例を示す図である。 FIG. 5 is a diagram illustrating an example of data described in the data portion of the SDES packet.
「V」はバージョン番号を表し、「P」はパディングの有無を表す。「SC(Source Count)」は、「SSRC/CSRC」の数を表し、「PT」はペイロードのタイプを表す。「Packet Length」はパケット長を表す。 “V” represents a version number, and “P” represents the presence or absence of padding. “SC (Source Count)” represents the number of “SSRC / CSRC”, and “PT” represents the payload type. “Packet Length” represents the packet length.
図5に示されるように、SDESパケットには、「SSRC/CSRC」と「SDES ITEM」を所定の数だけ記述することができるようになされている。カンファレンスの主催者の端末であるユーザ端末1−1から参加者の端末であるユーザ端末1−2と1−3に送信されるSDESパケットには、同時に発言を行っている参加者の数と同じ数の「SSRC/CSRC」と「SDES ITEM」の組が記述される。 As shown in FIG. 5, a predetermined number of “SSRC / CSRC” and “SDES ITEM” can be described in the SDES packet. The SDES packet transmitted from the user terminal 1-1, which is the conference organizer's terminal, to the user terminals 1-2, 1-3, which are the participants' terminals, is the same as the number of participants who are speaking at the same time. A number of "SSRC / CSRC" and "SDES ITEM" pairs are described.
例えば、ユーザBが発言を開始したことから、ユーザBとユーザCが同時に発言を行っている状態になったとき、そのときユーザ端末1−1から送信されるSDESパケットには、「SSRC/CSRC」と「SDES ITEM」が2組だけ記述される。 For example, when user B has started speaking and user B and user C are speaking at the same time, the SDES packet transmitted from user terminal 1-1 at that time includes “SSRC / CSRC "And" SDES ITEM "are described only in two sets.
1組目のSSRCにはカンファレンスの主催者であるユーザAの識別子が記述され、CSRCにはカンファレンスの参加者であるユーザBの識別子とユーザCの識別子が記述される。SDES ITEMには、ユーザBに関する付帯情報が記述される。 The first set of SSRC describes the identifier of the user A who is the conference organizer, and the CSRC describes the identifier of the user B who is the conference participant and the identifier of the user C. In the SDES ITEM, incidental information regarding the user B is described.
2組目のSSRCにはカンファレンスの主催者であるユーザAの識別子が記述され、CSRCにはカンファレンスの参加者であるユーザBの識別子とユーザCの識別子が記述される。SDES ITEMには、ユーザCに関する付帯情報が記述される。 The second set of SSRC describes the identifier of the user A who is the conference organizer, and the CSRC describes the identifier of the user B who is the conference participant and the identifier of the user C. In the SDES ITEM, incidental information regarding the user C is described.
図6は、SDES ITEMとして記述される情報の例を示す図である。 FIG. 6 is a diagram illustrating an example of information described as SDES ITEM.
図6に示されるように、「Item Identifier」、「Byte Length」、「Item Description」の3種類の情報がSDES ITEMとして記述される。「Item Identifier」と「Item Description」の定義を図7に示す。 As shown in FIG. 6, three types of information “Item Identifier”, “Byte Length”, and “Item Description” are described as SDES ITEM. The definitions of “Item Identifier” and “Item Description” are shown in FIG.
図7に示されるように、Item Identifierが0で識別されるSDES ITEMは「END」であり、Item DescriptionにはSDES ITEMの終了であることを表す情報が記述される。 As shown in FIG. 7, the SDES ITEM identified with an Item Identifier of 0 is “END”, and the Item Description describes information indicating the end of the SDES ITEM.
Item Identifierが1で識別されるSDES ITEMは「CNAME」であり、Item Descriptionには参加者毎に固有の識別子が記述される。
The SDES ITEM identified by
Item Identifierが2で識別されるSDES ITEMは「NAME」であり、Item Descriptionには参加者の名前が記述される。 The SDES ITEM whose Item Identifier is 2 is “NAME”, and the name of the participant is described in Item Description.
Item Identifierが3で識別されるSDES ITEMは「EMAIL」であり、Item Descriptionには参加者の電子メールアドレスが記述される。
The SDES ITEM identified by
Item Identifierが4で識別されるSDES ITEMは「PHONE」であり、Item Descriptionには参加者の電話番号やその参加者が利用する端末の電話番号が記述される。 The SDES ITEM whose Item Identifier is 4 is “PHONE”, and the Item Description describes the phone number of the participant and the phone number of the terminal used by the participant.
Item Identifierが5で識別されるSDES ITEMは「LOC」であり、Item Descriptionには参加者の住所が記述される。
The SDES ITEM identified by
Item Identifierが6で識別されるSDES ITEMは「TOOL」であり、Item Descriptionには参加者が利用しているアプリケーションの名前が記述される。
The SDES ITEM identified by
Item Identifierが7で識別されるSDES ITEMは「NOTE」であり、Item Descriptionには参加者の状態を表す情報が記述される。
The SDES ITEM identified by
Item Identifierが8で識別されるSDES ITEMは「PRIV」であり、Item Descriptionにはアプリケーション拡張用の情報が記述される。
The SDES ITEM identified by
ユーザ端末1−1は、参加者の付帯情報が記述されるこのようなSDESパケットを、同時に発言を行うユーザの構成が変わる毎にユーザ端末1−2と1−3に送信する。ユーザ端末1−1から送信されてきたSDESパケットを受信したユーザ端末1−2と1−3は、それぞれ、SDESパケットに記述されたCNAME,NAME,EMAIL,PHONE,LOC等の情報を用いて、現在、だれが発言を行っているのかを特定し、それを表す表示を行う。 The user terminal 1-1 transmits such an SDES packet in which incidental information of the participant is described to the user terminals 1-2 and 1-3 every time the configuration of the user who speaks at the same time changes. The user terminals 1-2 and 1-3 that have received the SDES packet transmitted from the user terminal 1-1 use information such as CNAME, NAME, EMAIL, PHONE, and LOC described in the SDES packet, respectively. Identify who is currently speaking and display it.
なお、CNAMEはSDES ITEMの記述の中で唯一添付が義務付けられているものであるため、例えば、このCNAMEが、会話を行っているユーザの情報を通知するために用いられる。また、ユーザ端末1−1のように、マイクロフォンやスピーカを有し、カンファレンスの参加者であるユーザB、ユーザCと会話を行うユーザAが利用する端末がカンファレンスを主催する場合、主催者の識別子ではあるが、ユーザAが発言を行っているときにはユーザAの識別子もSDES ITEMのCNAMEとしてSDESパケットに記述されるようにしてもよい。すなわち、SDES ITEMのCNAMEは、発言を行っているユーザを表す。 Since CNAME is the only one that is required to be attached in the description of SDES ITEM, for example, this CNAME is used to notify the information of the user who is having a conversation. In addition, when the terminal used by the user A who has a microphone and a speaker and who has a conversation with the user B and the user C like the user terminal 1-1 hosts the conference, the identifier of the organizer However, when user A is speaking, the identifier of user A may also be described in the SDES packet as the CNAME of the SDES ITEM. That is, CNAME of SDES ITEM represents the user who is making a statement.
図8は、SDESパケットのCNAMEとして記述される識別子の例を示す図である。図8においては横軸が時間軸を表す。 FIG. 8 is a diagram illustrating an example of an identifier described as CNAME of the SDES packet. In FIG. 8, the horizontal axis represents the time axis.
図8の例においては、時刻t1においてユーザAにより発言が開始され、それが時刻t4まで続けられている。また、時刻t2においてユーザCにより発言が開始され、それが時刻t5まで続けられている。さらに、時刻t3においてユーザBにより発言が開始され、それが時刻t6まで続けられている。 In the example of FIG. 8, the user A starts speaking at time t 1 and continues until time t 4 . In addition, the user C starts speaking at time t 2 and continues until time t 5 . Furthermore, at time t 3 , the user B starts speaking and continues until time t 6 .
したがって、時刻t1から時刻t2までの時間においては、ユーザAだけによって発言が行われ、時刻t2から時刻t3までの時間においては、ユーザAとユーザCの2人によって同時に発言が行われている。また、時刻t3から時刻t4までの時間においては、ユーザA、ユーザB、ユーザCの3人によって同時に発言が行われ、時刻t4から時刻t5までの時間においては、ユーザBとユーザCの2人によって同時に発言が行われている。時刻t5から時刻t6までの時間においては、ユーザBだけによって発言が行われている。 Therefore, during time from time t 1 to time t 2 , only user A speaks, and during time from time t 2 to time t 3 , two users A and C simultaneously speak. It has been broken. Also, during the time from time t 3 to time t 4, three users, user A, user B, and user C, speak at the same time, and during the time from time t 4 to time t 5 , user B and user Two of C are speaking at the same time. In the time from time t 5 to time t 6 , the speech is made only by user B.
このようなタイミングでそれぞれのユーザにより発言が行われる場合、図8に示されるように、時刻t1においてユーザ端末1−1から送信されるSDESパケットには、そのとき発言を開始したユーザAの識別子がCNAMEとして記述されるSDES ITEMが含まれる。 When each user makes a statement at such a timing, as shown in FIG. 8, the SDES packet transmitted from the user terminal 1-1 at time t 1 includes the user A who started the statement at that time. Contains SDES ITEM whose identifier is described as CNAME.
また、時刻t2においてユーザ端末1−1から送信されるSDESパケットには、時刻t2において発言を開始したユーザCの識別子が追加され、ユーザAの識別子がCNAMEとして記述されるSDES ITEMと、ユーザCの識別子がCNAMEとして記述されるSDES ITEMが含まれる。 Further, the SDES packet transmitted from the user terminal 1-1 in time t 2, the added identifier of the user C who start speaking at time t 2, the a SDES ITEM the identifier of the user A is described as CNAME, SDES ITEM in which the identifier of the user C is described as CNAME is included.
時刻t3においてユーザ端末1−1から送信されるSDESパケットには、さらに、時刻t3において発言を開始したユーザBの識別子が追加され、ユーザAの識別子がCNAMEとして記述されるSDES ITEM、ユーザBの識別子がCNAMEとして記述されるSDES ITEM、および、ユーザCの識別子がCNAMEとして記述されるSDES ITEMが含まれる。 The SDES packet transmitted from the user terminal 1-1 at time t 3, further adds the identifier of the user B who start speaking at time t 3 is, SDES ITEM the identifier of the user A is described as CNAME, the user SDES ITEM in which the identifier of B is described as CNAME and SDES ITEM in which the identifier of user C is described as CNAME are included.
時刻t4においてユーザ端末1−1から送信されるSDESパケットには、時刻t4において発言を終了したユーザAの識別子が削除され、ユーザBの識別子がCNAMEとして記述されるSDES ITEMと、ユーザCの識別子がCNAMEとして記述されるSDES ITEMが含まれる。 The SDES packet transmitted from the user terminal 1-1 at time t 4, the identifier of the user A has finished speaking at time t 4 is deleted, and SDES ITEM the identifier of the user B is described as CNAME, user C SDES ITEM in which the identifier is described as CNAME is included.
時刻t5においてユーザ端末1−1から送信されるSDESパケットには、時刻t5において発言を終了したユーザCの識別子が削除され、ユーザBの識別子がCNAMEとして記述されるSDES ITEMが含まれる。 The SDES packet transmitted from the user terminal 1-1 at time t 5, is deleted identifier of the user C has been completed the speech at time t 5, the identifier of the user B includes SDES ITEM described as CNAME.
ユーザBが発言を終了することによってだれも発言を行っていない状態になった時刻t6においては、ユーザ端末1−1からSDESパケットは送信されない。 At time t 6 the state had not been anyone speech by the user B ends the remarks, SDES packet from the user terminal 1-1 is not transmitted.
このように、ユーザ端末1−1からは、同時に発言を行うユーザの構成が変わる毎にSDESパケットが送信され、いまだれが発言を行っているのかが参加者のユーザ端末に通知される。 As described above, the user terminal 1-1 transmits an SDES packet every time the configuration of a user who speaks at the same time changes, and notifies the participant's user terminal whether he / she is speaking.
カンファレンスの主催者の端末であるユーザ端末1−1が行う一連の動作とカンファレンスの参加者の端末であるユーザ端末1−2と1−3が行う一連の動作についてはフローチャートを参照して後述する。 A series of operations performed by the user terminal 1-1 which is a conference organizer's terminal and a series of operations performed by the user terminals 1-2 and 1-3 which are conference participant's terminals will be described later with reference to flowcharts. .
図9は、ユーザ端末1−1の機能構成例を示すブロック図である。 FIG. 9 is a block diagram illustrating a functional configuration example of the user terminal 1-1.
ユーザ端末1−1においては、図9に示されるように、通信制御部11、主制御部12、入出力制御部13、音声入力部14、音声出力部15、および表示制御部16が所定のプログラムが実行されることによって実現される。ユーザ端末1−1には、ネットワーク端子21、マイクロフォン22、スピーカ23、およびディスプレイ24が設けられている。
In the user terminal 1-1, as shown in FIG. 9, a
通信制御部11は、ネットワーク端子21に装着されたケーブルを介してネットワーク2に接続し、ユーザ端末1−2,1−3と通信を行う。通信制御部11は、ユーザ端末1−2,1−3からRTPパケット、RTCPパケットが送信されてきたとき、それを受信し、主制御部12に出力する。また、通信制御部11は、RTPパケット、RTCPパケット(SDESパケット)が主制御部12から供給されたとき、それをユーザ端末1−2と1−3に送信する。
The
主制御部12は、通信制御部11から供給されたRTPパケットに含まれる音声データと入出力制御部13から供給された音声データを合成し、合成して得られた音声データを格納するRTPパケットを生成する。主制御部12は、生成したRTPパケットを通信制御部11に出力する。また、主制御部12は、通信制御部11から供給されたRTPパケットに含まれる音声データを入出力制御部13に出力する。
The
さらに、主制御部12は、ユーザ端末1−2,1−3から送信されるRTPパケットの状況と、入出力制御部13から供給される音声データの状況に基づいて、同時に発言を行っているユーザの構成を監視し、ユーザの構成が変わったことを検出したとき、発言を行っているユーザの識別子が記述される、上述したようなSDESパケットを生成する。主制御部12は、生成したSDESパケットを通信制御部11に出力する。なお、だれが発言を行い、だれが発言を行っていないのかを表す情報は主制御部12から入出力制御部13にも出力される。
Further, the
入出力制御部13は、音声入力部14により取り込まれた音声データを主制御部12に出力する。また、入出力制御部13は、主制御部12から供給された音声データを音声出力部15に出力し、音声を出力させる。
The input /
さらに、入出力制御部13は、主制御部12から供給された、だれが発言を行い、だれが発言を行っていないのかを表す情報を表示制御部16に出力する。
Furthermore, the input /
音声入力部14は、スピーカ22において取り込まれた音声信号にA/D(Analog/Digital)変換処理を施し、得られた音声データを入出力制御部13に出力する。
The
音声出力部15は、入出力制御部13から供給された音声データに対してD/A変換処理、増幅処理を施し、所定の音量に調整した後、音声をスピーカ23から出力させる。
The
表示制御部16は、入出力制御部13から供給された情報に基づいて、発言を行っているユーザの情報を、発言を行っていないユーザの情報と異なる形式でディスプレイ24に表示させる。
Based on the information supplied from the input /
以上のような構成と同じ構成をユーザ端末1−2と1−3も有している。以下、適宜、図9に示されるユーザ端末1−1の構成を、ユーザ端末1−2や1−3の構成として引用して説明する。 The user terminals 1-2 and 1-3 have the same configuration as the above configuration. Hereinafter, the configuration of the user terminal 1-1 illustrated in FIG. 9 will be described as being referred to as the configuration of the user terminals 1-2 and 1-3 as appropriate.
図10は、図9の主制御部12の構成例を示すブロック図である。
FIG. 10 is a block diagram illustrating a configuration example of the
カンファレンスの主催者の端末であるユーザ端末1−1の主制御部12は、図10に示されるように、パケット解析部31、音声合成部32、およびパケット生成部33から構成される。
As shown in FIG. 10, the
パケット解析部31は、通信制御部11から供給されたRTPパケットを解析し、RTPパケットに格納される音声データを入出力制御部13と音声合成部32に出力する。入出力制御部13に出力された音声データは、スピーカ23から音声を出力するために用いられる。
The
また、パケット解析部31は、例えば、RTPパケットに記述されるCSRCとマーカビットの値、および、入出力制御部13から供給されたユーザAの音声のデータに基づいて、発言を行っているユーザを特定する。RTPパケットに記述されるCSRCとマーカビットの値から、ユーザBとユーザCのそれぞれが発言を行っているか否かが特定され、入出力制御部13から供給されたユーザAの音声のデータから、ユーザAが発言を行っているか否かが特定される。
The
パケット解析部31は、発言を行っているユーザを特定し、同時に発言を行っているユーザの構成が変わったことを検出したとき、いま発言を行っているユーザの情報をパケット生成部33に出力する。だれが発言を行い、だれが発言を行っていないのかを表す情報はパケット解析部31から入出力制御部13にも出力される。
When the
また、パケット解析部31は、通信制御部11において受信されたデータを解析し、カンファレンスに新たに参加するユーザや、カンファレンスから退場するユーザを検出し、検出したそれらのユーザの情報をパケット生成部33に出力する。
Further, the
音声合成部32は、パケット解析部31から供給された音声データと入出力制御部13から供給された音声データを合成し、合成して得られた音声データをパケット生成部33に出力する。
The
パケット生成部33は、音声合成部32から供給された音声データを格納するRTPパケットを生成し、生成したRTPパケットを通信制御部11に出力する。
The
また、パケット生成部33は、同時に発言を行うユーザの構成が変わったことが検出され、ユーザの情報がパケット解析部31から供給されたとき、発言を行っているユーザの識別子がSDES ITEMのCNAMEとして記述されるSDESパケットを生成し、生成したSDESパケットを通信制御部11に出力する。
Further, the
パケット生成部33は、カンファレンスに参加するユーザの情報が登録されるユーザリストを管理しており、カンファレンスに新たに参加するユーザや、カンファレンスから退場するユーザの情報がパケット解析部31から供給されたとき、それに応じてユーザリストの登録内容を更新する。ユーザリストには、カンファレンスに参加するユーザの識別子などが登録されており、このユーザリストは、ユーザ端末1−1から送信されるRTPパケットのRTPヘッダにCSRCを記述するとき、あるいは、SDESパケットにCSRCを記述するときなどに参照される。
The
図11は、図9の主制御部12の他の構成例を示すブロック図である。図11は、カンファレンスの参加者の端末である例えばユーザ端末1−2の主制御部12の構成を示している。
FIG. 11 is a block diagram illustrating another configuration example of the
ユーザ端末1−2の主制御部12は、図11に示されるように、パケット解析部41とパケット生成部42から構成される。
The
パケット解析部41は、ユーザ端末1−1から送信され、ユーザ端末1−2の通信制御部11において受信されたRTPパケットを取得し、取得したRTPパケットに格納される音声データを入出力制御部13に出力する。入出力制御部13に出力された音声データに基づいて、ユーザ端末1−2のスピーカ23から音声が出力される。
The
また、パケット解析部41は、ユーザ端末1−2の通信制御部11において受信されたRTPパケットやSDESパケットのCSRCと、SDESパケットのSDES ITEMにCNAMEとして記述される識別子に基づいて、どのユーザが発言を行っており、どのユーザが発言を行っていないのかを特定する。パケット解析部41は、特定したユーザの情報を入出力制御部13に出力し、発言を行っているユーザの情報を、発言を行っていないユーザの情報と異なる形式でユーザ端末1−2のディスプレイ24に表示させる。
Further, the
パケット生成部42は、マイクロフォン22により取り込まれたユーザBの音声のデータが音声入力部14、入出力制御部13を介して供給されたとき、音声データを格納するRTPパケットを生成し、生成したRTPパケットを通信制御部11に出力する。通信制御部11に出力されたRTPパケットはユーザ端末1−1に送信される。
The
次に、以上のような構成を有するユーザ端末の動作についてフローチャートを参照して説明する。 Next, the operation of the user terminal having the above configuration will be described with reference to a flowchart.
はじめに、図12のフローチャートを参照して、カンファレンスを管理するユーザ端末1−1の処理について説明する。 First, processing of the user terminal 1-1 that manages the conference will be described with reference to the flowchart of FIG.
ステップS31において、ユーザ端末1−1のパケット解析部31は、通信制御部11において受信されたデータの解析結果に基づいて、カンファレンスから退場したユーザがいるか否かを判定し、そのようなユーザがいないと判定した場合、ステップS32に進む。
In step S31, the
ステップS32において、パケット解析部31は、次に、カンファレンスに参加したユーザがいるか否かを判定する。
In step S32, the
パケット解析部31は、ステップS32において、カンファレンスに参加したユーザがいると判定した場合、カンファレンスに新たに参加したユーザの情報をパケット生成部33に出力し、ステップS33に進む。
If the
ステップS33において、パケット生成部33は、パケット解析部31から供給された情報に基づいて、カンファレンスに新たに参加したユーザの識別子をユーザリストに追加する。カンファレンスに参加するユーザが変わったとき、SDESパケットのCSRC以外の情報も適宜書き換えられる。
In step S33, based on the information supplied from the
一方、ステップS32において、パケット解析部31は、カンファレンスに参加したユーザもいないと判定した場合、ステップS33の処理をスキップする。カンファレンスに参加したユーザもいないと判定された後、または、ステップS33においてカンファレンスに新たに参加したユーザの識別子がユーザリストに登録された後、処理はステップS35に進む。
On the other hand, if the
また、パケット解析部31は、ステップS31において、通信制御部11において受信されたデータの解析結果に基づいて、カンファレンスから退場したユーザがいると判定した場合、カンファレンスから退場したユーザの情報をパケット生成部33に出力し、ステップS34に進む。
If the
ステップS34において、パケット生成部33は、パケット解析部31から供給された情報に基づいて、カンファレンスから退場したユーザの識別子をユーザリストから削除する。その後、処理はステップS35に進む。
In step S <b> 34, the
ステップS35において、パケット解析部31は、例えば、ユーザ端末1−2や1−3から送信され、通信制御部11において受信されたRTPパケットに記述されるCSRCとマーカビットの値、および、入出力制御部13から供給されたユーザAの音声のデータに基づいて、どのユーザが発言を行っているかを特定し、それまでに行っていた発言を終了したユーザがいるか否かを判定する。ユーザ端末1−2と1−3からは、RTPパケットなどが所定のタイミングで送信されてきており、音声合成部32においては、それに格納される音声データの合成が行われている。
In step S35, for example, the
パケット解析部31は、ステップS35において、発言を終了したユーザがいないと判定した場合、ステップS36に進み、次に、発言を開始したユーザがいるか否かを判定する。
If it is determined in step S35 that there is no user who has finished speaking, the
ステップS36において、パケット解析部31は、発言を開始したユーザがいると判定した場合、ステップS37に進み、カンファレンスから退場したユーザがいるとステップS31において判定されたことから、または、カンファレンスに参加したユーザがいるとステップS32において判定されたことから、カンファレンスに参加するユーザの構成が変わったことが確認されているか否かを判定する。
In step S36, if the
ステップS37において、パケット解析部31は、カンファレンスに参加するユーザの構成が変わったことが確認されていると判定した場合、ステップS38に進む。
In step S37, when the
ステップS38において、パケット生成部33は、ユーザリストを参照し、送信するRTPパケットのRTPヘッダのCSRCと、RTCPパケットのCSRCを書き換える。
In step S38, the
一方、ステップS37において、パケット解析部31は、カンファレンスから退場したユーザがいるとステップS31において判定されておらず、かつ、カンファレンスに参加したユーザがいるとステップS32において判定されていないことから、カンファレンスに参加するユーザの構成が変わったことが確認されていないと判定した場合、ステップS38の処理をスキップし、ステップS39に進む。この場合、それまでに送信されたRTPパケット、RTCPパケットと同じCSRCが、RTPパケットのRTPヘッダとRTCPパケットに記述されることになる。
On the other hand, in step S37, the
ステップS39において、パケット生成部33は、ステップS36において開始されたと判定された発言の主であるユーザの識別子をSDESパケットのSDES ITEMに追加する。
In step S39, the
ステップS40において、パケット生成部33は、ステップS38でCSRCを書き換えたRTPヘッダを、音声合成部32から供給された音声データに付加し、得られたRTPパケットを通信制御部11からユーザ端末1−2と1−3に送信する。
In step S40, the
また、パケット生成部33は、ステップS40において、ステップS38でCSRCを書き換え、さらに、ステップS39でユーザの識別子を追加したSDESパケットを通信制御部11からユーザ端末1−2と1−3に送信する。これにより、あるユーザが発言を開始したことによって同時に発言を行うユーザの構成が変わったタイミングで、SDESパケットがユーザ端末1−1から送信されることになる。
In step S40, the
ユーザ端末1−2と1−3においては、ここで送信されたRTPパケットに格納される音声データに基づいて音声の出力が行われるとともに、RTCPパケットに記述されるユーザの識別子に基づいて、発言を行っているユーザの情報と、発言を行っていないユーザの情報とが異なる形式で表示される。 In the user terminals 1-2 and 1-3, voice is output based on the voice data stored in the RTP packet transmitted here, and a message is sent based on the user identifier described in the RTCP packet. The information of the user who is making a speech and the information of the user who is not making a speech are displayed in different formats.
ステップS36において、発言も開始されていないと判定された場合、ステップS37乃至S40の処理はスキップされる。 If it is determined in step S36 that no speech has been started, the processes in steps S37 to S40 are skipped.
一方、ステップS35において、パケット解析部31は、発言を終了したユーザがいると判定した場合、ステップS41に進み、カンファレンスから退場したユーザがいるとステップS31において判定されたことから、または、カンファレンスに参加したユーザがいるとステップS32において判定されたことから、カンファレンスに参加するユーザの構成が変わったことが確認されているか否かを判定する。
On the other hand, if it is determined in step S35 that there is a user who has finished speaking, the
ステップS41において、パケット解析部31は、カンファレンスに参加するユーザの構成が変わったことが確認されていると判定した場合、ステップS42に進む。
In step S41, when the
ステップS42において、パケット生成部33は、ユーザリストを参照し、送信するRTPパケットのRTPヘッダのCSRCと、RTCPパケットのCSRCを書き換える。
In step S42, the
一方、ステップS41において、パケット解析部31は、カンファレンスから退場したユーザがいるとステップS31において判定されておらず、かつ、カンファレンスに参加したユーザがいるとステップS32において判定されていないことから、カンファレンスに参加するユーザの構成が変わったことが確認されていないと判定した場合、ステップS42の処理をスキップする。
On the other hand, in step S41, the
ステップS43において、パケット生成部33は、ステップS35において終了されたと判定された発言の主であるユーザの識別子を、SDESパケットから削除する。
In step S43, the
ここで識別子が削除されたSDESパケットは、ステップS40においてユーザ端末1−2と1−3に送信され、これにより、あるユーザが発言を終了したことによって同時に発言を行うユーザの構成が変わったタイミングで、SDESパケットがユーザ端末1−1から送信されることになる。 Here, the SDES packet from which the identifier is deleted is transmitted to the user terminals 1-2 and 1-3 in step S40, and thereby the timing at which the configuration of the user who speaks at the same time is changed due to the termination of the certain user. Thus, the SDES packet is transmitted from the user terminal 1-1.
RTPパケットとSDESパケットの送信が行われたとき、パケット解析部31は、ステップS44において、カンファレンスに参加するユーザが残っているか否かを判定する。
When the RTP packet and the SDES packet are transmitted, the
パケット解析部31は、ステップS44において、カンファレンスに残っているユーザがいると判定した場合、ステップS31に戻り、上述した処理を繰り返し実行し、一方、全てのユーザが退場したことから、カンファレンスに残っているユーザがいないと判定した場合、処理を終了させる。
If the
次に、図13のフローチャートを参照して、ユーザの情報の表示を制御するユーザ端末1−2の処理について説明する。図12に示される処理と同様の処理が、ユーザ端末1−3においても行われる。 Next, processing of the user terminal 1-2 that controls display of user information will be described with reference to the flowchart of FIG. A process similar to the process shown in FIG. 12 is also performed in the user terminal 1-3.
ステップS51において、ユーザ端末1−2のパケット解析部41は、ユーザ端末1−1から送信されてきたRTPパケットとSDESパケットが通信制御部11において受信されたか否かを判定し、受信されたと判定した場合、ステップS52に進む。
In step S51, the
ステップS52において、パケット解析部41は、例えば、RTPパケットのRTPヘッダに記述されるCSRCと、SDES ITEMとしてSDESパケットに記述されるCNAMEを、通信制御部11において受信されたデータから取得する。
In step S52, the
ステップS53において、パケット解析部41は、ステップS52で取得したCSRC,CNAMEが、記憶しておいたCSRC,CNAMEと較べてデータの内容に変化があるか否かを判定する。パケット解析部41においては、ユーザ端末1−1から送信されてくるRTPパケットに記述されるCSRCと、SDES ITEMとしてSDESパケットに記述されるCNAMEが記憶されており、それらのデータは、例えば、RTPパケットとRTCPパケットが新たに受信され、内容に変化がある毎に書き換えられる。
In step S53, the
カンファレンスに参加するユーザの構成が変わったとき、CSRCが書き換えられたRTPパケットが送信されてくるから、そのとき、CSRCの内容に変化があったと判定される。また、同時に発言を行うユーザの構成が変わったとき、CNAMEが追加されたり削除されたりしたSDESパケットが送信されてくるから、そのとき、CNAMEの内容に変化があったと判定される。 When the configuration of the user participating in the conference changes, an RTP packet with the CSRC rewritten is transmitted, and at that time, it is determined that the content of the CSRC has changed. Further, when the configuration of a user who makes a statement at the same time is changed, an SDES packet in which a CNAME is added or deleted is transmitted. At this time, it is determined that the content of the CNAME has changed.
パケット解析部41は、ステップS53において、データの内容に変化があったと判定した場合、ステップS54に進む。このとき、例えばRTPパケットのCSRCとSDESパケットに記述されるCNAMEから特定される、発言を行っているユーザと発言を行っていないユーザを表す情報が入出力制御部13に出力される。
If the
ステップS54において、入出力制御部13は、パケット解析部41から供給された情報に基づいて、発言を行っているユーザの情報を、発言を行っていないユーザの情報と異なる形式でディスプレイ24に表示させる。
In step S54, based on the information supplied from the
図14は、ユーザ端末1−2のディスプレイ24に表示される画面の例を示す図である。
FIG. 14 is a diagram illustrating an example of a screen displayed on the
図14の例においては、ディスプレイ24の下側の縁に沿ってタブ51乃至53が表示されている。タブ51にはユーザ端末1−1のユーザの名前を表す「Aさん」が表示され、タブ52にはユーザ端末1−2のユーザの名前を表す「Bさん」が表示されている。また、タブ53にはユーザ端末1−3のユーザの名前を表す「Cさん」が表示されている。
In the example of FIG. 14,
また、図14の例においては、タブ51乃至53のうち、タブ52と53が、タブ51と異なる色で表示されている。タブ52と53に付されている斜線は、斜線が付されていないタブ51と較べて異なる色で表示されていることを表している。
In the example of FIG. 14, among the
すなわち、図14は、ユーザ端末1−2のユーザであるユーザBと、ユーザ端末1−3のユーザであるユーザCが発言を行っている場合の例を示している。 That is, FIG. 14 illustrates an example in which a user B who is a user of the user terminal 1-2 and a user C who is a user of the user terminal 1-3 are speaking.
このような画面表示から、ユーザBは、スピーカ23から出力されている音声が、自分とユーザCの音声であることを確認することができる。図14の画面が表示されているとき、ユーザ端末1−2の音声出力部15においては、パケット解析部41により取得されたRTPパケットに格納される音声データに基づいて、スピーカ23から音声が出力されている。
From such a screen display, the user B can confirm that the sound output from the
なお、図14に示されるように、カンファレンスに参加する全てのユーザの情報が表示され、発言を行っているユーザの情報と発言を行っていないユーザの情報が異なる形式で表示されるのではなく、単に、SDESパケットに記述されているCNAMEから特定された、発言を行っているユーザの情報だけが表示されるようにしてもよい。 As shown in FIG. 14, information on all users who participate in the conference is displayed, and information on users who are speaking and information on users who are not speaking are not displayed in different formats. Alternatively, only the information of the user who is making a speech specified from the CNAME described in the SDES packet may be displayed.
図13の説明に戻り、ステップS55において、パケット解析部41は、ステップS52で取得したCSRC,CNAMEを記憶し、ステップS56に進む。ステップS51においてRTPパケットとSDESパケットが受信されていないと判定された場合、または、ステップS53においてCSRC,CNAMEの内容に変化がないと判定された場合も、処理はステップS56に進む。
Returning to the description of FIG. 13, in step S55, the
ステップS56において、パケット解析部41は、カンファレンスへの参加を終了するか否かを判定する。
In step S56, the
パケット解析部41は、ステップS56において、カンファレンスへの参加を終了しないと判定した場合、ステップS51に戻り、上述した処理を繰り返し実行し、一方、カンファレンスへの参加を終了すると判定した場合、処理を終了させる。例えば、カンファレンスへの参加を終了することがユーザBにより指示された場合、カンファレンスへの参加を終了すると判定される。
If the
以上の処理により、カンファレンスの参加者であるユーザBは、画面表示から、発言を行っているユーザと、発言を行っていないユーザを一目で容易に確認することができる。 Through the above processing, the user B who is a participant in the conference can easily confirm at a glance the user who is speaking and the user who is not speaking from the screen display.
図15は、ユーザ端末の他の構成例を示すブロック図である。図9の構成と同じ構成には同じ符号を付してある。 FIG. 15 is a block diagram illustrating another configuration example of the user terminal. The same components as those in FIG. 9 are denoted by the same reference numerals.
図15の例においては、装置51と装置52の2つの装置によって、図9のユーザ端末1−1と同様の構成が実現されている。装置51においては通信制御部11と主制御部12が実現され、装置52においては入出力制御部13、音声入力部14、音声出力部15、および表示制御部16が実現されている。
In the example of FIG. 15, the same configuration as that of the user terminal 1-1 of FIG. 9 is realized by the two devices of the
装置51の主制御部12と、装置52の入出力制御部13はUSB(Universal Serial Bus)ケーブルなどを介して接続される。このような構成を有する装置51と装置52により、図9の構成を有するユーザ端末1−1が行う上述したような処理と同様の処理、あるいは、ユーザ端末1−2が行う上述したような処理と同様の処理が行われるようにしてもよい。
The
なお、図15の例においては、図9のディスプレイ24に替えてLED(Light Emitting Diode)発光部53が装置52に設けられている。LED発光部53にはLED53A乃至53Cが並べて設けられている。LED53Aの発光は、LED53Aが割り当てられたユーザAが発言していることを表し、LED53Bの発光は、LED53Bが割り当てられたユーザBが発言していることを表す。また、LED53Cの発光は、LED53Cが割り当てられたユーザ端末1−3のユーザが発言していることを表す。
In the example of FIG. 15, an LED (Light Emitting Diode)
図15の例においては、LED53BとLED53Cが発光しており、これにより、ユーザBとユーザCが同時に発言を行っていることが表されている。
In the example of FIG. 15, the LED 53B and the
発言を行っているユーザと発言を行っていないユーザが画面表示によって表されるのではなく、このように、LEDの発光によって表されるようにすることも可能である。 The user who is speaking and the user who is not speaking are not represented by the screen display, but can be represented by the light emission of the LED.
上述した一連の処理は、ハードウエアにより実行させることもできるし、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。 The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer incorporated in dedicated hardware or various programs. For example, it is installed from a program recording medium in a general-purpose personal computer or the like.
図16は、上述した一連の処理をプログラムにより実行するパーソナルコンピュータの構成例を示すブロック図である。 FIG. 16 is a block diagram illustrating a configuration example of a personal computer that executes the above-described series of processing by a program.
CPU(Central Processing Unit)101は、ROM(Read Only Memory)102、または記憶部108に記憶されているプログラムに従って各種の処理を実行する。RAM(Random Access Memory)103には、CPU101が実行するプログラムやデータなどが適宜記憶される。これらのCPU101、ROM102、およびRAM103は、バス104により相互に接続されている。
A CPU (Central Processing Unit) 101 executes various processes according to a program stored in a ROM (Read Only Memory) 102 or a
CPU101にはまた、バス104を介して入出力インターフェース105が接続されている。入出力インターフェース105には、キーボード、マウス、マイクロホンなどよりなる入力部106、ディスプレイ、スピーカなどよりなる出力部107が接続されている。CPU101は、入力部106から入力される指令に対応して各種の処理を実行する。そして、CPU101は、処理の結果を出力部107に出力する。
An input /
入出力インターフェース105に接続されている記憶部108は、例えばハードディスクからなり、CPU101が実行するプログラムや各種のデータを記憶する。通信部109はネットワーク2を介して外部の装置と通信を行う。
The
入出力インターフェース105に接続されているドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア111が装着されたとき、それらを駆動し、そこに記録されているプログラムやデータなどを取得する。取得されたプログラムやデータは、必要に応じて記憶部108に転送され、記憶される。
The
コンピュータにインストールされ、コンピュータによって実行可能な状態とされるプログラムを格納するプログラム記録媒体は、図16に示すように、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)を含む)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア111、または、プログラムが一時的もしくは永続的に格納されるROM102や、記憶部108を構成するハードディスクなどにより構成される。プログラム記録媒体へのプログラムの格納は、必要に応じてルータ、モデムなどのインタフェースである通信部109を介して、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の通信媒体を利用して行われる。
As shown in FIG. 16, a program recording medium for storing a program that is installed in a computer and can be executed by the computer is a magnetic disk (including a flexible disk), an optical disk (CD-ROM (Compact Disc-Read Only). Memory, DVD (Digital Versatile Disc), a magneto-optical disk, a
なお、本明細書において、プログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 In the present specification, the steps for describing a program are not only processes performed in time series in the order described, but also processes that are executed in parallel or individually even if they are not necessarily processed in time series. Is also included.
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 Further, in this specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
1−1乃至1−3 ユーザ端末, 2 ネットワーク, 3 サーバ, 11 通信制御部, 12 主制御部, 13 入出力制御部, 14 音声入力部, 15 音声出力部, 16 表示制御部, 21 ネットワーク端子, 22 マイクロフォン, 23 スピーカ, 24 ディスプレイ, 31 パケット解析部, 32 音声合成部, 33 パケット生成部, 41 パケット解析部, 42 パケット生成部 1-1 to 1-3 User terminals, 2 networks, 3 servers, 11 communication control units, 12 main control units, 13 input / output control units, 14 audio input units, 15 audio output units, 16 display control units, 21 network terminals , 22 microphones, 23 speakers, 24 displays, 31 packet analysis units, 32 speech synthesis units, 33 packet generation units, 41 packet analysis units, 42 packet generation units
Claims (9)
前記情報管理装置は、
所定の前記情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせる合成手段と、
複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出する検出手段と、
前記検出手段によりユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信する生成手段と
を備え、
複数の前記情報処理装置は、それぞれ、
前記情報管理装置から送信されてきた前記制御情報を取得する取得手段と、
前記取得手段により前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させる表示制御手段と
を備える通信システム。 In a communication system consisting of an information management device and a plurality of information processing devices connected via a network,
The information management device includes:
The voices obtained and transmitted by the predetermined information processing apparatuses are synthesized, and the voices obtained by synthesizing the voices are transmitted to the plurality of information processing apparatuses and output to the plurality of information processing apparatuses. A compositing means that allows conversations between
Detecting means for detecting the start or end of a user's speech based on the state of sound acquired by the plurality of information processing devices;
Each time the detection means detects the start or end of a user's speech, and the configuration of the user who speaks at the same time is changed, the first identification information for identifying the users of the plurality of information processing devices and the speech are performed. Generating means for generating control information including second identification information for identifying a user, and transmitting the control information to a plurality of the information processing devices;
The plurality of information processing apparatuses are respectively
Obtaining means for obtaining the control information transmitted from the information management device;
Each time the control information is acquired by the acquisition means, a display that identifies a user who is speaking and a user who is not speaking based on the control information, and displays information related to each user in different formats A communication system comprising control means.
所定の前記情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせる合成手段と、
複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出する検出手段と、
前記検出手段によりユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信する生成手段と
を備える情報管理装置。 In an information management apparatus connected to a plurality of information processing apparatuses via a network,
The voices obtained and transmitted by the predetermined information processing apparatuses are synthesized, and the voices obtained by synthesizing the voices are transmitted to the plurality of information processing apparatuses and output to the plurality of information processing apparatuses. A compositing means that allows conversations between
Detecting means for detecting the start or end of a user's speech based on the state of sound acquired by the plurality of information processing devices;
Each time the detection means detects the start or end of a user's speech, and the configuration of the user who speaks at the same time is changed, the first identification information for identifying the users of the plurality of information processing devices and the speech are performed. An information management device comprising: generating means for generating control information including second identification information for identifying a user and transmitting the control information to a plurality of the information processing devices.
請求項2に記載の情報管理装置。 The information management apparatus according to claim 2, wherein the control information is an RTCP packet, and the first identification information is a CSRC described in the RTCP packet.
請求項3に記載の情報管理装置。 The information management apparatus according to claim 3, wherein the second identification information is information described in an SDES type RTCP packet as SDES ITEM.
所定の前記情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせ、
複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出し、
ユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信する
ステップを含む情報処理方法。 In an information processing method of an information management device connected to a plurality of information processing devices via a network,
The voices obtained and transmitted by the predetermined information processing apparatuses are synthesized, and the voices obtained by synthesizing the voices are transmitted to the plurality of information processing apparatuses and output to the plurality of information processing apparatuses. Have conversations between them,
Detecting the start or end of a user's speech based on the status of the sound acquired by the plurality of information processing devices;
Each time the start or end of a user's speech is detected and the configuration of the user who speaks at the same time is changed, the first identification information for identifying the users of the plurality of information processing devices and the user who is speaking are identified. An information processing method including a step of generating control information including second identification information and transmitting the control information to a plurality of the information processing devices.
所定の前記情報処理装置により取得され、送信されてきた音声を合成し、合成して得られた音声を複数の前記情報処理装置に送信して出力させることによって複数の前記情報処理装置のユーザの間で会話を行わせ、
複数の前記情報処理装置により取得される音声の状況に基づいて、ユーザの発言の開始または終了を検出し、
ユーザの発言の開始または終了が検出され、同時に発言を行うユーザの構成が変わる毎に、複数の前記情報処理装置のユーザを識別する第1の識別情報と、発言を行っているユーザを識別する第2の識別情報を含む制御情報を生成し、複数の前記情報処理装置に送信する
ステップを含むプログラム。 In a program for causing a computer to execute information processing of an information management device connected to a plurality of information processing devices via a network,
The voices obtained and transmitted by the predetermined information processing apparatuses are synthesized, and the voices obtained by synthesizing the voices are transmitted to the plurality of information processing apparatuses and output to the plurality of information processing apparatuses. Have conversations between them,
Detecting the start or end of a user's speech based on the status of the sound acquired by the plurality of information processing devices;
Each time the start or end of a user's speech is detected and the configuration of the user who speaks at the same time is changed, the first identification information for identifying the users of the plurality of information processing devices and the user who is speaking are identified. A program including a step of generating control information including second identification information and transmitting the control information to a plurality of the information processing apparatuses.
前記情報管理装置から送信されてきた前記制御情報を取得する取得手段と、
前記取得手段により前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させる表示制御手段と
を備える情報処理装置。 Between the users of a plurality of information processing devices by synthesizing the voices acquired and transmitted by a predetermined information processing device and transmitting the synthesized voices to the plurality of information processing devices for output. A synthesizing unit that causes a conversation to be performed, a detecting unit that detects a start or end of a user's speech based on a voice situation acquired by a plurality of the information processing devices, and a start or end of the user's speech by the detecting unit Each time an end is detected and the configuration of a user who makes a statement changes at the same time, first identification information for identifying a plurality of users of the information processing apparatus and second identification information for identifying a user who makes a statement Information processing apparatus that includes control means for generating control information including and transmitting the control information to a plurality of information processing apparatuses together with other information processing apparatuses via an information processing apparatus In the location,
Obtaining means for obtaining the control information transmitted from the information management device;
Each time the control information is acquired by the acquisition means, a display that identifies a user who is speaking and a user who is not speaking based on the control information, and displays information related to each user in different formats An information processing apparatus comprising: control means.
前記情報管理装置から送信されてきた前記制御情報を取得し、
前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させる
ステップを含む情報処理方法。 Between the users of a plurality of information processing devices by synthesizing the voices acquired and transmitted by a predetermined information processing device and transmitting the synthesized voices to the plurality of information processing devices for output. A synthesizing unit that causes a conversation to be performed, a detecting unit that detects a start or end of a user's speech based on a voice situation acquired by a plurality of the information processing devices, and a start or end of the user's speech by the detecting unit Each time an end is detected and the configuration of a user who makes a statement changes at the same time, first identification information for identifying a plurality of users of the information processing apparatus and second identification information for identifying a user who makes a statement Information processing apparatus that includes control means for generating control information including and transmitting the control information to a plurality of information processing apparatuses together with other information processing apparatuses via an information processing apparatus In the information processing method of the location,
Obtaining the control information transmitted from the information management device;
Information processing including a step of identifying a user who is making a speech and a user who is not making a speech based on the control information each time the control information is acquired, and displaying information related to each user in a different format Method.
前記情報管理装置から送信されてきた前記制御情報を取得し、
前記制御情報が取得される毎に、前記制御情報に基づいて、発言を行っているユーザと発言を行っていないユーザを特定し、それぞれのユーザに関する情報を異なる形式で表示させる
ステップを含むプログラム。 Between the users of a plurality of information processing devices by synthesizing the voices acquired and transmitted by a predetermined information processing device and transmitting the synthesized voices to the plurality of information processing devices for output. A synthesizing unit that causes a conversation to be performed, a detecting unit that detects a start or end of a user's speech based on a voice situation acquired by a plurality of the information processing devices, and a start or end of the user's speech by the detecting unit Each time an end is detected and the configuration of a user who makes a statement changes at the same time, first identification information for identifying a plurality of users of the information processing apparatus and second identification information for identifying a user who makes a statement Information processing apparatus that includes control means for generating control information including and transmitting the control information to a plurality of information processing apparatuses together with other information processing apparatuses via an information processing apparatus A program for executing information processing of location in the computer,
Obtaining the control information transmitted from the information management device;
A program including a step of identifying a user who is speaking and a user who is not speaking based on the control information each time the control information is acquired, and displaying information related to each user in a different format.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006109814A JP2007288255A (en) | 2006-04-12 | 2006-04-12 | Communication system, information management apparatus, information processing apparatus, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006109814A JP2007288255A (en) | 2006-04-12 | 2006-04-12 | Communication system, information management apparatus, information processing apparatus, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2007288255A true JP2007288255A (en) | 2007-11-01 |
Family
ID=38759658
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006109814A Pending JP2007288255A (en) | 2006-04-12 | 2006-04-12 | Communication system, information management apparatus, information processing apparatus, information processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2007288255A (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005531999A (en) * | 2002-07-04 | 2005-10-20 | ノキア コーポレイション | Packet-switched conference call management method, server, and terminal device |
-
2006
- 2006-04-12 JP JP2006109814A patent/JP2007288255A/en active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005531999A (en) * | 2002-07-04 | 2005-10-20 | ノキア コーポレイション | Packet-switched conference call management method, server, and terminal device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8717949B2 (en) | Active speaker identification | |
JP5185631B2 (en) | Multimedia conferencing method and signal | |
JP2009005064A (en) | Ip telephone terminal and telephone conference system | |
JP5436743B2 (en) | Communication terminal device and communication control device | |
EP2207311A1 (en) | Voice communication device | |
JP2007274369A (en) | Communication system, transmission device and receiving device | |
JP2008141348A (en) | Communication apparatus | |
JP4218456B2 (en) | Call device, call method, and call system | |
JP2007288255A (en) | Communication system, information management apparatus, information processing apparatus, information processing method, and program | |
JP5340880B2 (en) | Output control device for remote conversation system, method thereof, and computer-executable program | |
JP2008271415A (en) | Received voice output apparatus | |
JP2008219462A (en) | Communication equipment | |
JP5200764B2 (en) | Telephone communication system, audio data processing apparatus, program, and method | |
JP3973966B2 (en) | Multipoint conference system, terminal device of multipoint conference system, and data mixing processing device of multipoint conference system | |
JP5262906B2 (en) | Mixing relay device and mixing system | |
JP4207701B2 (en) | Call device, call method, and call system | |
JP5210788B2 (en) | Speech signal communication system, speech synthesizer, speech synthesis processing method, speech synthesis processing program, and recording medium storing the program | |
JP2023020331A (en) | Teleconference method and teleconference system | |
JP2008085808A (en) | Method for calling call setting server | |
JP2008060752A (en) | Calling method of communication terminal | |
JP2012119914A (en) | Server device, minutes generation method and computer readable non-volatile storage medium | |
JP4867803B2 (en) | Network communication system | |
JP2005045737A (en) | Apparatus, method and system for telephone communication | |
JP5605458B2 (en) | Mixing relay device and mixing system | |
JP2008067270A (en) | Voice level regulation system of soft-phone terminal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090407 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110329 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20110809 |