JP4741325B2 - Multipoint conference method and multipoint conference system - Google Patents

Multipoint conference method and multipoint conference system Download PDF

Info

Publication number
JP4741325B2
JP4741325B2 JP2005257827A JP2005257827A JP4741325B2 JP 4741325 B2 JP4741325 B2 JP 4741325B2 JP 2005257827 A JP2005257827 A JP 2005257827A JP 2005257827 A JP2005257827 A JP 2005257827A JP 4741325 B2 JP4741325 B2 JP 4741325B2
Authority
JP
Japan
Prior art keywords
video
type terminal
information
type
terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2005257827A
Other languages
Japanese (ja)
Other versions
JP2007074221A (en
Inventor
新九郎 本田
貴之 安野
万知夫 森内
大 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2005257827A priority Critical patent/JP4741325B2/en
Publication of JP2007074221A publication Critical patent/JP2007074221A/en
Application granted granted Critical
Publication of JP4741325B2 publication Critical patent/JP4741325B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

本発明は、多地点に設置された各端末間で、サーバを介して映像や音声を送受信する、多地点会議方法及び多地点会議システム関する。 The present invention, among the installed in the multi-point terminal, to transmit and receive video and audio via the server, about the multipoint conference method, and a multipoint conference system.

パーソナルコンピュータ(PC)の性能向上により、マイクやスピーカ、カメラを当該PCに具備して、そのPCを、ネットワークを介した他のPCとの間の、映像/音声の双方向通信に利用することが可能となっている。またこれらの技術を用いて、映像/音声通信に特化した端末も実現されている。これらの端末を「クライアント」と呼ぶこととする。また映像情報/音声情報の配信処理や、それら情報を各端末へ配信するための呼制御の機能を具備したサーバを用いることにより、複数のクライアントを、サーバを介して接続し、多地点間での映像/音声通信を提供することも可能となっている。   By improving the performance of a personal computer (PC), a microphone, a speaker, and a camera are provided in the PC, and the PC is used for bidirectional video / audio communication with other PCs via a network. Is possible. In addition, a terminal specialized for video / audio communication has been realized using these technologies. These terminals are called “clients”. In addition, by using a server having a function of distributing video information / audio information and a call control function for distributing the information to each terminal, a plurality of clients can be connected via the server and It is also possible to provide video / audio communication.

多地点会議を実現するクライアントは、自クライアントのカメラで撮影した映像情報をエンコードして、通信ネットワークへ送信し、また他クライアントから送信された映像情報を通信ネットワークを介して受信し、その映像情報をエンコードしてモニタに表示する処理を行う。ここで、システムに参加するクライアントが3台以上になった場合には、あるクライアントに対して、他の2台以上のクライアントから送信された映像情報を配信する際のサーバの処理方法が大きく2つの方法に大別できる。まず、1つ目は、他のクライアントから配信された複数の映像情報をサーバで選択、または複数の映像情報を合成し、1つのストリームとして配信し、該配信先のクライアントが受信する方法である。この方法では、配信先のクライアントは常に1つのストリームにより映像情報を受信し再生処理を行えばよいので、処理能力がそれほど高くないクライアントでもシステムに参加することが可能となる。また2つ目の方法は、他のクライアントからの映像情報をそれぞれ別のストリームにより、サーバが配信先のクライアントへ配信し、該配信先のクライアントでは、複数のストリームにより映像情報を別々に受信して、各映像情報を、それぞれ別々に再生処理を行う方法である。この2つ目の方法では、配信先のクライアントにおける受信と再生の処理が複数同時に行われるので、高負荷に耐えることのできる能力を必要とする。なおクライアント間で映像や音声の情報をサーバを介して送受信する会議システムに関する技術が公開されている(特許文献1参照)。
“Arcstar IP-VPN ネットワークイメージ”、「online」、「平成17年7月20日検索」、インターネット<URL:http://www.ntt-vpn.com/ip-vpn/push/tv/push_tv_net.html>
A client that realizes a multipoint conference encodes video information captured by the camera of its own client, transmits it to the communication network, and receives video information transmitted from other clients via the communication network. Encodes and displays it on the monitor. Here, when there are three or more clients participating in the system, there are two major server processing methods for delivering video information transmitted from two or more other clients to a certain client. It can be roughly divided into two methods. First, the first is a method in which a plurality of video information distributed from other clients is selected by a server, or a plurality of video information is synthesized and distributed as a single stream, which is received by the distribution destination client. . In this method, the client of the distribution destination only needs to always receive the video information by one stream and perform the reproduction process. Therefore, even a client having a low processing capability can participate in the system. In the second method, the server distributes video information from other clients to each of the distribution destination clients using separate streams, and the distribution destination clients receive the video information separately from the plurality of streams. Thus, each video information is reproduced separately. In the second method, since a plurality of reception and reproduction processes are simultaneously performed in the distribution destination client, an ability to withstand a high load is required. A technology related to a conference system that transmits and receives video and audio information between clients via a server is disclosed (see Patent Document 1).
“Arcstar IP-VPN Network Image”, “online”, “Search July 20, 2005”, Internet <URL: http://www.ntt-vpn.com/ip-vpn/push/tv/push_tv_net. html>

しかしながら、従来の多地点会議システムでは、そのシステムを実現するに当たり、上述のような1つ目の方法のみを用いた多地点会議システムであるか、または2つ目の方法のみを用いた多地点会議システムであるかの何れかであった。   However, in the conventional multipoint conference system, in realizing the system, the multipoint conference system using only the first method as described above or the multipoint conference using only the second method is used. It was either a conference system.

そこでこの発明は、クライアントの処理能力の高低関係なく、システムに参加することのできる、多地点会議方法及び多地点会議システム提供することを目的としている。 Accordingly, an object of the present invention is to provide a multipoint conference method and a multipoint conference system that can participate in the system regardless of the level of processing capability of the client.

上記目的を達成するために、本発明は、受信した複数の配信映像をそれぞれ再生処理できる第1種端末と、受信した1つの配信映像のみを再生処理できる第2種端末と、前記第1種端末や前記第2種端末が送信した映像情報および音声情報を他の端末へ配信する多地点会議処理装置と、からなる多地点会議システムにおける多地点会議方法であって、前記多地点会議処理装置における第1種サーバが、前記第1種端末および第2種端末それぞれより受信した音声情報を合成すると共に、当該合成した音声情報を前記第1種端末へ配信する際には、その合成した音声情報から配信先の第1種端末の音声情報を削除して配信し、当該合成した音声情報を前記第2種端末へ配信する際には、その合成した音声情報から第2種端末の音声情報を削除して配信し、前記第1種端末および第2種端末それぞれより受信した映像情報を、第1種端末へ配信する際に、該配信先の第1種端末を除く、他の第1種端末または第2種端末の映像情報を配信し、前記第1種端末および前記第2種端末それぞれと、前記映像情報および前記音声情報を配信または受信するための、IPアドレス、ポート番号を少なくとも含む通信識別子と、前記映像情報および前記音声情報の送受信に用いる配信能力情報を交換し、前記多地点会議処理装置における第2種サーバが、前記音声配信手段により配信された第2種端末を宛先とする音声情報を転送し、前記第1種サーバを介して前記第1種端末より受信した映像情報や前記第2種端末より受信した映像情報、第2種端末へ配信する際に、それら第1種端末より受信した映像情報や配信先以外の第2種端末より受信した映像情報を1つの配信映像に合成し、前記合成した映像情報を配信先の第2種端末へ配信するか、または前記第1種サーバを介して前記第1種端末より受信した映像情報や前記配信先以外の第2種端末より受信した映像情報のうちの複数を選択して1つの配信映像に合成し、当該合成した映像情報を前記配信先の第2種端末へ配信することを特徴とする多地点会議方法である。 To achieve the above object, the present invention provides a first type terminal that can reproduce and process a plurality of received distribution videos, a second type terminal that can reproduce only one received distribution video, and the first type A multipoint conference processing method in a multipoint conference system comprising: a multipoint conference processing device that distributes video information and audio information transmitted from a terminal or the second type terminal to another terminal, wherein the multipoint conference processing device When the first type server in synthesizes the voice information received from each of the first type terminal and the second type terminal and distributes the synthesized voice information to the first type terminal , the synthesized voice delivered by deleting the first kind audio information terminal destination from information, the synthesized voice information when delivered to the second type terminal, voice information from the synthesized speech information second type terminal Delete Delivered, the first type terminal and the second type terminal video information received from each when distributing the first-type terminal, excluding the first type terminal of the destination, the one terminal or the other and distributing video information of the two terminals, and each of the first type terminal and the second type terminal, for delivering or receiving the video information and the audio information, IP address, and at least including communication identifier a port number , Exchanging distribution capability information used for transmission / reception of the video information and the audio information, and the second type server in the multipoint conference processing device destined for the second type terminal distributed by the audio distribution means When the video information received from the first type terminal or the video information received from the second type terminal via the first type server is distributed to the second type terminal, these first type terminals More The video information received from the second type terminal other than the distribution destination video information or the second type terminal is combined into one distribution video, and the combined video information is distributed to the second type terminal of the distribution destination, or the first type server A plurality of video information received from the first type terminal and the video information received from the second type terminal other than the distribution destination are selected and combined into one distribution video, and the combined video information is It is a multipoint conference method characterized by delivering to the second type terminal of the delivery destination .

また本発明は、受信した複数の配信映像をそれぞれ再生処理できる第1種端末と、受信した1つの配信映像のみを再生処理できる第2種端末と、前記第1種端末や前記第2種端末が送信した映像情報および音声情報を他の端末へ配信する多地点会議処理装置と、からなる多地点会議システムであって、前記多地点会議処理装置は、前記第1種端末および第2種端末それぞれより受信した音声情報を合成すると共に、当該合成した音声情報を前記第1種端末へ配信する際には、その合成した音声情報から配信先の第1種端末の音声情報を削除して配信し、当該合成した音声情報を前記第2種端末へ配信する際には、その合成した音声情報から第2種端末の音声情報を削除して配信する音声配信手段と、前記第1種端末および第2種端末それぞれより受信した映像情報を、第1種端末へ配信する際に、該配信先の第1種端末を除く、他の第1種端末または第2種端末の映像情報を配信する第1映像配信手段と、前記第1種端末および前記第2種端末それぞれと、前記映像情報および前記音声情報を配信または受信するための、IPアドレス、ポート番号を少なくとも含む通信識別子と、前記映像情報および前記音声情報の送受信に用いる配信能力情報を交換する接続制御手段と、を有する第1種サーバと、前記音声配信手段により配信された第2種端末を宛先とする音声情報を転送する音声転送手段と、前記第1種サーバを介して前記第1種端末より受信した映像情報や前記第2種端末より受信した映像情報、第2種端末へ配信する際に、それら第1種端末より受信した映像情報や配信先以外の第2種端末より受信した映像情報を1つの配信映像に合成し、前記合成した映像情報を配信先の第2種端末へ配信するか、または前記第1種サーバを介して前記第1種端末より受信した映像情報や前記配信先以外の第2種端末より受信した映像情報のうちの複数を選択して1つの配信映像に合成し、当該合成した映像情報を前記配信先の第2種端末へ配信する第2映像配信手段と、を有する第2種サーバと、からなることを特徴とする多地点会議システムである。 The present invention also provides a first type terminal capable of reproducing each of a plurality of received distribution videos, a second type terminal capable of reproducing only one received distribution video, the first type terminals and the second type terminals. A multipoint conference processing apparatus that distributes the video information and audio information transmitted by the other terminal to the other terminal, wherein the multipoint conference processing apparatus includes the first type terminal and the second type terminal. with synthesized speech information received from each of the combined when delivering voice information to the first type terminals that delivery to remove the synthesized voice information of the first kind terminal of destination from the voice information and, the to the synthesized speech information when delivering to the second type terminal includes a voice delivery means for delivering from the synthesized speech information by deleting the voice information of the second type terminal, the first type terminal and the second type terminal each The video information received Ri, when delivering the first type terminal, the distribution destination other than the first type terminal and the other of the first kind terminal or the first video distribution means for distributing the video information of the two terminal A communication identifier including at least an IP address and a port number for distributing or receiving the video information and the audio information with each of the first type terminal and the second type terminal, and the video information and the audio information A connection control means for exchanging delivery capability information used for transmission / reception of the first type server, a voice transfer means for transferring voice information destined for a second type terminal delivered by the voice delivery means, Video information received from the first type terminal when the video information received from the first type terminal or the video information received from the second type terminal via the first type server is distributed to the second type terminal. Or arrangement The video information received from the second type terminal other than the destination is synthesized into one delivery video, and the synthesized video information is delivered to the second type terminal of the delivery destination or the first type server via the first type server. A plurality of video information received from a type 1 terminal and video information received from a type 2 terminal other than the distribution destination are selected and combined into one distribution video, and the combined video information is added to the distribution destination No. A multipoint conference system comprising: a second type server having second video distribution means for distributing to two types of terminals .

本発明によれば、複数の映像を別々に受信して再生できるクライアントと、1つの映像しか受信および再生処理できないクライアントが多地点会議システムに混在するような場合には、複数の映像の全てまたは複数を1つに合成する処理機能を持ったサーバを備えることで、1つの映像しか受信および再生処理できないクライアントでも多地点会議システムに参加できるようなシステムを構成することができる。つまり、クライアントの処理能力の高低関係なく、全てのクライアントがシステムに参加することのできる多地点会議システムを提供することができる。   According to the present invention, when a client capable of receiving and playing back a plurality of videos separately and a client capable of receiving and playing back only one video are mixed in a multipoint conference system, all of the plurality of videos or By providing a server having a processing function for combining a plurality of images into one, it is possible to configure a system in which even a client that can receive and reproduce only one video can participate in the multipoint conference system. That is, it is possible to provide a multipoint conference system in which all clients can participate in the system regardless of the level of processing capability of the clients.

以下、本発明の一実施形態による多地点会議システムを図面を参照して説明する。図1は同実施形態による多地点会議システムの構成を示すブロック図である。この図において、符号10はサーバ群である。また符号20、30はクライアントである。クライアント20、30とサーバ群10とは通信ネットワークを介して接続されている。またクライアント20は、タイプAのクライアントであり、タイプAは、複数のストリームにより配信された別々の映像情報を同時に受信、再生処理することができるクライアントである。したがってタイプAのクライアント20は、高負荷に耐えることのできる処理機能を有している。また、クライアント30は、タイプBのクライアントであり、タイプBは、1つストリームにより配信された1つの映像情報のみを受信、再生処理することができるクライアントである。したがって、クライアント30は、クライアント20の比べて、処理機能の劣る端末である。なお、クライアント20とクライアント30の処理機能の違いは、搭載されているCPUの処理速度や、メモリ容量や、ソフトウェアなどによって、予めどちらのタイプの端末かが決められていても良いし、また、ユーザが決定してサーバ群に登録して、タイプが決められるようにしても良い。   Hereinafter, a multipoint conference system according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the multipoint conference system according to the embodiment. In this figure, reference numeral 10 denotes a server group. Reference numerals 20 and 30 denote clients. The clients 20 and 30 and the server group 10 are connected via a communication network. The client 20 is a type A client, and the type A is a client that can simultaneously receive and reproduce different video information distributed by a plurality of streams. Therefore, the type A client 20 has a processing function capable of withstanding a high load. The client 30 is a type B client, and the type B is a client that can receive and play back only one piece of video information distributed by one stream. Therefore, the client 30 is a terminal having a processing function inferior to that of the client 20. Incidentally, the difference between the processing capabilities of the client 20 and client 30, and the processing speed of CPU mounted, and memory capacity, such as by software, may be provided either in advance which type of terminal is determined, also, The type may be determined by the user determining and registering in the server group.

図2はクライアントの機能ブロックを示す図である。
この図においては、タイプAおよびタイプBの各クライアントの機能ブロックを示している。タイプAのクライアント20は、1つの音声処理部21、1つの映像エンコーダ22、複数の映像デコーダ23、カメラ24、マイク25、スピーカ26の各機能が備えられている。クライアント20の映像デコーダ23では、別々のストリームにより受信した複数の映像情報それぞれをデコード処理しディスプレイなどに表示する処理を行う。また映像エンコーダ22はカメラ24で撮影した映像をエンコードし、通信ネットワークに接続されたサーバ群10へ送信する処理を行う。また、音声処理部21は、マイク35で収拾した音声をエンコードして通信ネットワークに接続されたサーバ群10へ送信する処理と、通信ネットワークを介して受信した音声情報をデコードしてスピーカ26へ出力する処理を行う。
FIG. 2 is a diagram showing functional blocks of the client.
In this figure, functional blocks of type A and type B clients are shown. The type A client 20 includes functions of one audio processing unit 21, one video encoder 22, a plurality of video decoders 23, a camera 24, a microphone 25, and a speaker 26. The video decoder 23 of the client 20 performs a process of decoding each of a plurality of pieces of video information received by separate streams and displaying them on a display or the like. The video encoder 22 encodes the video shot by the camera 24 and transmits it to the server group 10 connected to the communication network. The audio processing unit 21 encodes the audio collected by the microphone 35 and transmits the encoded audio to the server group 10 connected to the communication network, and decodes the audio information received via the communication network and outputs it to the speaker 26. Perform the process.

またタイプBのクライアント30は、1つの音声処理部31、1つの映像エンコーダ32、1つの映像デコーダ33、カメラ34、マイク35、スピーカ36の各機能が備えられている。クライアント30の映像デコーダ33では、1つのストリームにより受信した映像情報のみをデコード処理しディスプレイなどに表示する処理を行う。また映像エンコーダ32は、映像エンコーダ22同様に、カメラ24で撮影した映像をエンコードし、通信ネットワークに接続されたサーバ群10へ送信する処理を行う。また、音声処理部31は音声処理部21同様に、マイク35で収拾した音声をエンコードして通信ネットワークに接続されたサーバ群10へ送信する処理と、通信ネットワークを介して受信した音声情報をデコードしてスピーカ36へ出力する処理を行う。   The type B client 30 includes functions of one audio processing unit 31, one video encoder 32, one video decoder 33, a camera 34, a microphone 35, and a speaker 36. The video decoder 33 of the client 30 performs a process of decoding only the video information received by one stream and displaying it on a display or the like. Similarly to the video encoder 22, the video encoder 32 encodes video captured by the camera 24 and transmits the encoded video to the server group 10 connected to the communication network. Similarly to the audio processing unit 21, the audio processing unit 31 encodes audio collected by the microphone 35 and transmits it to the server group 10 connected to the communication network, and decodes audio information received via the communication network. Then, a process of outputting to the speaker 36 is performed.

図3はサーバ群の各サーバにおける機能ブロックを示す図である。
この図が示すように、本実施形態による多地点会議システムでは、サーバ群として会議サーバ11と、映像変換サーバ12が存在する。そして、会議サーバ11において、会議管理機能部111は、会議システムの処理開始や、会議システムへのクライアントの参加要求の処理や、会議システム開始時間の登録処理などの、会議システムの運営にかかわる管理処理を行う。また、接続制御機能部112は、映像変換サーバ12やクライアント20や30が映像情報や音声情報を送信また受信する際に用いる、IPアドレスやポート番号や、また、音声情報や映像情報を送信する際の情報として必要な配信能力情報<映像:コーデック種別(MPEG-4 SP3 など),ビットレート,フレームレート,画像サイズなど、音声:コーデック種別(G.711など),ビットレートなど>を、映像変換サーバ12やクライアント20や30に要求し、また他の装置やクライアントに通知する処理を行う。
FIG. 3 is a diagram showing functional blocks in each server of the server group.
As shown in the figure, in the multipoint conference system according to the present embodiment, a conference server 11 and a video conversion server 12 exist as a server group. In the conference server 11, the conference management function unit 111 manages the conference system, such as the start of processing of the conference system, the request for participation of the client in the conference system, and the registration processing of the conference system start time. Process. In addition, the connection control function unit 112 transmits an IP address, a port number, and audio information and video information used when the video conversion server 12 and the clients 20 and 30 transmit and receive video information and audio information. Information required for distribution information <video: codec type (MPEG-4 SP3, etc.), bit rate, frame rate, image size, etc., audio: codec type (G.711, etc.), bit rate, etc.> A process of requesting the conversion server 12 and the clients 20 and 30 and notifying other apparatuses and clients is performed.

また音声合成機能部113は、クライアント20、30より受信した音声情報を合成すると共に、合成した音声情報をクライアント20へ配信する際に、その合成した音声情報から配信先のクライアント20の音声情報を削除して配信する処理を行う。またクライアント30へは、複数のクライアント20から受信した音声情報を合成して、映像変換サーバ12を介して送信する。また映像転送機能部114は、クライアント20、30の送信した映像情報を、他の配信先となるクライアント20へ配信する際に、該配信先のクライアント20以外の、他のクライアント20やクライアント30の送信した映像情報を選択して配信する処理を行う。またクライアント30へは、複数のクライアント20から受信した映像情報をそれぞれ、映像変換サーバ12を介して送信する。   The voice synthesis function unit 113 synthesizes the voice information received from the clients 20 and 30, and distributes the synthesized voice information to the client 20 from the synthesized voice information. Process to delete and distribute. Also, the audio information received from the plurality of clients 20 is synthesized and transmitted to the client 30 via the video conversion server 12. Further, when the video transfer function unit 114 distributes the video information transmitted by the clients 20 and 30 to the client 20 that is another distribution destination, the video transfer function unit 114 of the other clients 20 and clients 30 other than the client 20 of the distribution destination. Processing to select and distribute the transmitted video information. The video information received from the plurality of clients 20 is transmitted to the client 30 via the video conversion server 12.

また映像変換サーバ12において、接続制御機能部121は、自サーバや会議サーバ11やクライアント30が映像情報や音声情報を送信また受信する際に用いる、IPアドレスやポート番号や、また、音声情報や映像情報を送信する際の情報として必要な配信能力情報<映像:コーデック種別(MPEG-4 SP3 など),ビットレート,フレームレート,画像サイズなど、音声:コーデック種別(G.711など),ビットレートなど>を、会議サーバ11やクライアント30に要求、配信する処理を行う。また音声処理機能部122は、会議サーバ11から送信された合成後の音声情報をクライアント30へ送信する処理と、クライアント30から送信された音声情報を会議サーバ11へ転送する処理とを行う。また映像トランスコード機能部123は、会議サーバ11から受信した複数の映像情報を選択または合成して1つのストリームによりクライアント30へ配信する処理と、クライアント30から送信された映像情報を会議サーバ11へ転送する処理とを行う。   In the video conversion server 12, the connection control function unit 121 includes an IP address, a port number, audio information, and the like used when the server, the conference server 11, and the client 30 transmit or receive video information and audio information. Delivery capability information required for sending video information <Video: Codec type (MPEG-4 SP3, etc.), bit rate, frame rate, image size, etc. Audio: Codec type (G.711, etc.), bit rate Etc.> is requested and distributed to the conference server 11 and the client 30. The voice processing function unit 122 performs a process of transmitting the synthesized voice information transmitted from the conference server 11 to the client 30 and a process of transferring the voice information transmitted from the client 30 to the conference server 11. The video transcoding function unit 123 also selects or combines a plurality of video information received from the conference server 11 and distributes the video information transmitted from the client 30 to the conference server 11 to the conference server 11. The process to transfer is performed.

図4はコネクション確立状態を示す図である。
図5はコネクション確立処理を示す第1の図である。
図6はコネクション確立処理を示す第2の図である。
図4は、多地点会議システムにおいて、タイプAとしてクライアント20−1、20−2、またタイプBとしてクライアント30の3つのクライアントが利用される場合の、a〜oまでの15のコネクション確立状態を示している。
ここでaは、会議サーバ11からクライアント20−1へ送信される複数合成された音声情報(下り)と、クライアント20−1から会議サーバ11へ送信されるクライアント20−1の収拾した音声情報(上り)のコネクションを示している。
またbは、クライアント20−1から会議サーバ11へ送信される映像情報のコネクション(上り)を示している。
またcは、会議サーバ11からクライアント20−1へ送信される映像情報のコネクション(下り)のうち、クライアント20−2で撮影された映像を送信するコネクションを示している。
またdは、会議サーバ11からクライアント20−1へ送信される映像情報のコネクション(下り)のうち、クライアント30で撮影された映像を送信するコネクションを示している。
FIG. 4 is a diagram showing a connection establishment state.
FIG. 5 is a first diagram showing connection establishment processing.
FIG. 6 is a second diagram showing the connection establishment process.
FIG. 4 shows 15 connection establishment states from a to o when the clients 20-1 and 20-2 as type A and the client 30 as type B are used in the multipoint conference system. Show.
Here, a is a plurality of synthesized voice information (downlink) transmitted from the conference server 11 to the client 20-1 and voice information collected by the client 20-1 transmitted from the client 20-1 to the conference server 11 ( (Uplink) connection.
In addition, b indicates a connection (up) of video information transmitted from the client 20-1 to the conference server 11.
In addition, c indicates a connection for transmitting a video imaged by the client 20-2 among connections (downstream) of video information transmitted from the conference server 11 to the client 20-1.
In addition, d indicates a connection for transmitting a video imaged by the client 30 among connections (downstream) of video information transmitted from the conference server 11 to the client 20-1.

またeは、会議サーバ11からクライアント20−2へ送信される複数合成された音声情報(下り)と、クライアント20−2から会議サーバ11へ送信されるクライアント20−2の収拾した音声情報(上り)のコネクションを示している。
またfは、クライアント20−2から会議サーバ11へ送信される映像情報のコネクション(上り)を示している。
またgは、会議サーバ11からクライアント20−2へ送信される映像情報のコネクション(下り)のうち、クライアント20−1で撮影された映像を送信するコネクションを示している。
またhは、会議サーバ11からクライアント20−2へ送信される映像情報のコネクション(下り)のうち、クライアント30で撮影された映像を送信するコネクションを示している。
Also, e is a plurality of synthesized voice information (downlink) transmitted from the conference server 11 to the client 20-2 and voice information (uplink) collected by the client 20-2 transmitted from the client 20-2 to the conference server 11. ) Connection.
F indicates a connection (up) of video information transmitted from the client 20-2 to the conference server 11.
Further, g indicates a connection for transmitting a video captured by the client 20-1 among connections (downstream) of video information transmitted from the conference server 11 to the client 20-2.
In addition, h indicates a connection for transmitting video captured by the client 30 among video information connections (downstream) transmitted from the conference server 11 to the client 20-2.

またiは、会議サーバ11から映像変換サーバ12へ送信される複数合成された音声情報(下り)と、映像変換サーバ12から会議サーバ11へ送信されるクライアント30の音声情報(上り)のコネクションを示している。
またjは、クライアント20−1から受信した映像情報を、会議サーバ11が映像変換サーバ12へ送信するコネクション(下り)を示している。
またkは、クライアント20−2から受信した映像情報を、会議サーバ11が映像変換サーバ12へ送信するコネクション(下り)を示している。
またlは、クライアント30から受信した映像情報を、映像変換サーバ12が会議サーバ11へ送信するコネクション(上り)を示している。
I represents a connection between a plurality of synthesized audio information (downlink) transmitted from the conference server 11 to the video conversion server 12 and a voice information (uplink) of the client 30 transmitted from the video conversion server 12 to the conference server 11. Show.
Further, j indicates a connection (downward) through which the conference server 11 transmits the video information received from the client 20-1 to the video conversion server 12.
Further, k indicates a connection (downlink) through which the conference server 11 transmits the video information received from the client 20-2 to the video conversion server 12.
Further, l indicates a connection (uplink) through which the video conversion server 12 transmits the video information received from the client 30 to the conference server 11.

またmは、映像変換サーバ12からクライアント30へ送信される複数合成された音声情報(下り)と、クライアント30から映像変換サーバ12へ送信されるクライアント30の収拾した音声情報(上り)のコネクションを示している。
またnは、映像変換サーバ12からクライアント30へ送信される変換後の映像情報のコネクション(下り)を示している。
またoは、クライアント30から映像変換サーバ12へ送信される映像情報のコネクション(上り)を示している。
M represents a connection between a plurality of synthesized audio information (downstream) transmitted from the video conversion server 12 to the client 30 and a collected audio information (upstream) of the client 30 transmitted from the client 30 to the video conversion server 12. Show.
Further, n indicates a connection (downlink) of the converted video information transmitted from the video conversion server 12 to the client 30.
In addition, o indicates a connection (up) of video information transmitted from the client 30 to the video conversion server 12.

次に、図4、5、6を用いてサーバ群とクライアントの間のコネクションの確立処理について説明する。
まず、会議サーバ11では、予めクライアント20−1、20−2、30からのアクセスを受付けており、該クライアントの会議システムへの参加登録が行われる。例えば会議サーバ11がウェブサーバの処理部を備えており、このウェブサーバ処理部の配信するウェブページにおいて、各クライアントを操作するユーザの処理により、各クライアントのSIPアドレスや、会議識別番号や、会議開始時刻などの情報と、また、各クライアントがタイプAとタイプBのどちらのタイプのクライアントかを示す情報が登録される。なお、これらの登録処理は、会議サーバ11へ多地点会議システムの管理者が入力するようにしてもよい。これにより、会議識別番号ごとに、その会議識別番号で表される会議に参加するクライアント20、30のSIPアドレスや会議開始時刻やタイプ種別などの各登録情報がデータベースなどに登録される。
Next, a process for establishing a connection between a server group and a client will be described with reference to FIGS.
First, the conference server 11 accepts access from the clients 20-1, 20-2, and 30 in advance, and the participation registration of the clients in the conference system is performed. For example, the conference server 11 includes a processing unit of a web server, and in the web page distributed by the web server processing unit, the SIP address of each client, the conference identification number, Information such as the start time and information indicating whether each client is a type A or type B client are registered. These registration processes may be input to the conference server 11 by the administrator of the multipoint conference system. Thereby, for each conference identification number, each registration information such as the SIP address, conference start time, and type type of the clients 20 and 30 participating in the conference represented by the conference identification number is registered in the database.

次に、会議サーバ11の会議管理機能部111は、カウントしている時刻とデータベースに記録されている会議開始時刻とを比較し、一致した時点において、会議システムの処理の開始を検出する。そして、会議管理機能部111は接続制御機能部112に、会議開催要求の情報を送信する(ステップS1)。また会議管理機能部111は接続制御機能部112に、登録済みのクライアントに対する会議参加要求の情報を送信する(ステップS2)。すると、接続制御機能部112は、登録されている各クライアントと、会議サーバ11、映像変換サーバ12間の、コネクション確立処理を開始する。以下、コネクション確立処理フローについて順を追って説明する。   Next, the conference management function unit 111 of the conference server 11 compares the counted time with the conference start time recorded in the database, and detects the start of the process of the conference system when they match. Then, the conference management function unit 111 transmits information on the conference holding request to the connection control function unit 112 (step S1). In addition, the conference management function unit 111 transmits information on a conference participation request to the registered client to the connection control function unit 112 (step S2). Then, the connection control function unit 112 starts connection establishment processing between each registered client and the conference server 11 and the video conversion server 12. Hereinafter, the connection establishment process flow will be described in order.

まず、クライアント20−1が既にコネクションが確立されたものとする。そして次に、上述のステップS2において、会議管理機能部111が接続制御機能部112に対して、クライアント30に対する会議参加要求の情報を送信したとする。すると、
(ステップS3)接続制御機能部112は、映像転送機能部114が映像変換サーバ12へ映像を配信する場合に用いるIPアドレスの情報と、配信能力情報<映像:コーデック種別(MPEG-4 SP3 など),ビットレート,フレームレート,画像サイズなど、音声:コーデック種別(G.711など),ビットレートなど>とを映像変換サーバ12へ通知する。またその応答として、映像変換サーバ12の接続制御機能部121は、クライアント30との間で映像や音声の情報を送受信するIPアドレスと、それら映像や音声の情報をクライアント30から受信する各受信ポート番号と、クライアント30との間で映像や音声の情報を送受信する際の配信能力情報とを、会議サーバ11へ返送する。
First, it is assumed that the client 20-1 has already established a connection. Next, it is assumed that the conference management function unit 111 transmits the conference participation request information for the client 30 to the connection control function unit 112 in the above-described step S2. Then
(Step S3) The connection control function unit 112, IP address information used when the video transfer function unit 114 distributes video to the video conversion server 12, and distribution capability information <video: codec type (MPEG-4 SP3, etc.) , Bit rate, frame rate, image size, etc., audio: codec type (G.711, etc.), bit rate, etc.> are notified to the video conversion server 12. As a response, the connection control function unit 121 of the video conversion server 12 receives an IP address for transmitting / receiving video and audio information to / from the client 30 and each reception port for receiving the video and audio information from the client 30. The number and the distribution capability information for transmitting and receiving video and audio information to and from the client 30 are returned to the conference server 11.

(ステップS4)次に、接続制御機能部112は、ステップS3で映像変換サーバ12から返送を受けた情報を、クライアント30へ転送する。これにより、映像変換サーバ12がクライアント30との間で映像と音声の情報を送受信する際に利用する各情報(IPアドレスや受信ポートや配信能力情報)がクライアント30へ通知される。すると、クライアント30は、会議サーバ11へ、映像変換サーバ12から映像や音声の情報を受信する際に用いる受信ポート番号と、映像変換サーバ12との間で映像や音声の情報を送受信する際に利用する配信能力情報を返信する。   (Step S4) Next, the connection control function unit 112 transfers the information received from the video conversion server 12 in step S3 to the client 30. As a result, each information (IP address, reception port, and distribution capability information) used when the video conversion server 12 transmits and receives video and audio information to and from the client 30 is notified to the client 30. Then, the client 30 transmits / receives video / audio information to / from the video conversion server 12 and a reception port number used when receiving video / audio information from the video conversion server 12 to the conference server 11. Returns the delivery capability information to be used.

(ステップS5)次に、接続制御機能部112は、映像変換サーバ12から音声情報を受信する際に用いる受信ポート番号を、映像変換サーバ12へ通知する。またその返信として、映像変換サーバ12の接続制御機能部121は、会議サーバ11へ音声情報を送信する際に用いる送信ポート番号を、会議サーバ11へ通知する。
(ステップS6)次に、接続制御機能部112は、映像変換サーバ12へ音声情報を送信する際に用いる送信ポート番号を、映像変換サーバ12へ通知する。またその返信として、映像変換サーバ12の接続制御機能部121は、会議サーバ11から音声情報を受信する際に用いる受信ポート番号を、会議サーバ11へ通知する。
(Step S <b> 5) Next, the connection control function unit 112 notifies the video conversion server 12 of the reception port number used when receiving audio information from the video conversion server 12. Further, as a reply, the connection control function unit 121 of the video conversion server 12 notifies the conference server 11 of a transmission port number used when transmitting audio information to the conference server 11.
(Step S <b> 6) Next, the connection control function unit 112 notifies the video conversion server 12 of a transmission port number used when transmitting audio information to the video conversion server 12. As a reply, the connection control function unit 121 of the video conversion server 12 notifies the conference server 11 of a reception port number used when receiving audio information from the conference server 11.

(ステップS7)そして、接続制御機能部112は、映像変換サーバ12からステップS6において受信した情報(音声情報の受信ポート番号)を、音声合成機能部113に通知する。そしてその返信として、音声合成機能部113はOKまたはNGの情報を、接続制御機能部112へ送信する。   (Step S7) Then, the connection control function unit 112 notifies the information (the reception port number of the voice information) received from the video conversion server 12 in step S6 to the voice synthesis function unit 113. As a response, the speech synthesis function unit 113 transmits OK or NG information to the connection control function unit 112.

(ステップS8)次に、接続制御機能部112は、映像情報を映像変換サーバ12から受信する際に用いるIPアドレスとその受信ポート番号とを、映像変換サーバ12に通知する。するとその返信として、映像変換サーバ12の接続制御機能部121は、会議サーバ11へ映像情報を送信する際に用いるIPアドレスとその送信ポート番号とを、会議サーバ11へ送信する。
(ステップS9)次に、接続制御機能部112は、ステップS4においてクライアント30より受信した情報(映像や音声を受信する際に用いる各受信ポート番号と、配信能力情報)を、映像変換サーバ12へ送信する。これにより、クライアント30が映像変換サーバ12と映像や音声の情報を送受信する際に用いる情報が、映像変換サーバ12へ、会議サーバ11を介して通知される。またその返信として、映像変換サーバ12は、音声情報をクライアント30へ送信する際に用いる送信ポート番号と、映像情報をクライアント30へ送信する際に用いる送信ポート番号とを、会議サーバ11へ送信する。
(Step S <b> 8) Next, the connection control function unit 112 notifies the video conversion server 12 of an IP address and a reception port number used when video information is received from the video conversion server 12. Then, as a reply, the connection control function unit 121 of the video conversion server 12 transmits to the conference server 11 the IP address used for transmitting the video information to the conference server 11 and its transmission port number.
(Step S9) Next, the connection control function unit 112 sends the information received from the client 30 in Step S4 (reception port numbers used when receiving video and audio and distribution capability information) to the video conversion server 12. Send. Thereby, information used when the client 30 transmits and receives video and audio information to and from the video conversion server 12 is notified to the video conversion server 12 via the conference server 11. In addition, as a reply, the video conversion server 12 transmits to the conference server 11 a transmission port number used when transmitting audio information to the client 30 and a transmission port number used when transmitting video information to the client 30. .

(ステップS10)次に、接続制御機能部112は、ステップS8において映像変換サーバ12より受信した情報(映像変換サーバ12が会議サーバ11へ映像情報を送信する際に用いるIPアドレスとその送信ポート番号)を、映像転送機能部114へ通知する。映像転送機能部114は、その返信として接続制御機能部112へOKまたはNGの情報を返信する。   (Step S10) Next, the connection control function unit 112 receives the information received from the video conversion server 12 in Step S8 (the IP address used when the video conversion server 12 transmits the video information to the conference server 11 and its transmission port number). ) To the video transfer function unit 114. The video transfer function unit 114 returns OK or NG information to the connection control function unit 112 as a reply.

(ステップS11)次に、接続制御機能部112は、映像情報を送信する際の情報として配信能力情報<映像:コーデック種別(MPEG-4 SP3 など),ビットレート,フレームレート,画像サイズなど>をクライアント20−1へ送信する。するとクライアント20−1はその返信として、会議サーバ1から映像情報を受信する際の受信ポート番号と、映像情報の送信する際に用いる配信能力情報を会議サーバ11へ送信する。
(ステップS12)また、接続制御機能部112は、ステップS11においてクライアント20−1から受信した情報(受信ポート番号や配信能力情報)を映像転送機能部114へ通知する。すると映像転送機能部114はその返信としてOKまたはNGの情報を返信する。
(Step S11) Next, the connection control function unit 112 sends distribution capability information <video: codec type (MPEG-4 SP3, etc.), bit rate, frame rate, image size, etc.> as information when transmitting video information. Transmit to client 20-1. As a response, the client 20-1 transmits to the conference server 11 the reception port number when receiving video information from the conference server 1 and the distribution capability information used when transmitting the video information.
(Step S12) Further, the connection control function unit 112 notifies the video transfer function unit 114 of the information (reception port number and distribution capability information) received from the client 20-1 in step S11. Then, the video transfer function unit 114 returns OK or NG information as the reply.

(ステップS13)また、接続制御機能部112は、映像変換サーバ12へ映像情報を送信する際に用いるIPアドレスとその送信ポート番号と、映像を送信する際に利用する配信能力情報<映像:コーデック種別(MPEG-4 SP3 など),ビットレート,フレームレート,画像サイズなど>を、映像変換サーバ12へ送信する。またその返信として、映像変換サーバ12は、会議サーバ11から映像情報を受信する際のIPアドレスとその受信ポート番号と、映像情報の受信に利用する配信能力情報<映像:コーデック種別(MPEG-4 SP3 など),ビットレート,フレームレート,画像サイズなど>を、会議サーバ11へ送信する。   (Step S13) The connection control function unit 112 also uses the IP address and the transmission port number used when transmitting the video information to the video conversion server 12, and the distribution capability information used when transmitting the video <video: codec. Type (MPEG-4 SP3, etc.), bit rate, frame rate, image size, etc.> are transmitted to the video conversion server 12. Also, as a response, the video conversion server 12 receives the video information from the conference server 11 and its receiving port number, distribution capability information used for receiving the video information <video: codec type (MPEG-4 SP3, etc.), bit rate, frame rate, image size, etc.> are transmitted to the conference server 11.

(ステップS14)また、接続制御機能部112は、ステップS13において映像変換サーバ12から受信した情報(IPアドレス、受信ポート番号、配信能力情報)を、映像転送機能部114へ通知する。これにより、映像変換サーバ12へ映像情報を送信する際に用いられる各種情報が映像転送機能部114に通知される。その返信として映像転送機能部114は、OKまたはNGの情報を接続制御機能部112に通知する。以上、ステップS2〜ステップS14の処理により、クライアント30とサーバ群10における各サーバとの間のコネクションの確立処理が終了する。   (Step S14) In addition, the connection control function unit 112 notifies the video transfer function unit 114 of the information (IP address, reception port number, distribution capability information) received from the video conversion server 12 in Step S13. Thereby, various information used when transmitting the video information to the video conversion server 12 is notified to the video transfer function unit 114. In response, the video transfer function unit 114 notifies the connection control function unit 112 of OK or NG information. As described above, the process for establishing a connection between the client 30 and each server in the server group 10 is completed by the processes in steps S2 to S14.

次に、会議サーバ11の会議管理機能部111がクライアント20−2への会議参加要求を接続制御機能部112に通知し、クライアント20−2とのコネクションの確立処理を開始する。
(ステップS15)接続制御機能部112は、映像情報と音声情報とを受信するIPアドレスと各受信ポート番号とを、クライアント20−2に送信する。するとその返信としてクライアント20−2は受信用のIPアドレスと、音声情報と映像情報を受信する各受信ポート番号を会議サーバ11に送信する。
(ステップS16)次に接続制御機能部112は、ステップS15で受信したIPアドレスと音声情報を受信する受信ポート番号を、音声合成機能部113に通知する。またその返信として音声合成機能部113はOKまたはNGの情報を接続制御機能部112に送信する。
(ステップS17)また接続制御機能部112は、ステップS15で受信したIPアドレスと映像情報を受信する受信ポート番号を、映像転送機能部114に通知する。またその返信として映像転送機能部114はOKまたはNGの情報を接続制御機能部112に送信する。
Next, the conference management function unit 111 of the conference server 11 notifies the connection control function unit 112 of a conference participation request to the client 20-2, and starts a connection establishment process with the client 20-2.
(Step S15) The connection control function unit 112 transmits an IP address for receiving video information and audio information and each reception port number to the client 20-2. Then, as a reply, the client 20-2 transmits to the conference server 11 a reception IP address and each reception port number for receiving audio information and video information.
(Step S16) Next, the connection control function unit 112 notifies the voice synthesis function unit 113 of the IP address received in step S15 and the reception port number for receiving the voice information. Also, as a response, the speech synthesis function unit 113 transmits OK or NG information to the connection control function unit 112.
(Step S17) The connection control function unit 112 notifies the video transfer function unit 114 of the IP address received in step S15 and the reception port number for receiving the video information. In addition, as a response, the video transfer function unit 114 transmits OK or NG information to the connection control function unit 112.

(ステップS18)次に接続制御機能部112は、クライアント20−1との間で映像情報を送受信する際に用いるIPアドレスと、その映像情報の送受信に用いる情報として配信能力情報<映像:コーデック種別(MPEG-4 SP3 など),ビットレート,フレームレート,画像サイズなど>とを、クライアント20−1へ送信する。またその応答として、クライアント20−1は、映像情報を送受信する際に用いるIPアドレスと、映像情報の受信ポート番号と、映像情報の送受信に用いる情報として配信能力情報を会議サーバ11に送信する。
(ステップS19)そして接続制御機能部112は、クライアント20−1から受信した、映像情報の受信ポート番号と配信能力情報とを、映像転送機能部114に通知する。その応答として映像転送機能部114は、OKまたはNGの情報を接続制御機能部112に通知する。
(Step S18) Next, the connection control function unit 112 uses an IP address used when transmitting / receiving video information to / from the client 20-1, and distribution capability information <video: codec type as information used for transmitting / receiving the video information. (MPEG-4 SP3, etc.), bit rate, frame rate, image size, etc.> are transmitted to the client 20-1. In response, the client 20-1 transmits the IP address used when transmitting / receiving the video information, the reception port number of the video information, and the distribution capability information as information used for transmitting / receiving the video information to the conference server 11.
(Step S19) The connection control function unit 112 notifies the video transfer function unit 114 of the reception port number and distribution capability information of the video information received from the client 20-1. In response, the video transfer function unit 114 notifies the connection control function unit 112 of OK or NG information.

(ステップS20)また接続制御機能部112は、映像変換サーバ12に映像情報を送信する際に用いるIPアドレスと、送信ポート番号と、当該映像情報の送受信に用いる配信能力情報を、映像変換サーバ12へ送信する。するとその返信として映像変換サーバ12の接続制御機能部121は、映像情報を受信するIPアドレスと、その受信ポートと、配信能力情報とを会議サーバ11に送信する。
(ステップS21)すると接続制御機能部112は、ステップS20において映像変換サーバ12から受信した情報(映像変換サーバ12で映像情報受信時に利用するIPアドレス、受信ポート、配信能力情報)を、映像転送機能部114に通知する。そしてその応答として映像転送機能部114は、OKまたはNGの情報を接続制御機能部112に送信する。
(Step S20) The connection control function unit 112 also obtains the IP address used when transmitting the video information to the video conversion server 12, the transmission port number, and the distribution capability information used for transmission / reception of the video information. Send to. Then, as a reply, the connection control function unit 121 of the video conversion server 12 transmits to the conference server 11 an IP address for receiving the video information, its reception port, and distribution capability information.
(Step S21) Then, the connection control function unit 112 uses the information received from the video conversion server 12 in Step S20 (IP address, reception port, distribution capability information used when the video conversion server 12 receives the video information) as a video transfer function. Notification to the unit 114. In response, the video transfer function unit 114 transmits OK or NG information to the connection control function unit 112.

(ステップS22)また接続制御機能部112は、映像情報をクライアント20−2に送信する際に用いるIPアドレスと、配信能力情報とを、クライアント20−2に送信する。これにより、クライアント20−2は、映像情報を会議サーバ11から受信する際に用いるIPアドレスと、受信ポート番号と、配信能力情報とを、会議サーバ11に返信する。
(ステップS23)接続制御機能部112は、クライアント20−2から受信したIPアドレスと、受信ポート番号と、配信能力情報とを、1つめの映像情報(例えばクライアント20−1から配信された映像情報)をクライアント20−2に送信する際に用いる情報として、映像転送機能部114に通知する。すると映像転送機能部114は、OKまたはNGの情報を返信する。
(Step S22) The connection control function unit 112 also transmits to the client 20-2 an IP address and distribution capability information used when transmitting the video information to the client 20-2. As a result, the client 20-2 returns the IP address, the reception port number, and the distribution capability information used when receiving the video information from the conference server 11 to the conference server 11.
(Step S23) The connection control function unit 112 converts the IP address received from the client 20-2, the reception port number, and distribution capability information into the first video information (for example, video information distributed from the client 20-1). ) Is sent to the video transfer function unit 114 as information used when transmitting to the client 20-2. Then, the video transfer function unit 114 returns OK or NG information.

(ステップS24)また接続制御機能部112は、映像情報をクライアント20−2に送信する際に用いるIPアドレスと、配信能力情報とを、クライアント20−2に送信する。これにより、クライアント20−2は、映像情報を会議サーバ11から受信する際に用いる、IPアドレスと、受信ポート番号と、配信能力情報とを、会議サーバ11に返信する。
(ステップS25)接続制御機能部112は、クライアント20−2から受信したIPアドレスと、受信ポート番号と、配信能力情報とを、2つめの映像情報(例えばクライアント30から配信された映像情報)をクライアント20−2に送信する際に用いる情報として、映像転送機能部114に通知する。すると映像転送機能部114は、OKまたはNGの情報を返信する。
以上の処理により、クライアント20−2とサーバ群10における各サーバとの間のコネクションの確立処理(図4で示したa〜o)が終了する。なお、クライアント20−1とサーバ群10との間のコネクションの確立処理も同様にして行われている。
(Step S24) The connection control function unit 112 also transmits to the client 20-2 an IP address and distribution capability information used when transmitting the video information to the client 20-2. Thereby, the client 20-2 returns the IP address, the reception port number, and the distribution capability information used when receiving the video information from the conference server 11 to the conference server 11.
(Step S25) The connection control function unit 112 receives the IP address received from the client 20-2, the reception port number, and distribution capability information, and second video information (for example, video information distributed from the client 30). The video transfer function unit 114 is notified as information used when transmitting to the client 20-2. Then, the video transfer function unit 114 returns OK or NG information.
With the above processing, the connection establishment processing (a to o shown in FIG. 4) between the client 20-2 and each server in the server group 10 is completed. The connection establishment process between the client 20-1 and the server group 10 is performed in the same manner.

そして、会議に参加する全てのクライアントとの間でコネクションの確立処理が終了すると、会議サーバ11から各クライアントに対して配信開始の指示が通知される。するとタイプAのクライアント20−1、20−2においては、カメラ24で撮影した映像情報と、マイク25で収拾した音声情報とを順じ会議サーバ11へ送信する。またタイプBのクライアント30においては、カメラ34で撮影した映像情報と、マイク35で収拾した音声情報とを順じ映像変換サーバ12に送信する。そして、下記の会議サーバ11と映像変換サーバ12との処理により、映像情報と音声情報の配信処理が行われる。   Then, when the connection establishment process is completed with all the clients participating in the conference, the conference server 11 notifies each client of a distribution start instruction. Then, the type A clients 20-1 and 20-2 sequentially transmit the video information captured by the camera 24 and the audio information collected by the microphone 25 to the conference server 11. In addition, the type B client 30 sequentially transmits the video information captured by the camera 34 and the audio information collected by the microphone 35 to the video conversion server 12. Then, distribution processing of video information and audio information is performed by processing of the conference server 11 and the video conversion server 12 described below.

<会議サーバにおける処理>
会議サーバ11の音声合成機能部113は、クライアント20−1、クライアント20−2、映像変換サーバ12から送信された音声情報(クライアント30で収拾された音声情報)を受信して合成する。そして、合成した音声情報をクライアント20−1やクライアント20−2、また映像変換サーバ12に送信する。その時、音声合成機能部113は、合成した音声情報をクライアント20−1に送信する際には、クライアント20−1から受信した音声情報を合成した音声情報から省いて、送信する。また同様に、音声合成機能部113は、合成した音声情報をクライアント20−2に送信する際には、クライアント20−2から受信した音声情報を合成した音声情報から省いて送信し、合成した音声情報を映像変換サーバ12に送信する際には、映像変換サーバ12から受信した音声情報を合成した音声情報から省いて送信する。
<Processing in the conference server>
The voice synthesis function unit 113 of the conference server 11 receives and synthesizes voice information (voice information collected by the client 30) transmitted from the client 20-1, the client 20-2, and the video conversion server 12. Then, the synthesized audio information is transmitted to the client 20-1, the client 20-2, and the video conversion server 12. At that time, when transmitting the synthesized voice information to the client 20-1, the voice synthesis function unit 113 transmits the synthesized voice information by omitting the voice information received from the client 20-1 from the synthesized voice information. Similarly, when the synthesized voice information is transmitted to the client 20-2, the voice synthesis function unit 113 transmits the synthesized voice information by omitting the synthesized voice information from the synthesized voice information. When transmitting information to the video conversion server 12, the audio information received from the video conversion server 12 is omitted from the synthesized audio information.

また会議サーバ11の映像転送機能部114は、クライアント20−1、クライアント20−2、映像変換サーバ12から送信された映像情報を転送する。たとえば、映像転送機能部114は、映像変換サーバ12とクライアント20−2からそれぞれ受信した映像情報を、別々のセッションとしてクライアント20−1に送信する。また、映像転送機能部114は、映像変換サーバ12とクライアント20−1からそれぞれ受信した映像情報を、別々のセッションとしてクライアント20−2に送信する。また、映像転送機能部114は、クライアント20−1とクライアント20−2からそれぞれ受信した映像情報を、別々のセッションとして映像変換サーバ12に送信する。   The video transfer function unit 114 of the conference server 11 transfers the video information transmitted from the client 20-1, the client 20-2, and the video conversion server 12. For example, the video transfer function unit 114 transmits the video information received from the video conversion server 12 and the client 20-2 to the client 20-1 as separate sessions. In addition, the video transfer function unit 114 transmits the video information respectively received from the video conversion server 12 and the client 20-1 to the client 20-2 as separate sessions. The video transfer function unit 114 transmits the video information received from the client 20-1 and the client 20-2 to the video conversion server 12 as separate sessions.

<映像変換サーバにおける処理>
映像変換サーバの音声処理機能部122は、クライアント30から受信した音声情報を、会議サーバ11へ転送すると共に、会議サーバ11から受信した合成された音声情報をクライアント30へ送信する。また、映像トランスコード機能部123は、会議サーバ11から別々のセッションにより受信した映像情報を合成する。この時、受信した全ての映像情報を合成してもよいし、予め選択された映像情報のみを合成するようにしても良い。そして、映像トランスコード機能部123は、合成された映像情報をクライアント30へ送信する。
<Processing in video conversion server>
The audio processing function unit 122 of the video conversion server transfers the audio information received from the client 30 to the conference server 11 and transmits the synthesized audio information received from the conference server 11 to the client 30. The video transcoding function unit 123 combines video information received from the conference server 11 through separate sessions. At this time, all received video information may be synthesized, or only pre-selected video information may be synthesized. Then, the video transcoding function unit 123 transmits the synthesized video information to the client 30.

以上の処理により、複数の映像を別々に受信して再生できるタイプAのクライアント20と、1つの映像しか受信および再生処理できないタイプBのクライアント30が多地点会議システムに混在するような場合には、映像を1つに合成する処理機能を持った映像変換サーバ12を備えることで、タイプBのクライアントでも多地点会議システムに参加できるようなシステムを構成することができる。つまり、クライアントの処理能力の高低関係なく、全てのクライアントがシステムに参加することのできる多地点会議システムを提供することができる。   In the case where a type A client 20 capable of receiving and playing back a plurality of videos separately and a type B client 30 capable of receiving and playing back only one video are mixed in the multipoint conference system by the above processing. By providing the video conversion server 12 having a processing function for synthesizing videos into one, it is possible to configure a system in which even a type B client can participate in a multipoint conference system. That is, it is possible to provide a multipoint conference system in which all clients can participate in the system regardless of the level of processing capability of the clients.

なお上述の会議サーバや映像変換サーバやクライアントは内部に、コンピュータシステムを有している。そして、上述した処理の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータが読み出して実行することによって、上記処理が行われる。ここでコンピュータ読み取り可能な記録媒体とは、磁気ディスク、光磁気ディスク、CD−ROM、DVD−ROM、半導体メモリ等をいう。また、このコンピュータプログラムを通信回線によってコンピュータに配信し、この配信を受けたコンピュータが当該プログラムを実行するようにしても良い。   The conference server, video conversion server, and client described above have a computer system inside. The process described above is stored in a computer-readable recording medium in the form of a program, and the above process is performed by the computer reading and executing this program. Here, the computer-readable recording medium means a magnetic disk, a magneto-optical disk, a CD-ROM, a DVD-ROM, a semiconductor memory, or the like. Alternatively, the computer program may be distributed to the computer via a communication line, and the computer that has received the distribution may execute the program.

また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。   The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

多地点会議システムの構成を示すブロック図である。It is a block diagram which shows the structure of a multipoint conference system. クライアントの機能ブロックを示す図である。It is a figure which shows the functional block of a client. サーバ群の各サーバにおける機能ブロックを示す図である。It is a figure which shows the functional block in each server of a server group. コネクション確立状態を示す図である。It is a figure which shows a connection establishment state. コネクション確立処理を示す第1の図である。It is a 1st figure which shows a connection establishment process. コネクション確立処理を示す第2の図である。It is a 2nd figure which shows a connection establishment process.

符号の説明Explanation of symbols

10・・・サーバ群
11・・・会議サーバ
12・・・映像変換サーバ
20,30・・・クライアント
111・・・会議管理機能部
112,121・・・接続制御機能部
113・・・音声合成機能部
114・・・映像転送機能部
122・・・音声処理機能部
123・・・映像トランスコード機能部
DESCRIPTION OF SYMBOLS 10 ... Server group 11 ... Conference server 12 ... Video conversion server 20, 30 ... Client 111 ... Conference management function part 112, 121 ... Connection control function part 113 ... Speech synthesis Function unit 114 ... Video transfer function unit 122 ... Audio processing function unit 123 ... Video transcoding function unit

Claims (2)

受信した複数の配信映像をそれぞれ再生処理できる第1種端末と、
受信した1つの配信映像のみを再生処理できる第2種端末と、
前記第1種端末や前記第2種端末が送信した映像情報および音声情報を他の端末へ配信する多地点会議処理装置と、
からなる多地点会議システムにおける多地点会議方法であって、
前記多地点会議処理装置における第1種サーバが、
前記第1種端末および第2種端末それぞれより受信した音声情報を合成すると共に、当該合成した音声情報を前記第1種端末へ配信する際には、その合成した音声情報から配信先の第1種端末の音声情報を削除して配信し、当該合成した音声情報を前記第2種端末へ配信する際には、その合成した音声情報から第2種端末の音声情報を削除して配信し、
前記第1種端末および第2種端末それぞれより受信した映像情報を、第1種端末へ配信する際に、該配信先の第1種端末を除く、他の第1種端末または第2種端末の映像情報を配信し、
前記第1種端末および前記第2種端末それぞれと、前記映像情報および前記音声情報を配信または受信するための、IPアドレス、ポート番号を少なくとも含む通信識別子と、前記映像情報および前記音声情報の送受信に用いる配信能力情報を交換し、
前記多地点会議処理装置における第2種サーバが、
前記音声配信手段により配信された第2種端末を宛先とする音声情報を転送し、
前記第1種サーバを介して前記第1種端末より受信した映像情報や前記第2種端末より受信した映像情報、第2種端末へ配信する際に、それら第1種端末より受信した映像情報や配信先以外の第2種端末より受信した映像情報を1つの配信映像に合成し、前記合成した映像情報を配信先の第2種端末へ配信するか、または前記第1種サーバを介して前記第1種端末より受信した映像情報や前記配信先以外の第2種端末より受信した映像情報のうちの複数を選択して1つの配信映像に合成し、当該合成した映像情報を前記配信先の第2種端末へ配信する
ことを特徴とする多地点会議方法。
A first type terminal capable of reproducing each of a plurality of received distribution videos;
A second type terminal that can process only one received distribution video;
A multipoint conference processing device that distributes video information and audio information transmitted by the first type terminal and the second type terminal to other terminals;
A multipoint conference method in a multipoint conference system comprising:
The first type server in the multipoint conference processing apparatus is
When synthesizing the voice information received from each of the first type terminal and the second type terminal and distributing the synthesized voice information to the first type terminal , the first of the distribution destinations is determined from the synthesized voice information . delivered by deleting the voice information of the seed terminal, when delivering the synthesized voice information to the second type terminals, and distributed from the synthesized speech information by deleting the voice information of the second type terminal,
The video information received from each of the first type terminal and the second type terminal, when delivering the first type terminal, except for the one terminal of the destination, the one terminal of the other or the two terminal Of video information ,
A communication identifier including at least an IP address and a port number for delivering or receiving the video information and the audio information with each of the first type terminal and the second type terminal, and transmission / reception of the video information and the audio information Exchange the delivery capability information used for
The second type server in the multipoint conference processing device is:
Transferring voice information destined for the second type terminal delivered by the voice delivery means;
Video information received from the first type terminal when distributing the video information received from the first type terminal or the video information received from the second type terminal to the second type terminal via the first type server The video information received from the second type terminal other than the information and the distribution destination is combined into one distribution video, and the combined video information is distributed to the second type terminal as the distribution destination, or via the first type server. The video information received from the first type terminal and the video information received from the second type terminal other than the distribution destination are selected and combined into one distribution video, and the combined video information is distributed to the distribution unit. A multipoint conference method characterized by delivering to a second type terminal .
受信した複数の配信映像をそれぞれ再生処理できる第1種端末と、
受信した1つの配信映像のみを再生処理できる第2種端末と、
前記第1種端末や前記第2種端末が送信した映像情報および音声情報を他の端末へ配信する多地点会議処理装置と、
からなる多地点会議システムであって、
前記多地点会議処理装置は、
前記第1種端末および第2種端末それぞれより受信した音声情報を合成すると共に、当該合成した音声情報を前記第1種端末へ配信する際には、その合成した音声情報から配信先の第1種端末の音声情報を削除して配信し、当該合成した音声情報を前記第2種端末へ配信する際には、その合成した音声情報から第2種端末の音声情報を削除して配信する音声配信手段と、
前記第1種端末および第2種端末それぞれより受信した映像情報を、第1種端末へ配信する際に、該配信先の第1種端末を除く、他の第1種端末または第2種端末の映像情報を配信する第1映像配信手段と、
前記第1種端末および前記第2種端末それぞれと、前記映像情報および前記音声情報を配信または受信するための、IPアドレス、ポート番号を少なくとも含む通信識別子と、前記映像情報および前記音声情報の送受信に用いる配信能力情報を交換する接続制御手段と、
を有する第1種サーバと、
前記音声配信手段により配信された第2種端末を宛先とする音声情報を転送する音声転送手段と、
前記第1種サーバを介して前記第1種端末より受信した映像情報や前記第2種端末より受信した映像情報、第2種端末へ配信する際に、それら第1種端末より受信した映像情報や配信先以外の第2種端末より受信した映像情報を1つの配信映像に合成し、前記合成した映像情報を配信先の第2種端末へ配信するか、または前記第1種サーバを介して前記第1種端末より受信した映像情報や前記配信先以外の第2種端末より受信した映像情報のうちの複数を選択して1つの配信映像に合成し、当該合成した映像情報を前記配信先の第2種端末へ配信する第2映像配信手段と、
を有する第2種サーバと、
からなることを特徴とする多地点会議システム。
A first type terminal capable of reproducing each of a plurality of received distribution videos;
A second type terminal that can process only one received distribution video;
A multipoint conference processing device that distributes video information and audio information transmitted by the first type terminal and the second type terminal to other terminals;
A multipoint conference system comprising:
The multipoint conference processing apparatus includes:
When synthesizing the voice information received from each of the first type terminal and the second type terminal and distributing the synthesized voice information to the first type terminal , the first of the distribution destinations is determined from the synthesized voice information . delivered by deleting the voice information of the seed terminal, when delivering the synthesized voice information to the second type terminal delivers remove the synthesized voice information of the second type terminal from the audio information audio Delivery means;
The video information received from each of the first type terminal and the second type terminal, when delivering the first type terminal, except for the one terminal of the destination, the one terminal of the other or the two terminal First video distribution means for distributing the video information;
A communication identifier including at least an IP address and a port number for delivering or receiving the video information and the audio information with each of the first type terminal and the second type terminal, and transmission / reception of the video information and the audio information Connection control means for exchanging distribution capability information used for
A first type server having
A voice transfer means for transferring voice information destined for the second type terminal delivered by the voice delivery means;
Video information received from the first type terminal when distributing the video information received from the first type terminal or the video information received from the second type terminal to the second type terminal via the first type server The video information received from the second type terminal other than the information and the distribution destination is combined into one distribution video, and the combined video information is distributed to the second type terminal as the distribution destination, or via the first type server. The video information received from the first type terminal and the video information received from the second type terminal other than the distribution destination are selected and combined into one distribution video, and the combined video information is distributed to the distribution unit. A second video distribution means for distributing to the second type terminal ;
A second type server having
Multipoint conferencing system which is characterized in that it consists of.
JP2005257827A 2005-09-06 2005-09-06 Multipoint conference method and multipoint conference system Active JP4741325B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005257827A JP4741325B2 (en) 2005-09-06 2005-09-06 Multipoint conference method and multipoint conference system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005257827A JP4741325B2 (en) 2005-09-06 2005-09-06 Multipoint conference method and multipoint conference system

Publications (2)

Publication Number Publication Date
JP2007074221A JP2007074221A (en) 2007-03-22
JP4741325B2 true JP4741325B2 (en) 2011-08-03

Family

ID=37935312

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005257827A Active JP4741325B2 (en) 2005-09-06 2005-09-06 Multipoint conference method and multipoint conference system

Country Status (1)

Country Link
JP (1) JP4741325B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101588252B (en) * 2008-05-23 2011-07-20 华为技术有限公司 Control method and control device of multipoint conference
JP2010068087A (en) * 2008-09-09 2010-03-25 Hitachi Kokusai Electric Inc Group call control server
JP2010118715A (en) * 2008-11-11 2010-05-27 Hitachi Ltd Conference system and data processing method
KR101229565B1 (en) 2009-11-17 2013-02-04 한국전자통신연구원 Participational broadcasting system and method for handling audio thereof
KR101220948B1 (en) * 2012-09-11 2013-01-11 (주)리얼허브 Matrix-typed conference video display method for video conference system
JP6107245B2 (en) * 2013-03-11 2017-04-05 株式会社ナカヨ Telephone main unit with video conference function
JP6375638B2 (en) * 2013-03-15 2018-08-22 株式会社リコー Delivery control system, delivery system, delivery control method, and program
PL3329670T3 (en) * 2015-07-28 2023-04-11 Mersive Technologies, Inc. Virtual video driver bridge system for multi-source collaboration within a web conferencing system

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2646910B2 (en) * 1991-10-15 1997-08-27 松下電器産業株式会社 Multipoint conference system
JPH09270791A (en) * 1996-03-29 1997-10-14 Oki Electric Ind Co Ltd Multi-spot video conference system
JPH1093941A (en) * 1996-09-12 1998-04-10 Matsushita Electric Ind Co Ltd Multi-point connection system
JP4053869B2 (en) * 2002-12-05 2008-02-27 エヌ・ティ・ティ・コミュニケーションズ株式会社 Video conferencing system

Also Published As

Publication number Publication date
JP2007074221A (en) 2007-03-22

Similar Documents

Publication Publication Date Title
JP4741325B2 (en) Multipoint conference method and multipoint conference system
US11006075B2 (en) Method and system for conducting video conferences of diverse participating devices
US9288441B2 (en) Distributed transcoding of a video based on insufficient computing resources
JP5781441B2 (en) Subscription for video conferencing using multi-bitrate streams
US7043528B2 (en) Systems and methods for connecting video conferencing to a distributed network
JP5345081B2 (en) Method and system for conducting resident meetings
JP2007507190A (en) Conference system
CN101198008A (en) Method and system for implementing multi-screen and multi-picture
US9270937B2 (en) Real time stream provisioning infrastructure
CN107493453A (en) System and method for netted end-to-end video conference
JP2003223407A (en) Contents sharing support system, user terminal, contents sharing support server, method and program for sharing contents among users, and recording medium for the program
JP5813586B2 (en) Multipoint conference linkage system, multipoint conference linkage server, and multipoint conference linkage program
JP2003271530A (en) Communication system, inter-system relevant device, program and recording medium
KR20020050903A (en) Education, Broad Casting, Multi-User Image Conference and Chatting Service Provision Method Using Internet
WO2021235048A1 (en) No-audience live event streaming method and system
JP5003217B2 (en) Terminal device in video conference system, control method for terminal device, control program for terminal device
JP5205900B2 (en) Video conference system, server terminal, and client terminal
KR102546662B1 (en) System for providing conference connecting between public switched telephone network communication and web real-time communication technology, and method thereof
CN110546947A (en) method for conducting an audio and/or video conference
JP2010171663A (en) Communication method, communication system, communication device, and computer program
JP2017092802A (en) Conference speech system and back-end system used for the same
JP2005295142A (en) Server and method for video information management
JP5228580B2 (en) Video conference terminal device and video conference system
KR100767016B1 (en) System and method for transceiving video data by using multicon
JPH08163529A (en) Image multi-point communication control system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080305

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20091130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20091130

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100405

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100629

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110426

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110506

R151 Written notification of patent or utility model registration

Ref document number: 4741325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350