JP2005341324A - Multi-point video conference system, multi-point video conference control method, server apparatus, multi-point video conference control program, and program recording medium thereof - Google Patents

Multi-point video conference system, multi-point video conference control method, server apparatus, multi-point video conference control program, and program recording medium thereof Download PDF

Info

Publication number
JP2005341324A
JP2005341324A JP2004158493A JP2004158493A JP2005341324A JP 2005341324 A JP2005341324 A JP 2005341324A JP 2004158493 A JP2004158493 A JP 2004158493A JP 2004158493 A JP2004158493 A JP 2004158493A JP 2005341324 A JP2005341324 A JP 2005341324A
Authority
JP
Japan
Prior art keywords
client
client terminal
header
server device
units
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004158493A
Other languages
Japanese (ja)
Other versions
JP4081044B2 (en
Inventor
Junichi Nakajima
淳一 中嶋
Hisami Shinsenji
久美 秦泉寺
Kazuto Kamikura
一人 上倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004158493A priority Critical patent/JP4081044B2/en
Publication of JP2005341324A publication Critical patent/JP2005341324A/en
Application granted granted Critical
Publication of JP4081044B2 publication Critical patent/JP4081044B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Systems (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a multi-point video conference system, capable of relieving a load imposed on a server apparatus for controlling a communication conference and gathering the number of downstream connections of into one. <P>SOLUTION: The server apparatus 1 provides macroblock number information (header update information), in response to a display position of an image of each client in a composited image to each client terminal 2. In each client terminal 2, when a coding section 23 attaches a header to a coded stream in the unit of VP, an MB number determining section 28 determines a macroblock number, denoting the position of the coded stream and stores the macro block number to a VP header. A VOP header is attached to the coded stream at the top of the composite image. The server apparatus 1 uses a stream selection / connection 12 to connect the coded streams received from each client terminal 2 in units of VP and distributes the connected coded stream to each client terminal 2. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は,映像符号化データの多重化方式に関し,特に符号化および復号機能を持つ複数のクライアント端末において符号化された符号化ストリームを配信サーバが受信して,それぞれのクライアント端末に符号化ストリームを配信する形式の多地点テレビ会議システムに関するものである。   The present invention relates to a multiplexing method of video encoded data, and in particular, a distribution server receives an encoded stream encoded in a plurality of client terminals having encoding and decoding functions, and the encoded stream is transmitted to each client terminal. It is related with the multipoint video conference system of the form which distributes.

一般に,多地点テレビ会議システムでは,複数のクライアント端末で撮影された映像の符号化ストリームを,配信サーバがそれぞれのクライアント端末から受信し,配信サーバにおいて各クライアント端末から受信した符号化ストリームを復号し,復号した各クライアント端末の画像を一つの画像に合成して,それを再符号化したものを,それぞれのクライアント端末に配信することを行っていた(例えば,特許文献1,特許文献2参照)。   In general, in a multipoint video conference system, a distribution server receives encoded streams of video shot by a plurality of client terminals from each client terminal, and the distribution server decodes the encoded streams received from each client terminal. The decoded image of each client terminal is synthesized into one image, and the re-encoded image is distributed to each client terminal (for example, see Patent Document 1 and Patent Document 2). .

図11は,従来の多地点テレビ会議システムの例を示す図である。図11において,100は多地点テレビ会議を制御し,各クライアントに映像を配信するサーバ装置,110a〜110zは多地点テレビ会議に参加するクライアントのクライアント端末である。サーバ装置100は,各クライアント端末110a〜110zに対応する受信バッファ101a〜101zと,復号部102a〜102zと,画像合成部103と,再符号化部104と,送信バッファ105とを備える。   FIG. 11 is a diagram showing an example of a conventional multipoint video conference system. In FIG. 11, reference numeral 100 denotes a server device that controls a multipoint video conference and distributes video to each client, and 110a to 110z are client terminals of clients participating in the multipoint video conference. The server device 100 includes reception buffers 101a to 101z corresponding to the client terminals 110a to 110z, decoding units 102a to 102z, an image synthesis unit 103, a re-encoding unit 104, and a transmission buffer 105.

サーバ装置100は,各クライアント端末110a〜110zにネットワークを介して接続され,各クライアント端末110a〜110zからの符号化ストリームを受信し,各クライアント端末に対応する受信バッファ101a〜101zに格納する。復号部102a〜102zは,受信バッファ101a〜101zに格納された符号化ストリームをそれぞれ復号する。   The server device 100 is connected to each client terminal 110a to 110z via a network, receives an encoded stream from each client terminal 110a to 110z, and stores it in reception buffers 101a to 101z corresponding to each client terminal. The decoding units 102a to 102z decode the encoded streams stored in the reception buffers 101a to 101z, respectively.

画像合成部103は,各復号部102a〜102zが復号した画像をあらかじめ定められた位置に配置して一つの画像に合成し,再符号化部104は,合成した画像を再符号化する。再符号化された合成画像ストリームは,送信バッファ105に格納され,各クライアント端末110a〜110zにネットワークを介して配信される。   The image composition unit 103 arranges the images decoded by the decoding units 102a to 102z at predetermined positions and composes them into one image, and the re-encoding unit 104 re-encodes the synthesized images. The re-encoded composite image stream is stored in the transmission buffer 105 and distributed to each of the client terminals 110a to 110z via the network.

図12は,従来の他の多地点テレビ会議システムの例を示す図である。図12において,120は多地点テレビ会議を制御し,各クライアントに映像を配信するサーバ装置,130a〜130zは多地点テレビ会議に参加するクライアントのクライアント端末である。サーバ装置120は,各クライアント端末130a〜130zに対応する受信バッファ121a〜121zと,送信バッファ122a〜122zとを備える。   FIG. 12 is a diagram showing an example of another conventional multipoint video conference system. In FIG. 12, 120 is a server device that controls a multi-point video conference and distributes video to each client, and 130a to 130z are client terminals of clients participating in the multi-point video conference. The server device 120 includes reception buffers 121a to 121z and transmission buffers 122a to 122z corresponding to the client terminals 130a to 130z.

各クライアント端末130a〜130zは,クライアントを撮影するカメラ131a〜131zと,ディスプレイ132a〜132zと,撮影した映像を符号化する符号化部133と,符号化ストリームを送信するための送信バッファ134と,サーバ装置120が配信した符号化ストリームを受信するための複数の受信バッファ135と,各受信バッファ135に対応する符号化ストリームの復号部136と,各復号部136が復号した復号画像と,自端末のカメラで撮影した画像とを合成する画像合成部137とを備える。   Each of the client terminals 130a to 130z includes cameras 131a to 131z that capture the client, displays 132a to 132z, an encoding unit 133 that encodes the captured video, a transmission buffer 134 for transmitting the encoded stream, A plurality of reception buffers 135 for receiving the encoded streams distributed by the server apparatus 120, encoded stream decoding units 136 corresponding to the respective reception buffers 135, decoded images decoded by the respective decoding units 136, and the own terminal And an image composition unit 137 that composes an image captured by the camera.

前述した図11の例では,サーバ装置100においてクライアント端末の符号化ストリームを一度復号した後,画像全体を合成してから再符号化しているが,図12のシステムでは,サーバ装置120は,各クライアント端末130a〜130zから受信した符号化ストリームを,受信バッファ121a〜121zおよび送信バッファ122a〜122zを介して各クライアント端末130a〜130zに配信する。   In the example of FIG. 11 described above, after the encoded stream of the client terminal is once decoded in the server apparatus 100, the entire image is synthesized and re-encoded. However, in the system of FIG. The encoded streams received from the client terminals 130a to 130z are distributed to the client terminals 130a to 130z via the reception buffers 121a to 121z and the transmission buffers 122a to 122z.

各クライアント端末130a〜130zでは,受信バッファ135によりサーバ装置120から配信された符号化ストリームを受信すると,受信した符号化ストリームをそれぞれ復号部136で復号し,復号画像を画像合成部137へ送る。画像合成部137では,それらの画像と自端末で撮影した画像とを合成し,ディスプレイ132a〜132zに表示する。これにより,各クライアント端末130a〜130zのディスプレイ132a〜132zには,テレビ会議に参加するクライアントの映像が表示されることになる。
特許第3097736号公報 特開平11−187372号公報
In each of the client terminals 130a to 130z, when the encoded stream distributed from the server device 120 is received by the reception buffer 135, the received encoded stream is decoded by the decoding unit 136, and the decoded image is sent to the image synthesis unit 137. In the image composition unit 137, these images and images taken by the terminal are synthesized and displayed on the displays 132a to 132z. Thereby, the video of the client participating in the video conference is displayed on the displays 132a to 132z of the client terminals 130a to 130z.
Japanese Patent No. 3097736 JP-A-11-187372

図11に示すような従来の多地点テレビ会議システムでは,サーバ装置100において各クライアント端末110a〜110zから受信した符号化ストリームを一度復号した後,画像全体を合成してから再符号化するため,サーバ装置100において復号,画像合成,再符号化の処理が必要であり,サーバ装置100の負荷が大きくなるという問題があった。   In the conventional multipoint video conference system as shown in FIG. 11, after the encoded stream received from each of the client terminals 110a to 110z is once decoded in the server device 100, the entire image is synthesized and then re-encoded. There is a problem in that the server apparatus 100 needs to perform decoding, image synthesis, and re-encoding processing, which increases the load on the server apparatus 100.

また,図12に示すような従来の多地点テレビ会議システムの場合,サーバ装置120の負荷は小さくて済むが,サーバ装置120と各クライアント端末130a〜130zとの間で,ダウンストリームの分だけコネクションを張る必要があるため,テレビ会議に参加するクライアントの増加に伴い必要となる通信ポートが増加するという問題があった。また,ネットワークリソースやセキュリティの観点からも好ましくはないという問題があった。   In the case of the conventional multipoint video conference system as shown in FIG. 12, the load on the server device 120 may be small, but connection is made between the server device 120 and each of the client terminals 130a to 130z by the downstream amount. Therefore, there is a problem that the necessary communication ports increase as the number of clients participating in the video conference increases. There is also a problem that it is not preferable from the viewpoint of network resources and security.

本発明は上記問題点の解決を図り,サーバ装置における負荷を軽減し,かつダウンストリームのコネクション数を1つにまとめることができる多地点テレビ会議システムを実現することを目的とする。   SUMMARY OF THE INVENTION An object of the present invention is to solve the above problems, and to realize a multipoint video conference system capable of reducing the load on the server device and integrating the number of downstream connections into one.

上記課題を解決するため,本発明は,複数のクライアント端末において符号化された符号化ストリームをサーバ装置が受信して,それぞれのクライアント端末に符号化ストリームを配信する形式の多地点テレビ会議システムにおいて,サーバ装置から各クライアント端末に対して,各クライアントの画像の表示位置に応じたマクロブロック(以下,MBと表す)番号を決定するためのヘッダ更新情報を通知する。このヘッダ更新情報は,例えば符号化対象となる各クライアントの画像の先頭MBの,合成ストリームに係る復号画像における位置を示すMB番号(オフセット)と,合成ストリームに係る復号画像の1ラインのMB数(MB更新パラメータ)である。   In order to solve the above problems, the present invention provides a multipoint video conference system in which a server device receives encoded streams encoded by a plurality of client terminals and distributes the encoded streams to the respective client terminals. The server device notifies each client terminal of header update information for determining a macroblock (hereinafter referred to as MB) number corresponding to the image display position of each client. This header update information includes, for example, the MB number (offset) indicating the position of the first MB of each client image to be encoded in the decoded image related to the composite stream, and the number of MBs in one line of the decoded image related to the composite stream. (MB update parameter).

各クライアント端末は,受信したヘッダ更新情報に基づいて,符号化処理において生成される各VP(Video Packet)内の先頭MBのMB番号を決定し,そのMB番号をVPヘッダ内に格納して,VP単位の符号化ストリームをサーバ装置に送信する。   Each client terminal determines the MB number of the first MB in each VP (Video Packet) generated in the encoding process based on the received header update information, stores the MB number in the VP header, An encoded stream in VP units is transmitted to the server device.

サーバ装置は,クライアント端末から受信した符号化ストリームを連結して合成ストリームを生成し,各クライアント端末に配信する。サーバ装置から符号化ストリームを受信した各クライアント端末は,VP単位で順次復号し,VPヘッダ内のMB番号が示す位置に復号画像を表示する。   The server device concatenates the encoded streams received from the client terminals, generates a composite stream, and distributes it to each client terminal. Each client terminal that has received the encoded stream from the server device sequentially decodes in units of VP, and displays the decoded image at the position indicated by the MB number in the VP header.

すなわち,本発明は,複数のクライアント端末と,前記クライアント端末にネットワークを介して接続され,前記クライアント端末間の通信会議を制御するサーバ装置とを備える多地点テレビ会議システムにおいて,前記サーバ装置は,各クライアントの画像の符号化データが,複数のクライアントの画像を合成したときの合成画像のどの位置に相当するかを決定するためのヘッダ更新情報を各クライアント端末に通知する手段と,前記各クライアント端末からビデオパケット単位で符号化ストリームを受信する手段と,前記各クライアント端末から受信した符号化ストリームを,ビデオパケット単位で,順次前記各クライアント端末へ配信する手段とを備え,前記各クライアント端末は,自端末における入力映像を符号化する手段と,符号化データにビデオパケット単位でヘッダ情報を付加し,そのヘッダ内に前記サーバ装置から通知されたヘッダ更新情報に基づいて決定した合成画像における符号化データの位置を示す情報を設定する手段と,前記ヘッダ情報が付加されたビデオパケットの符号化ストリームを前記サーバ装置へ送信する手段と,前記サーバ装置からビデオパケット単位で符号化ストリームを受信する手段と,受信した符号化ストリームを復号する手段と,復号した画像データを前記ヘッダ内に設定された位置に表示する手段とを備えることを特徴とする。   That is, the present invention provides a multipoint video conference system comprising a plurality of client terminals and a server device connected to the client terminals via a network and controlling a communication conference between the client terminals. Means for notifying each client terminal of header update information for determining which position of the composite image when the encoded data of the images of each client corresponds to the composite image of a plurality of clients; Means for receiving an encoded stream from the terminal in units of video packets, and means for sequentially distributing the encoded stream received from each of the client terminals in units of video packets to each of the client terminals; , Means for encoding the input video at its own terminal, and code Means for adding header information to data in units of video packets, and setting information indicating the position of encoded data in a composite image determined based on header update information notified from the server device in the header; Means for transmitting an encoded stream of a video packet to which information is added to the server apparatus; means for receiving the encoded stream from the server apparatus in units of video packets; means for decoding the received encoded stream; Means for displaying the processed image data at a position set in the header.

本発明は,符号化および復号機能を持つ複数のクライアント端末において符号化された符号化ストリームをサーバ装置が受信して,それぞれのクライアント端末に符号化ストリームを配信する形式の多地点テレビ会議システムにおいて,クライアント装置が,サーバ装置から受信したヘッダ更新情報に基づいて決定したMB番号をVPヘッダ内に格納して,VP単位の符号化ストリームをサーバ装置に送信し,サーバ装置では,各クライアント装置から送信された複数の符号化ストリームを連結して合成ストリームを生成し配信するので,サーバ装置における各クライアント端末から受信した符号化ストリームを復号する処理,複数の復号画像を合成する処理,および合成画像を再符号化する処理が不要となり,サーバ装置の負荷を軽減することができる。   The present invention relates to a multipoint video conference system in which a server device receives encoded streams encoded by a plurality of client terminals having encoding and decoding functions and distributes the encoded streams to the respective client terminals. The client device stores the MB number determined based on the header update information received from the server device in the VP header, and transmits the encoded stream in VP units to the server device. Since a plurality of transmitted encoded streams are concatenated to generate and distribute a composite stream, a process for decoding the encoded stream received from each client terminal in the server device, a process for combining a plurality of decoded images, and a composite image No need to re-encode the server, reducing the load on the server Door can be.

また,クライアント端末においては,サーバ装置から受信した合成ストリームをVP単位で順次復号し,VPヘッダ内のMB番号に対応する位置に復号画像を表示するため,各クライアント端末における符号化同期処理が不要であり,画像を表示する際にも簡易に効率よく符号化ストリームを復号・表示することができる。   In addition, since the client terminal sequentially decodes the composite stream received from the server device in units of VP and displays the decoded image at the position corresponding to the MB number in the VP header, encoding synchronization processing in each client terminal is unnecessary. Therefore, it is possible to simply and efficiently decode and display the encoded stream when displaying an image.

また,サーバ装置から各クライアント端末の映像符号化データを合成して配信するので,テレビ会議に参加するクライアントの数だけコネクションを張る必要はなく,クライアント端末に対するダウンストリームのコネクション数を1つにまとめることができ,通信ポートその他の通信に必要な資源の増加を抑えることができる。   Also, since the encoded video data of each client terminal is synthesized and distributed from the server device, it is not necessary to establish connections as many as the number of clients participating in the video conference, and the number of downstream connections to the client terminals is integrated into one. And increase in resources necessary for communication ports and other communications can be suppressed.

以下,図面を用いて本発明の実施の形態を説明する。図1は,本発明に係る多地点テレビ会議システムの構成例を示す。図1において,1は多地点テレビ会議を制御し,各クライアントに映像を配信するサーバ装置,2は多地点テレビ会議に参加するクライアントのクライアント端末である。本発明の実施の形態においては,例えば,クライアントA〜クライアントDの4人のクライアントがクライアント端末2を用いて多地点テレビ会議に参加するものとする。もちろん,本発明における通信会議の参加者は,4人に限られるわけではなく,複数人であればよい。   Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 shows a configuration example of a multipoint video conference system according to the present invention. In FIG. 1, 1 is a server device that controls a multipoint video conference and distributes video to each client, and 2 is a client terminal of a client that participates in the multipoint video conference. In the embodiment of the present invention, for example, four clients A to D participate in a multipoint video conference using the client terminal 2. Of course, the number of participants in the communication conference according to the present invention is not limited to four, and a plurality of participants may be used.

サーバ装置1において,11はそれぞれ各クライアント端末2から送信された符号化ストリームを格納する受信バッファ,12は各受信バッファ11からVP単位の符号化ストリームを順次受け取って連結し,合成ストリームを生成するストリーム選択・連結部,13は合成された符号化ストリームが格納される送信バッファ,14はヘッダ更新情報を生成するヘッダ更新情報生成部,15は生成されたヘッダ更新情報をクライアント端末2に送信するヘッダ更新情報送信部である。   In the server device 1, 11 is a reception buffer for storing the encoded stream transmitted from each client terminal 2, and 12 is sequentially received from each reception buffer 11 and connected to each VP-unit encoded stream to generate a combined stream. A stream selection / concatenation unit, 13 is a transmission buffer for storing the synthesized encoded stream, 14 is a header update information generation unit for generating header update information, and 15 is for transmitting the generated header update information to the client terminal 2. It is a header update information transmission unit.

クライアント端末2において,23はカメラ21により撮影された映像を符号化する符号化部,24は符号化ストリームを格納する送信バッファ,25はサーバ装置1からの合成された符号化ストリームを格納する受信バッファ,26は受信バッファ25に格納された符号化ストリームを復号する復号部,27は復号データのディスプレイ22への表示を制御する表示制御部,28は符号化部23による符号化処理においてVPヘッダ内に格納するMB番号を決定するMB番号決定部である。   In the client terminal 2, reference numeral 23 denotes an encoding unit that encodes video captured by the camera 21, reference numeral 24 denotes a transmission buffer that stores the encoded stream, and reference numeral 25 denotes reception that stores the combined encoded stream from the server apparatus 1. A buffer, 26 is a decoding unit for decoding the encoded stream stored in the reception buffer 25, 27 is a display control unit for controlling the display of decoded data on the display 22, and 28 is a VP header in the encoding process by the encoding unit 23 It is an MB number determination part which determines the MB number stored in the inside.

図2は,クライアント端末の符号化部の詳細を示す図である。この例では,MPEG−4の符号化方式を用いるものとする。この符号化部23は,従来から一般に用いられているエンコーダと基本的に同じものであるが,可変長符号化部240において,ヘッダ情報を生成する部分が従来のエンコーダと異なる。   FIG. 2 is a diagram illustrating details of the encoding unit of the client terminal. In this example, an MPEG-4 encoding method is used. The encoding unit 23 is basically the same as a conventionally used encoder, but the variable length encoding unit 240 is different from the conventional encoder in generating header information.

減算部231は,マクロブロックごとに入力画像信号と動き補償部239の出力である予測画像信号との差分信号を算出する。DCT部232は,その差分信号を離散コサイン変換(DCT)する。量子化部233は,符号量制御部241が決定した量子化パラメータに従ってDCT係数を量子化する。可変長符号化部240は,量子化後のDCT係数を可変長符号化し,送信バッファ24へ出力する。   The subtraction unit 231 calculates a difference signal between the input image signal and the predicted image signal that is the output of the motion compensation unit 239 for each macroblock. The DCT unit 232 performs a discrete cosine transform (DCT) on the difference signal. The quantization unit 233 quantizes the DCT coefficient according to the quantization parameter determined by the code amount control unit 241. The variable length coding unit 240 performs variable length coding on the quantized DCT coefficient and outputs the result to the transmission buffer 24.

また,量子化後のDCT係数は逆量子化部234へも出力され,逆量子化部234では,それを逆量子化する。逆DCT部235は,逆量子化後の信号を逆離散コサイン変換する。加算部236は,逆DCT後の信号に動き補償部239の出力信号を加算する。フレームメモリ237は,加算後の信号を参照画像として蓄積する。動き予測部238は,フレームメモリ237に蓄積された参照画像と入力画像信号とに基づいて動き予測を行う。動き補償部239は,動き予測部238が検出した動きベクトルに基づいて,フレームメモリ237に蓄積された参照画像から予測画像信号を生成する。動き予測部238の出力である動きベクトルは,可変長符号化部240で可変長符号化され,送信バッファ24に出力される。   The quantized DCT coefficient is also output to the inverse quantization unit 234, and the inverse quantization unit 234 performs inverse quantization. The inverse DCT unit 235 performs inverse discrete cosine transform on the signal after inverse quantization. The adder 236 adds the output signal of the motion compensation unit 239 to the signal after inverse DCT. The frame memory 237 stores the added signal as a reference image. The motion prediction unit 238 performs motion prediction based on the reference image stored in the frame memory 237 and the input image signal. The motion compensation unit 239 generates a predicted image signal from the reference image stored in the frame memory 237 based on the motion vector detected by the motion prediction unit 238. The motion vector output from the motion prediction unit 238 is variable length encoded by the variable length encoding unit 240 and output to the transmission buffer 24.

また,MB番号決定部28は,サーバ装置1から受信したヘッダ更新情報に基づいて,各VPの先頭のMB番号を決定する。可変長符号化部240では,各フレームごとにVOP(Video Object Plane)ヘッダを生成してMB符号化情報の前に付与し,VP単位にVPヘッダを生成してMB符号化情報の前に付与する。VPヘッダ内には,MB番号決定部28が決定したMB番号の情報を格納する。すなわち,VPヘッダ内には,クライアント画像内の位置を示す本来のMB番号ではなく,複数のクライアントの画像を合成した合成画像におけるMBの位置を示すMB番号が格納される。これらの符号化ストリームは,VP単位で送信バッファ24からサーバ装置1へ送信される。   Further, the MB number determination unit 28 determines the first MB number of each VP based on the header update information received from the server device 1. The variable length encoding unit 240 generates a VOP (Video Object Plane) header for each frame and assigns it before the MB encoded information, and generates a VP header for each VP and assigns it before the MB encoded information. To do. Information on the MB number determined by the MB number determination unit 28 is stored in the VP header. That is, in the VP header, not the original MB number indicating the position in the client image but the MB number indicating the MB position in the composite image obtained by combining the images of the plurality of clients is stored. These encoded streams are transmitted from the transmission buffer 24 to the server device 1 in units of VP.

なお,本実施の形態では,可変長符号化部240が,VPヘッダ内にMB番号決定部28が決定したMB番号を設定するものとしたが,可変長符号化部240では,従来と同様なMB番号をVPヘッダ内に設定し,送信バッファ24への符号化ストリームの格納時,またはサーバ装置1への符号化ストリームの送信時に,MB番号決定部28の出力に基づいてVPヘッダを書き換えるような実施も可能である。   In this embodiment, the variable length encoding unit 240 sets the MB number determined by the MB number determining unit 28 in the VP header. However, the variable length encoding unit 240 is similar to the conventional one. The MB number is set in the VP header, and the VP header is rewritten based on the output of the MB number determining unit 28 when the encoded stream is stored in the transmission buffer 24 or when the encoded stream is transmitted to the server device 1. Implementation is also possible.

図1に示す構成を採る多地点テレビ会議システムの動作は,以下のとおりである。例えば各クライアント端末2とサーバ装置1との間のセッション確立時に,各クライアント端末2からサーバ装置1に送信される画像サイズおよび合成ストリームの復号画像の画像サイズの情報と,合成ストリームのレイアウトの情報とを決める。そして,サーバ装置1のヘッダ更新情報生成部14が,上記各クライアント端末2からサーバ装置1に送信される画像サイズおよび合成ストリームの復号画像の画像サイズの情報に基づいて,クライアントごとのヘッダ更新情報を生成する。ヘッダ更新情報送信部15は,生成されたヘッダ更新情報を,対応するクライアントのクライアント端末2へ送信する。   The operation of the multipoint video conference system adopting the configuration shown in FIG. 1 is as follows. For example, when a session between each client terminal 2 and the server apparatus 1 is established, information on the image size transmitted from each client terminal 2 to the server apparatus 1 and the image size of the decoded image of the combined stream, and information on the layout of the combined stream And decide. Then, the header update information generation unit 14 of the server device 1 performs header update information for each client based on the image size and the image size information of the decoded image of the composite stream transmitted from each client terminal 2 to the server device 1. Is generated. The header update information transmission unit 15 transmits the generated header update information to the client terminal 2 of the corresponding client.

各クライアント端末2のMB番号決定部28は,サーバ装置1から受信したヘッダ更新情報に基づいて,VPヘッダ内に格納するMB番号を決定し,符号化部23が,MB番号決定部28の出力信号に基づいて,カメラ21により撮影された映像を符号化してVP単位の符号化ストリームを生成し,送信バッファ24に格納する。この符号化部23による符号化処理において,MB番号決定部28により決定されたMB番号がVPヘッダ内に格納される。   The MB number determination unit 28 of each client terminal 2 determines the MB number to be stored in the VP header based on the header update information received from the server apparatus 1, and the encoding unit 23 outputs the MB number determination unit 28. Based on the signal, the video captured by the camera 21 is encoded to generate an encoded stream in VP units and stored in the transmission buffer 24. In the encoding process by the encoding unit 23, the MB number determined by the MB number determining unit 28 is stored in the VP header.

サーバ装置1は,受信バッファ11により各クライアント端末2の送信バッファ24から送信された符号化ストリームを受信する。ストリーム選択・連結部12は,受信バッファ11からVP単位の符号化ストリームを受け取り,それらを順次,送信バッファ13に格納してクライアント端末2へネットワークを介して送信することにより,各クライアント端末2からの符号化ストリームを連結した合成ストリームを,各クライアント端末2へ配信する。   The server device 1 receives the encoded stream transmitted from the transmission buffer 24 of each client terminal 2 by the reception buffer 11. The stream selection / concatenation unit 12 receives encoded streams in VP units from the reception buffer 11, stores them sequentially in the transmission buffer 13, and transmits them to the client terminal 2 via the network. A combined stream obtained by concatenating the encoded streams is distributed to each client terminal 2.

クライアント端末2においては,サーバ装置1から配信された合成ストリームが受信バッファ25に格納される。復号部26は,受信バッファ25に格納された合成ストリームをVP単位で順次復号し,表示制御部27が,ディスプレイ22の表示画面中の,VPヘッダ内に格納されたMB番号に対応する位置に復号画像を表示する。   In the client terminal 2, the composite stream distributed from the server device 1 is stored in the reception buffer 25. The decoding unit 26 sequentially decodes the composite stream stored in the reception buffer 25 in units of VP, and the display control unit 27 is located at a position corresponding to the MB number stored in the VP header in the display screen of the display 22. Display the decoded image.

図3は,各クライアント端末2に表示される合成ストリームの復号画像の例を示す図であり,図4は,図3に示す復号画像中の各MBのMB番号を示す図である。本発明の実施の形態においては,例えば図3に示すように,クライアントA〜クライアントDのそれぞれN×M個のMBからなる画像について,復号画像全体の左上にクライアントAの画像,右上にクライアントBの画像,左下にクライアントCの画像,右下にクライアントDの画像が配置されるものとする。   FIG. 3 is a diagram showing an example of a decoded image of the composite stream displayed on each client terminal 2, and FIG. 4 is a diagram showing an MB number of each MB in the decoded image shown in FIG. In the embodiment of the present invention, for example, as shown in FIG. 3, with respect to an image composed of N × M MBs of each of client A to client D, the image of client A is displayed at the upper left of the entire decoded image, and , An image of client C is arranged at the lower left, and an image of client D is arranged at the lower right.

また,図5は,図3および図4に示すようなレイアウトで復号画像を構成するためにサーバ装置1からクライアント端末2に送信されるクライアントごとのヘッダ更新情報を示す図である。図5に示すヘッダ更新情報は,符号化対象となる各クライアントの画像の先頭MBの,合成ストリームに係る復号画像におけるMB番号(オフセット)と,合成ストリームに係る復号画像の1ラインのMB数(MB更新パラメータ)から構成される。   FIG. 5 is a diagram showing header update information for each client transmitted from the server apparatus 1 to the client terminal 2 in order to form a decoded image with the layout shown in FIGS. 3 and 4. The header update information shown in FIG. 5 includes the MB number (offset) in the decoded image related to the combined stream of the first MB of each client image to be encoded, and the number of MBs in one line of the decoded image related to the combined stream ( MB update parameter).

本発明の実施の形態においては,図3,図4に示すように,合成ストリームに係る復号画像の1ラインのMB数は2Nであるので,MB更新パラメータは「2N」である。   In the embodiment of the present invention, as shown in FIGS. 3 and 4, the MB update parameter is “2N” because the number of MB in one line of the decoded image related to the composite stream is 2N.

また,例えば,クライアントAの画像は復号画像中の左上に配置されるので,図4に示すMB番号を参照すると,クライアントAについてのオフセット(符号化対象画像の先頭MBの復号画像全体におけるMB番号)は「0」となる。クライアントBの画像は復号画像中の右上に配置されるので,図4に示すMB番号を参照すると,クライアントBについてのオフセットは「N」となる。同様にしてクライアントCについてのオフセットは「2MN」,クライアントDについてのオフセットは「2MN+N」となる。   Further, for example, since the image of the client A is arranged at the upper left in the decoded image, referring to the MB number shown in FIG. 4, the offset for the client A (the MB number in the entire decoded image of the first MB of the encoding target image) ) Becomes “0”. Since the image of client B is arranged at the upper right in the decoded image, referring to the MB number shown in FIG. 4, the offset for client B is “N”. Similarly, the offset for client C is “2MN” and the offset for client D is “2MN + N”.

図6および図7を用いて,各クライアント端末2のMB番号決定部28の処理を説明する。図6は,各クライアント端末のMB番号決定部28によるMB番号決定および可変長符号化部240におけるヘッダ生成の処理フローの例を示す図であり,図7は,MB番号決定部28の処理の結果,各クライアント側の第1列〜第M列の各VP単位の符号化ストリームに付与されるヘッダ情報(VOPヘッダまたはVPヘッダ)を示す図である。なお,図7のVPヘッダの括弧内の数字は,VPヘッダ内に格納されるMB番号を示している。   The processing of the MB number determination unit 28 of each client terminal 2 will be described with reference to FIGS. FIG. 6 is a diagram showing an example of a processing flow of MB number determination by the MB number determination unit 28 of each client terminal and header generation in the variable length encoding unit 240. FIG. As a result, it is a figure which shows the header information (VOP header or VP header) provided to the encoded stream of each VP unit of the 1st column-M-th column on each client side. Note that the numbers in parentheses in the VP header in FIG. 7 indicate MB numbers stored in the VP header.

図6に示す処理フローにおいて,MB番号決定部28は,サーバ装置1からヘッダ更新情報を受け取る(ステップS1)。例えば,図5に示すヘッダ更新情報のうち,自端末に係るクライアントに対応するオフセットとMB更新パラメータを受け取る。   In the processing flow shown in FIG. 6, the MB number determination unit 28 receives header update information from the server device 1 (step S1). For example, in the header update information shown in FIG. 5, the offset and MB update parameter corresponding to the client related to the terminal itself are received.

次に,可変長符号化部240において,現在符号化処理を行っているMBは,自端末に係るクライアントの画像中の第1列(ライン)目のMBかを判断する(ステップS2)。第1列目のMBである場合には,自端末に係るクライアントの画像が,合成ストリームに係る復号画像中の左上に配置される画像かを判断し(ステップS3),左上の画像である場合にはVOPヘッダを作成して(ステップS4),符号化ストリームに付与する(ステップS5)。   Next, the variable-length encoding unit 240 determines whether the MB currently being encoded is the MB in the first column (line) in the client image associated with the terminal (step S2). If the MB is in the first column, it is determined whether the image of the client related to the terminal is an image arranged at the upper left in the decoded image related to the composite stream (step S3). A VOP header is created (step S4) and attached to the encoded stream (step S5).

ステップS2において,第1列目のMBでない場合には,ステップS1で受け取った「オフセット+MB更新パラメータ×(現在の列−1)」の値をMB番号とし,そのMB番号を格納したVPヘッダを作成して(ステップS6),符号化ストリームに付与する(ステップS5)。   In step S2, if it is not the MB in the first column, the value of “offset + MB update parameter × (current column−1)” received in step S1 is set as the MB number, and the VP header storing the MB number is displayed. It is created (step S6) and given to the encoded stream (step S5).

例えば,クライアントAに係るクライアント端末2は,ステップS1において図5に示すオフセット「0」とMB更新パラメータ「2N」を受け取る。クライアントAの画像は復号画像中の左上に配置されるので,符号化対象のMBが第1列目のMBである場合には,VOPヘッダを作成し(ステップS4),符号化ストリームに付与する(ステップS5)。その結果,図7(A)に示すように,第1列目のVPに対して,VOPヘッダが付与される。   For example, the client terminal 2 related to the client A receives the offset “0” and the MB update parameter “2N” shown in FIG. 5 in step S1. Since the image of client A is arranged at the upper left in the decoded image, if the MB to be encoded is the MB in the first column, a VOP header is created (step S4) and attached to the encoded stream (Step S5). As a result, as shown in FIG. 7A, a VOP header is added to the VP in the first column.

符号化対象のMBが第2列目のMBである場合,「オフセット+MB更新パラメータ×(現在の列−1)」は,「0+2N×(2−1)=2N」であるため,MB番号「2N」を格納したVPヘッダを作成し(ステップS6),作成したVPヘッダを符号化ストリームに付与する。その結果,図7(A)に示すように,第2列目のVPに対して,MB番号「2N」が格納されたVPヘッダが付与される。第3列目以降についても,図6に示す処理フローに従った処理を行う。その結果,クライアントA側では,例えば,図7(A)に示すようなヘッダ(VOPヘッダまたはVPヘッダ)が第1列〜第M列の各VP単位の符号化ストリームに対して付与される。   When the MB to be encoded is the MB in the second column, “offset + MB update parameter × (current column−1)” is “0 + 2N × (2-1) = 2N”, so the MB number “ 2N "is created (step S6), and the created VP header is added to the encoded stream. As a result, as shown in FIG. 7A, a VP header storing the MB number “2N” is added to the VP in the second column. For the third and subsequent columns, the processing according to the processing flow shown in FIG. 6 is performed. As a result, on the client A side, for example, a header (VOP header or VP header) as shown in FIG. 7A is added to the encoded stream of each VP unit in the first column to the Mth column.

また,例えば,クライアントBに係るクライアント装置2は,ステップS1において図5に示すオフセット「N」とMB更新パラメータ「2N」を受け取る。符号化対象のMBが第1列目のMBである場合,ステップS2からステップS3に進む。クライアントBの画像は復号画像中の右上に配置されるので,ステップS3からステップS6の処理に進む。ステップS6において,「オフセット+MB更新パラメータ×(現在の列−1)」は,「N+2N×(1−1)=N」であるため,MB番号「N」を格納したVPヘッダを作成する(ステップS6)。その結果,図7(B)に示すように,第1列目のVPに対して,MB番号「N」が格納されたVPヘッダが付与される。   Further, for example, the client device 2 related to the client B receives the offset “N” and the MB update parameter “2N” shown in FIG. 5 in step S1. If the MB to be encoded is the MB in the first column, the process proceeds from step S2 to step S3. Since the image of client B is arranged at the upper right in the decoded image, the process proceeds from step S3 to step S6. In step S6, “offset + MB update parameter × (current column−1)” is “N + 2N × (1-1) = N”, so a VP header storing the MB number “N” is created (step S6). S6). As a result, as shown in FIG. 7B, a VP header storing the MB number “N” is added to the VP in the first column.

符号化対象のMBが第2列目のMBである場合,ステップS6において,「オフセット+MB更新パラメータ×(現在の列−1)」は,「N+2N×(2−1)=3N」であるため,MB番号「3N」を格納したVPヘッダを作成する。その結果,図7(B)に示すように,第2列目のVPに対して,MB番号「3N」が格納されたVPヘッダが付与される。第3列目以降についても,図6に示す処理フローに従った処理を行う。その結果,クライアントB側では,例えば,図7(B)に示すようなVPヘッダが,第1列〜第M列の各VP単位の符号化ストリームに対して付与される。   When the encoding target MB is the MB in the second column, “offset + MB update parameter × (current column−1)” is “N + 2N × (2-1) = 3N” in step S6. VP header storing MB number “3N” is created. As a result, as shown in FIG. 7B, a VP header storing the MB number “3N” is assigned to the VP in the second column. For the third and subsequent columns, the processing according to the processing flow shown in FIG. 6 is performed. As a result, on the client B side, for example, a VP header as shown in FIG. 7B is added to the encoded stream of each VP unit in the first column to the Mth column.

クライアントCに係るクライアント装置2,クライアントDに係るクライアント装置2においても,図6に示す処理フローに従った処理を行うことによって,例えば,それぞれ,図7(C),図7(D)に示すようなVPヘッダが,第1列〜第M列の各VP単位の符号化ストリームに対して付与される。   Also in the client device 2 related to the client C 2 and the client device 2 related to the client D, for example, as shown in FIGS. 7C and 7D, respectively, by performing processing according to the processing flow shown in FIG. Such a VP header is added to the encoded stream of each VP unit in the first column to the Mth column.

図8は,クライアント端末2において生成される符号化ストリームを示す図である。ここでは,クライアントAに係るクライアント端末において生成されるM個のVPから構成される符号化ストリームを例にとって説明する。各VPは,N個のMBの符号化情報と,MBの符号化情報の前に付与されたヘッダ(VOPヘッダまたはVPヘッダ)とから構成される。   FIG. 8 is a diagram illustrating an encoded stream generated in the client terminal 2. Here, an encoded stream composed of M VPs generated at a client terminal related to client A will be described as an example. Each VP is composed of N MB encoded information and a header (VOP header or VP header) added before the MB encoded information.

図7(A)のクライアントAについてのヘッダ情報に示すように,第1列目のVPに対してVOPヘッダが付与される。従って,図8に示す第1列目のVPにおいては,第0番目〜第N−1番目までのN個のMBの符号化情報の前にVOPヘッダが付与される。   As shown in the header information for client A in FIG. 7A, a VOP header is added to the VP in the first column. Therefore, in the VP in the first column shown in FIG. 8, the VOP header is added before the encoded information of the Nth MBs from the 0th to the (N-1) th.

図7(A)のヘッダ情報に示すように,第2列目のVPに対しては,MB番号「2N」が格納されたVPヘッダが付与される。従って,図8に示す第2列目のVPにおいては,第2N〜第3N−1番目までのN個のMBの符号化情報の前にVP(2N)が付与される。同様の方法により,第M列目のVPにおいては,第2(M−1)N〜第2MN−N−1番目までのN個のMBの符号化情報の前にVP(2(M−1)N)のVPヘッダが付与される。   As shown in the header information in FIG. 7A, a VP header storing the MB number “2N” is assigned to the VP in the second column. Therefore, in the VP in the second column shown in FIG. 8, VP (2N) is added before the encoded information of the N MBs from the 2Nth to the 3N-1th. In the same manner, in the VP of the Mth column, VP (2 (M−1) before the encoded information of the N MBs from the 2nd (M−1) N to the 2nd MN−N−1th. ) N) VP header is added.

図9(A)は各クライアント端末2からサーバ装置1へ送信される複数のVPから構成される符号化ストリームの例を示す図であり,図9(B)はサーバ装置1のストリーム選択・連結部12において生成される合成ストリームの例を示す図である。図9に示すVP中の文字は,VOPヘッダ,またはVPヘッダ中のMB番号を示す。   FIG. 9A is a diagram showing an example of an encoded stream composed of a plurality of VPs transmitted from each client terminal 2 to the server apparatus 1, and FIG. 9B is a stream selection / concatenation of the server apparatus 1. FIG. 6 is a diagram illustrating an example of a composite stream generated in the unit 12. The characters in the VP shown in FIG. 9 indicate the VOP header or the MB number in the VP header.

図9(A)に示す符号化ストリームが各クライアントからサーバ装置1の受信バッファ11に送信されると,サーバ装置1のストリーム選択・連結部12は,各受信バッファ11からVP単位で符号化ストリームを順次取り出して連結し,図9(B)に示すような合成ストリームを生成する。   When the encoded stream shown in FIG. 9A is transmitted from each client to the reception buffer 11 of the server apparatus 1, the stream selection / concatenation unit 12 of the server apparatus 1 encodes the encoded stream from each reception buffer 11 in units of VPs. Are sequentially extracted and concatenated to generate a composite stream as shown in FIG.

図10は,各クライアント端末2における復号画像更新処理を説明する図である。図10(A)は各クライアント端末2がサーバ装置1から受信した複数のVPから構成される合成ストリームの例であり,図10(B)は表示画面全体中における各VPの復号画像の配置を示す図である。   FIG. 10 is a diagram for explaining the decoded image update processing in each client terminal 2. FIG. 10A shows an example of a composite stream composed of a plurality of VPs received by each client terminal 2 from the server device 1, and FIG. 10B shows the arrangement of the decoded image of each VP in the entire display screen. FIG.

図10(A)に示す合成ストリームを構成する各VPには,各クライアント端末2によって設定されたヘッダの情報が付与されている。図10(A)に示す例では,例えば,第1番目のVPにはVOPヘッダの情報が付与されており,第2番目のVPにはMB番号「2N」,第3番目のVPにはMB番号「N」,第4番目のVPにはMB番号「2M」,第5番目のVPにはMB番号「3N」というVPヘッダの情報が付与されている。   Information of the header set by each client terminal 2 is given to each VP constituting the composite stream shown in FIG. In the example shown in FIG. 10A, for example, VOP header information is assigned to the first VP, the MB number “2N” is assigned to the second VP, and the MB is assigned to the third VP. The information of the VP header of the number “N”, the MB number “2M” is assigned to the fourth VP, and the MB number “3N” is assigned to the fifth VP.

サーバ装置1から図10(A)に示す合成ストリームを受信した各クライアント端末2は,VP単位で順次復号し,復号されたVP単位の復号画像を,各VPのヘッダの情報が示す表示位置に表示する。例えば,VOPヘッダというヘッダ情報が付与されているVPの復号画像は,図9(B)に示す表示画面中の最も左上の位置(図中の(1)の位置)に配置され,MB番号「2N」というVPヘッダの情報が付与されているVPの復号画像は,その先頭のMBが全MBを通じて2N番目のMBとなる位置(図中の(3)の位置)に配置される。   Each client terminal 2 that has received the composite stream shown in FIG. 10A from the server device 1 sequentially decodes in units of VP, and the decoded image in units of VP is displayed at the display position indicated by the information of the header of each VP. indicate. For example, a decoded image of a VP to which header information called a VOP header is assigned is arranged at the upper left position (position (1) in the figure) in the display screen shown in FIG. The decoded image of the VP to which the VP header information of “2N” is assigned is arranged at a position (position (3) in the figure) where the leading MB becomes the 2N-th MB through all MBs.

同様にして,MB番号「N」というVPヘッダの情報が付与されているVPの復号画像は,図中の(2)の位置に配置され,MB番号「3N」というVPヘッダの情報が付与されているVPの復号画像は,図中の(4)の位置に配置される。これによって,複数のクライアントの画像が合成された画像が,クライアント端末2のディスプレイ22に表示されることになる。   Similarly, the decoded image of the VP to which the VP header information with the MB number “N” is assigned is arranged at the position (2) in the figure, and the VP header information with the MB number “3N” is given. The decoded image of the VP is arranged at the position (4) in the figure. As a result, an image obtained by combining a plurality of client images is displayed on the display 22 of the client terminal 2.

各クライアント端末2からサーバ装置1へアップロードされる符号化ストリームのフレームレートが異なる場合には,復号画像の表示において頻繁に更新される領域と更新頻度が少ない領域とが生じることがあるが,画像全体としての表示が乱れるわけではないので問題が生じることはない。   When the frame rate of the encoded stream uploaded from each client terminal 2 to the server device 1 is different, an area that is frequently updated and an area that is less frequently updated in the display of the decoded image may occur. There is no problem because the display as a whole is not disturbed.

以上のサーバ装置1およびクライアント端末2が行う処理は,ハードウェアやファームウェアによって実現することができるだけでなく,コンピュータとソフトウェアプログラムとによっても実現することができ,そのプログラムをコンピュータ読み取り可能な記録媒体に記録して提供することも,ネットワークを通して提供することも可能である。   The processes performed by the server device 1 and the client terminal 2 can be realized not only by hardware and firmware but also by a computer and a software program, and the program can be stored on a computer-readable recording medium. It can be recorded and provided through a network.

本発明に係る多地点テレビ会議システムの構成例を示す図である。It is a figure which shows the structural example of the multipoint video conference system which concerns on this invention. クライアント端末の符号化部の詳細を示す図である。It is a figure which shows the detail of the encoding part of a client terminal. 合成ストリームの復号画像の例を示す図である。It is a figure which shows the example of the decoded image of a synthetic | combination stream. 復号画像中の各MBのMB番号を示す図である。It is a figure which shows MB number of each MB in a decoded image. クライアントごとのヘッダ更新情報を示す図である。It is a figure which shows the header update information for every client. MB番号決定およびヘッダ生成の処理フローの例を示す図である。It is a figure which shows the example of the processing flow of MB number determination and a header production | generation. 各VP単位の符号化ストリームに付与されるヘッダ情報を示す図である。It is a figure which shows the header information provided to the encoding stream of each VP unit. クライアント端末において生成される符号化ストリームを示す図である。It is a figure which shows the encoding stream produced | generated in a client terminal. 各クライアントからサーバ装置へ送信される符号化ストリームまたはサーバ装置において生成される合成ストリームの例を示す図である。It is a figure which shows the example of the encoding stream transmitted from each client to a server apparatus, or the synthetic | combination stream produced | generated in a server apparatus. 各クライアント端末における復号画像更新処理を説明する図である。It is a figure explaining the decoding image update process in each client terminal. 従来の多地点テレビ会議システムの例を示す図である。It is a figure which shows the example of the conventional multipoint video conference system. 従来の他の多地点テレビ会議システムの例を示す図である。It is a figure which shows the example of the other conventional multipoint video conference system.

符号の説明Explanation of symbols

1,100,120 サーバ装置
2,110a〜110z,130a〜130z クライアント端末
11,25,101a〜101z,121a〜121z,135 受信バッファ
12 ストリーム選択・連結部
13,24,105,122a〜122z,134 送信バッファ
14 ヘッダ更新情報生成部
15 ヘッダ更新情報送信部
21,131a〜131z カメラ
22,132a〜132z ディスプレイ
23,133 符号化部
26,102a〜102z,136 復号部
27 表示制御部
28 MB番号決定部
103,137 画像合成部
104 再符号化部
231 減算部
232 DCT部
233 量子化部
234 逆量子化部
235 逆DCT部
236 加算部
237 フレームメモリ
238 動き予測部
239 動き補償部
240 可変長符号化部
241 符号量制御部
DESCRIPTION OF SYMBOLS 1,100,120 Server apparatus 2,110a-110z, 130a-130z Client terminal 11,25,101a-101z, 121a-121z, 135 Reception buffer 12 Stream selection / concatenation part 13,24,105,122a-122z, 134 Transmission buffer 14 Header update information generation unit 15 Header update information transmission unit 21, 131a to 131z Camera 22, 132a to 132z Display 23, 133 Encoding unit 26, 102a to 102z, 136 Decoding unit 27 Display control unit 28 MB number determination unit 103, 137 Image synthesizing unit 104 Re-encoding unit 231 Subtraction unit 232 DCT unit 233 Quantization unit 234 Inverse quantization unit 235 Inverse DCT unit 236 Addition unit 237 Frame memory 238 Motion prediction unit 239 Motion compensation unit 240 Variable length encoding unit 2 41 Code amount control unit

Claims (5)

複数のクライアント端末と,前記クライアント端末にネットワークを介して接続され,前記クライアント端末間の通信会議を制御するサーバ装置とを備える多地点テレビ会議システムにおいて,
前記サーバ装置は,
各クライアントの画像の符号化データが,複数のクライアントの画像を合成したときの合成画像のどの位置に相当するかを決定するためのヘッダ更新情報を各クライアント端末に通知する手段と,
前記各クライアント端末からビデオパケット単位で符号化ストリームを受信する手段と,
前記各クライアント端末から受信した符号化ストリームを,順次,ビデオパケット単位で前記各クライアント端末へ配信する手段とを備え,
前記各クライアント端末は,
自端末における入力映像を符号化する手段と,
符号化データにビデオパケット単位でヘッダ情報を付加し,そのヘッダ内に前記サーバ装置から通知されたヘッダ更新情報に基づいて決定した合成画像における符号化データの位置を示す情報を設定する手段と,
前記ヘッダ情報が付加されたビデオパケットの符号化ストリームを前記サーバ装置へ送信する手段と,
前記サーバ装置からビデオパケット単位で符号化ストリームを受信する手段と,
受信した符号化ストリームを復号する手段と,
復号した画像データを前記ヘッダ内に設定された位置に表示する手段とを備える
ことを特徴とする多地点テレビ会議システム。
In a multipoint video conference system comprising a plurality of client terminals and a server device connected to the client terminals via a network and controlling a communication conference between the client terminals,
The server device
Means for notifying each client terminal of header update information for determining which position of the composite image when the encoded data of each client image corresponds to the composite image of a plurality of clients;
Means for receiving an encoded stream from each client terminal in units of video packets;
Means for sequentially delivering the encoded stream received from each client terminal to each client terminal in units of video packets;
Each of the client terminals is
Means for encoding the input video at the terminal;
Means for adding header information to the encoded data in units of video packets, and setting information indicating the position of the encoded data in the composite image determined based on the header update information notified from the server device in the header;
Means for transmitting an encoded stream of a video packet to which the header information is added to the server device;
Means for receiving an encoded stream from the server device in units of video packets;
Means for decoding the received encoded stream;
Means for displaying the decoded image data at a position set in the header. A multipoint video conference system, comprising:
複数のクライアント端末と,前記クライアント端末にネットワークを介して接続され,前記クライアント端末間の通信会議を制御するサーバ装置とを備える多地点テレビ会議制御方法において,
前記サーバ装置が,各クライアントの画像の符号化データが複数のクライアントの画像を合成したときの合成画像のどの位置に相当するかを決定するためのヘッダ更新情報を各クライアント端末に通知する過程と,
前記各クライアント端末が,自端末における入力映像を符号化する過程と,
前記各クライアント端末が,符号化データにビデオパケット単位でヘッダ情報を付加し,そのヘッダ内に前記サーバ装置から通知されたヘッダ更新情報に基づいて決定した合成画像における符号化データの位置を示す情報を設定する過程と,
前記各クライアント端末が,前記ヘッダ情報が付加されたビデオパケットの符号化ストリームを前記サーバ装置へ送信する過程と,
前記サーバ装置が,前記各クライアント端末からビデオパケット単位で符号化ストリームを受信する過程と,
前記サーバ装置が,前記各クライアント端末から受信した符号化ストリームを,順次,ビデオパケット単位で前記各クライアント端末へ配信する過程と,
前記各クライアント端末が,前記サーバ装置からビデオパケット単位で符号化ストリームを受信する過程と,
前記各クライアント端末が,受信した符号化ストリームを復号する過程と,
前記各クライアント端末が,復号した画像データを前記ヘッダ内に設定された位置に表示する過程とを有する
ことを特徴とする多地点テレビ会議制御方法。
In a multipoint video conference control method comprising a plurality of client terminals and a server device connected to the client terminals via a network and controlling a communication conference between the client terminals,
A process in which the server device notifies each client terminal of header update information for determining which position of the synthesized image when the encoded data of each client image is composed of a plurality of client images; ,
A process in which each of the client terminals encodes an input video in the terminal;
Information indicating the position of the encoded data in the composite image determined by each client terminal by adding header information to the encoded data in units of video packets and based on the header update information notified from the server device in the header The process of setting
A process in which each client terminal transmits an encoded stream of a video packet to which the header information is added to the server device;
A process in which the server device receives an encoded stream from each client terminal in units of video packets;
A process in which the server device sequentially delivers the encoded stream received from each client terminal to each client terminal in units of video packets;
Each client terminal receives a coded stream from the server device in units of video packets;
Each client terminal decoding a received encoded stream;
The multi-point video conference control method, wherein each client terminal has a process of displaying the decoded image data at a position set in the header.
複数のクライアント端末にネットワークを介して接続され,前記クライアント端末間の通信会議を制御する多地点テレビ会議システムにおけるサーバ装置であって,
各クライアントの画像の符号化データが,複数のクライアントの画像を合成したときの合成画像のどの位置に相当するかを決定するためのヘッダ更新情報を各クライアント端末に通知する手段と,
前記各クライアント端末からビデオパケット単位で符号化ストリームを受信する手段と,
前記各クライアント端末から受信した符号化ストリームを,順次,ビデオパケット単位で前記各クライアント端末へ配信する手段とを備える
ことを特徴とするサーバ装置。
A server device in a multipoint video conference system that is connected to a plurality of client terminals via a network and controls a communication conference between the client terminals,
Means for notifying each client terminal of header update information for determining which position of the composite image when the encoded data of each client image corresponds to the composite image of a plurality of clients;
Means for receiving an encoded stream from each client terminal in units of video packets;
Means for delivering the encoded stream received from each client terminal sequentially to each client terminal in units of video packets.
複数のクライアント端末にネットワークを介して接続され,前記クライアント端末間の通信会議を制御する多地点テレビ会議システムにおけるサーバ装置のコンピュータに実行させるための多地点テレビ会議制御プログラムであって,
各クライアントの画像の符号化データが,複数のクライアントの画像を合成したときの合成画像のどの位置に相当するかを決定するためのヘッダ更新情報を各クライアント端末に通知する手段と,
前記各クライアント端末からビデオパケット単位で符号化ストリームを受信する手段と,
前記各クライアント端末から受信した符号化ストリームを,順次,ビデオパケット単位で前記各クライアント端末へ配信する手段として,
前記コンピュータを機能させるための多地点テレビ会議制御プログラム。
A multipoint video conference control program for causing a computer of a server device in a multipoint video conference system connected to a plurality of client terminals via a network to control a communication conference between the client terminals,
Means for notifying each client terminal of header update information for determining which position of the composite image when the encoded data of each client image corresponds to the composite image of a plurality of clients;
Means for receiving an encoded stream from each client terminal in units of video packets;
As a means for sequentially delivering the encoded stream received from each client terminal to each client terminal in units of video packets,
A multipoint video conference control program for causing the computer to function.
複数のクライアント端末にネットワークを介して接続され,前記クライアント端末間の通信会議を制御する多地点テレビ会議システムにおけるサーバ装置のコンピュータに実行させるための多地点テレビ会議制御プログラムを記録したコンピュータ読み取り可能な記録媒体であって,
各クライアントの画像の符号化データが,複数のクライアントの画像を合成したときの合成画像のどの位置に相当するかを決定するためのヘッダ更新情報を各クライアント端末に通知する手段と,
前記各クライアント端末からビデオパケット単位で符号化ストリームを受信する手段と,
前記各クライアント端末から受信した符号化ストリームを,順次,ビデオパケット単位で前記各クライアント端末へ配信する手段として,
前記コンピュータを機能させるためのプログラムを記録した
ことを特徴とする多地点テレビ会議制御プログラム記録媒体。
A computer-readable recording medium having a multipoint video conference control program connected to a plurality of client terminals via a network and recorded by a server computer in a multipoint video conference system for controlling a communication conference between the client terminals. A recording medium,
Means for notifying each client terminal of header update information for determining which position of the composite image when the encoded data of each client image corresponds to the composite image of a plurality of clients;
Means for receiving an encoded stream from each client terminal in units of video packets;
As a means for sequentially delivering the encoded stream received from each client terminal to each client terminal in units of video packets,
A multipoint video conference control program recording medium, wherein a program for causing the computer to function is recorded.
JP2004158493A 2004-05-28 2004-05-28 Multi-point video conference system, multi-point video conference control method, server device, multi-point video conference control program, and program recording medium thereof Expired - Fee Related JP4081044B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004158493A JP4081044B2 (en) 2004-05-28 2004-05-28 Multi-point video conference system, multi-point video conference control method, server device, multi-point video conference control program, and program recording medium thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004158493A JP4081044B2 (en) 2004-05-28 2004-05-28 Multi-point video conference system, multi-point video conference control method, server device, multi-point video conference control program, and program recording medium thereof

Publications (2)

Publication Number Publication Date
JP2005341324A true JP2005341324A (en) 2005-12-08
JP4081044B2 JP4081044B2 (en) 2008-04-23

Family

ID=35494359

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004158493A Expired - Fee Related JP4081044B2 (en) 2004-05-28 2004-05-28 Multi-point video conference system, multi-point video conference control method, server device, multi-point video conference control program, and program recording medium thereof

Country Status (1)

Country Link
JP (1) JP4081044B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011191A (en) * 2006-06-29 2008-01-17 Matsushita Electric Ind Co Ltd Video encoding/compositing apparatus, video encoding/compositing method and video transmitting system

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05130601A (en) * 1991-11-07 1993-05-25 Canon Inc Multi-spot controller
US5453780A (en) * 1994-04-28 1995-09-26 Bell Communications Research, Inc. Continous presence video signal combiner
JPH10164539A (en) * 1996-11-29 1998-06-19 Nec Corp Multi-screen transmission type multi-spot video conference system
JPH10304328A (en) * 1997-04-25 1998-11-13 Fujitsu Ltd System for generating multi-screen synthesized signal in television conference system
JPH11187372A (en) * 1997-12-22 1999-07-09 Kyocera Corp Multi-spot television conference system
JP2000078553A (en) * 1998-08-28 2000-03-14 Hitachi Ltd Ring type multi-point connection system, communication terminal and recording medium
JP2002290940A (en) * 2001-03-23 2002-10-04 Nec Eng Ltd Video conference system
CN1571508A (en) * 2003-07-19 2005-01-26 华为技术有限公司 A method for implementing multi-frame
JP2005039757A (en) * 2003-07-18 2005-02-10 Lg Electronics Inc Digital video signal processing apparatus and its method for mobile communication system

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05130601A (en) * 1991-11-07 1993-05-25 Canon Inc Multi-spot controller
US5453780A (en) * 1994-04-28 1995-09-26 Bell Communications Research, Inc. Continous presence video signal combiner
JPH10164539A (en) * 1996-11-29 1998-06-19 Nec Corp Multi-screen transmission type multi-spot video conference system
JP3097736B2 (en) * 1996-11-29 2000-10-10 日本電気株式会社 Multi-screen transmission type multi-point video conference system
JPH10304328A (en) * 1997-04-25 1998-11-13 Fujitsu Ltd System for generating multi-screen synthesized signal in television conference system
JPH11187372A (en) * 1997-12-22 1999-07-09 Kyocera Corp Multi-spot television conference system
JP2000078553A (en) * 1998-08-28 2000-03-14 Hitachi Ltd Ring type multi-point connection system, communication terminal and recording medium
JP2002290940A (en) * 2001-03-23 2002-10-04 Nec Eng Ltd Video conference system
JP2005039757A (en) * 2003-07-18 2005-02-10 Lg Electronics Inc Digital video signal processing apparatus and its method for mobile communication system
CN1571508A (en) * 2003-07-19 2005-01-26 华为技术有限公司 A method for implementing multi-frame
JP2007507131A (en) * 2003-07-19 2007-03-22 ▲ほあ▼▲うぇい▼技▲しゅ▼有限公司 How to achieve multi-screen

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008011191A (en) * 2006-06-29 2008-01-17 Matsushita Electric Ind Co Ltd Video encoding/compositing apparatus, video encoding/compositing method and video transmitting system

Also Published As

Publication number Publication date
JP4081044B2 (en) 2008-04-23

Similar Documents

Publication Publication Date Title
JP4389883B2 (en) Encoding apparatus, encoding method, encoding method program, and recording medium recording the encoding method program
EP1721462B1 (en) Arrangement and method for generating continuous presence images
CN105791882A (en) Video coding method and device
JP2000013769A (en) Multipoint image conference system and its realizing method
WO1998006222A1 (en) Picture and sound decoding device, picture and sound encoding device, and information transmission system
KR101641184B1 (en) Method for processing and mixing multiple feed videos for video conference, video conference terminal apparatus, video conference server and video conference system using the same
CN111385515A (en) Video conference data transmission method and video conference data transmission system
US20060120454A1 (en) Method and apparatus for encoding/decoding video signal using motion vectors of pictures in base layer
US20080008241A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
JP2005341075A (en) Scalable communication conference system, server device, scalable communication conference method, scalable communication conference control method, scalable communication conference control program, and medium for recording the program
US20070242747A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20070223573A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
US20070280354A1 (en) Method and apparatus for encoding/decoding a first frame sequence layer based on a second frame sequence layer
JP2005341325A (en) Multi-point video conference system, multi-point video conference control method, server apparatus, multi-point video conference control program, and program recording medium thereof
JP4081044B2 (en) Multi-point video conference system, multi-point video conference control method, server device, multi-point video conference control program, and program recording medium thereof
JP2004537931A (en) Method and apparatus for encoding a scene
JPH10262228A (en) Communication system, multi-point controller and video information display method
JP4795141B2 (en) Video coding / synthesizing apparatus, video coding / synthesizing method, and video transmission system
JP2009081622A (en) Moving image compression encoder
JP2005341323A (en) Multi-point video conference system, multi-point video conference control method, server apparatus, multi-point video conference control program, and program recording medium thereof
US20060133498A1 (en) Method and apparatus for deriving motion vectors of macroblocks from motion vectors of pictures of base layer when encoding/decoding video signal
JP5760458B2 (en) TV conference system
JP2004120779A (en) Multi-point tv conference system
KR101492980B1 (en) Apparatus and method for processing multi-view images
JPH0846928A (en) Picture encoding pre-processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20071015

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080207

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: R3D02

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110215

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120215

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130215

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees