JPH11112498A - Control information transmitting method for video conference communication and video conference communication set-up method - Google Patents

Control information transmitting method for video conference communication and video conference communication set-up method

Info

Publication number
JPH11112498A
JPH11112498A JP10200816A JP20081698A JPH11112498A JP H11112498 A JPH11112498 A JP H11112498A JP 10200816 A JP10200816 A JP 10200816A JP 20081698 A JP20081698 A JP 20081698A JP H11112498 A JPH11112498 A JP H11112498A
Authority
JP
Japan
Prior art keywords
terminal
communication
data
video
terminals
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP10200816A
Other languages
Japanese (ja)
Other versions
JP3308906B2 (en
Inventor
Yoji Shibata
洋二 柴田
Masaaki Takizawa
正明 滝沢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP20081698A priority Critical patent/JP3308906B2/en
Publication of JPH11112498A publication Critical patent/JPH11112498A/en
Application granted granted Critical
Publication of JP3308906B2 publication Critical patent/JP3308906B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Data Exchanges In Wide-Area Networks (AREA)
  • Telephonic Communication Services (AREA)

Abstract

PROBLEM TO BE SOLVED: To realize a multi-spot video conference only by participating terminals without requiring MCU by allowing each communication terminal to house control information in a channel assigned to its own terminal within a communication frame so as to transmit through a digital communication line. SOLUTION: A frame recommended by CCITT, H.221 is used as the communication frame between terminals. The constitution of a multi-spot video conference system obtained by connecting the terminals in the state of a loop, the change of constitution, the designation of video data to display-output to each terminal, etc., are realized by exchanging control information between a chairman terminal and the other terminals. The area of MLP data is secured on the sub-channel #8 602 of an H.221 frame and plural channels on this area are assigned to each different terminal. Then, each terminal transmits control information by using an assigned channel. An MLP data area is secured by a command on BAS 601.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【産業上の利用分野】本発明は、テレビ会議・電話端末
に関し、特に、3以上の多地点のテレビ会議・電話端末
を接続して会話や会議を行なう多地点テレビ会議通信方
法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a video conference / telephone terminal, and more particularly to a multi-point video conference communication method in which three or more multi-point video conference / telephone terminals are connected to conduct a conversation or a conference. .

【0002】[0002]

【従来の技術】従来の多地点テレビ会議システムとして
は、CCITT(International Tel
egraph and Telephone Cons
ultative Committee)勧告H.32
0において提案されている多地点テレビ会議システムが
知られている。
2. Description of the Related Art Conventional multipoint video conference systems include CCITT (International Tel).
egrap and Telephone Cons
(ultimate Committee) Recommendation H. 32
The multipoint teleconferencing system proposed in US Pat.

【0003】この多地点テレビ会議システムは、テレビ
会議・電話端末(以下、単に「端末」という)の他に、
多地点テレビ会議を実現するためにMCUを設けてい
る。そして、多地点テレビ会議に参加する全ての端末と
MCUとを接続し、MCUが多地点間の通信を制御する
ことにより多地点テレビ会議を実現している。
This multipoint video conference system includes a video conference / telephone terminal (hereinafter simply referred to as a "terminal"),
An MCU is provided to realize a multipoint video conference. Then, all terminals participating in the multipoint video conference are connected to the MCU, and the MCU controls the multipoint communication to realize the multipoint video conference.

【0004】[0004]

【発明が解決しようとする課題】前記従来の多地点テレ
ビ会議システムによれば、MCUを設け、MCUと多地
点テレビ会議に参加する全ての端末を接続することによ
り多地点テレビ会議を実現するため、以下のような問題
が生じる。
According to the conventional multi-point video conference system, an MCU is provided, and the MCU is connected to all terminals participating in the multi-point video conference to realize the multi-point video conference. However, the following problem occurs.

【0005】1.MCUの収容能力によって、多地点テ
レビ会議に参加できる端末数、通信速度に制限がある。
[0005] 1. The number of terminals that can participate in a multipoint video conference and the communication speed are limited by the capacity of the MCU.

【0006】2.多地点テレビ会議に参加する全ての端
末が、多地点テレビ会議に参加可能な状態にあっても、
MCUが動作していない場合、もしくは、全てのMCU
が他グループの多地点会議のために塞がっている場合に
は多地点テレビ会議を開催できない。
[0006] 2. Even if all terminals participating in the multipoint video conference are in a state where they can participate in the multipoint video conference,
If the MCU is not operating, or if all MCUs
Can not hold a multipoint video conference if is blocked by another group for a multipoint conference.

【0007】3.MCUが、多地点テレビ会議に参加す
る端末から遠地点にある場合、通信料金が高価となる。
[0007] 3. When the MCU is located at an apogee from a terminal participating in the multipoint video conference, the communication fee becomes high.

【0008】そこで、本発明は、MCUを必要とせず
に、多地点テレビ会議に参加する端末のみで多地点テレ
ビ会議を実現できる多地点テレビ会議通信方法を提供す
ることを目的とする。
[0008] Therefore, an object of the present invention is to provide a multipoint videoconference communication method capable of realizing a multipoint videoconference only with terminals participating in the multipoint videoconference without requiring an MCU.

【0009】[0009]

【課題を解決するための手段】前記目的達成のために、
本発明は、通信フレームを伝送するディジタル通信路
と、前記ディジタル通信路によってリング状に接続され
た複数のテレビ電話・会議端末とを有し、前記テレビ電
話・会議端末は、前記複数のテレビ電話・会議端末と複
数のテレビ電話・会議端末間を接続するディジタル通信
路によって構成されるループを、前記通信フレームが周
回するように、受信した通信フレームを前記ループ上、
下流に位置するテレビ電話・会議端末に中継する中継手
段と、前記中継手段が中継する通信フレームに、発生し
たテレビ電話・会議用データを格納することにより、ル
ープ上の他のテレビ電話・会議端末に発生したテレビ電
話・会議用データを伝える送信手段と、前記中継手段が
中継する通信フレームから、先に自テレビ電話・会議端
末の送信手段が格納し、前記ループを周回してきたテレ
ビ電話・会議用データを取り除くキャンセル手段とを有
することを特徴とする多地点テレビ会議システムを提供
する。
To achieve the above object,
The present invention includes a digital communication path for transmitting a communication frame, and a plurality of videophone / conference terminals connected in a ring by the digital communication path, wherein the videophone / conference terminal includes the plurality of videophone / conference terminals. A loop formed by a digital communication path connecting a conference terminal and a plurality of videophones / conference terminals, such that the communication frame circulates;
A relay unit for relaying to a videophone / conference terminal located downstream, and storing the generated videophone / conference data in a communication frame relayed by the relay unit, so that other videophone / conference terminals on the loop can be stored. Transmitting means for transmitting the videophone / conference data generated in the videophone / conference terminal, and transmitting means for the videophone / conference terminal stored in the communication frame relayed by the relay means, and the videophone / conference which has been circulated through the loop. And a canceling means for removing the use data.

【0010】前記目的達成のために、本発明は、デジタ
ル通信回線を介して複数の通信端末をループ状に接続
し、上記ループ上の予め定められた方向にテレビ会議デ
ータを格納した通信フレームを巡回させて上記複数の通
信端末間でテレビ会議通信を行うテレビ会議通信におけ
る制御情報の送信方法であって、上記ループ状に接続し
た通信端末間を巡回する通信フレーム内に上記複数の通
信端末を制御するための制御情報を格納する領域を確保
し、上記領域内の複数のチャネルを各々異なる通信端末
に割り当て、上記各々の通信端末に上記複数のチャネル
をそれぞれ割り当て、上記各通信端末は、自分自身の端
末に割り当てられた領域に制御情報を格納して上記デジ
タル通信回線を介して送信することを特徴とするテレビ
会議通信における制御情報の送信方法を提供する。
In order to achieve the above object, the present invention provides a communication frame in which a plurality of communication terminals are connected in a loop via a digital communication line, and a teleconference data storing video conference data in a predetermined direction on the loop. A method of transmitting control information in a video conference communication in which the plurality of communication terminals perform a video conference communication between the plurality of communication terminals, wherein the plurality of communication terminals are included in a communication frame that circulates between the communication terminals connected in a loop. An area for storing control information for control is secured, a plurality of channels in the area are allocated to different communication terminals, and the plurality of channels are allocated to the respective communication terminals. Control in video conference communication, characterized by storing control information in an area allocated to its own terminal and transmitting it via the digital communication line. To provide a method of transmitting information.

【0011】[0011]

【作用】本発明に係る多地点テレビ会議システムによれ
ば、前記テレビ電話・会議端末は、前記複数のテレビ電
話・会議端末と複数のテレビ電話・会議端末間を接続す
るディジタル通信路によって構成されるループを、通信
フレームを周回させる。そして、各端末は、中継する通
信フレームに発生したテレビ電話・会議用データを格納
することにより、ループ上の他のテレビ電話・会議端末
に発生したテレビ電話・会議用データを伝える。また、
ループを周回してきた通信フレームから、先に自身が発
信したテレビ電話・会議用データを取り除くことによ
り、テレビ電話・会議用データ2重の送信や、不要なテ
レビ電話・会議用データの蓄積を排除する。
According to the multipoint video conference system according to the present invention, the video telephone / conference terminal is constituted by a digital communication path connecting the plurality of video telephone / conference terminals and the plurality of video telephone / conference terminals. Loop around the communication frame. Each terminal transmits the generated videophone / conference data to another videophone / conference terminal on the loop by storing the generated videophone / conference data in the relayed communication frame. Also,
By removing the videophone / conference data transmitted by the user from the communication frame that has circulated around the loop, transmission of videophone / conference data twice and unnecessary accumulation of videophone / conference data are eliminated. I do.

【0012】また、本発明によれば、通信フレームを、
端末が接続されたデジタル通信回線(複数のテレビ会議
端末がループ状に接続されたデジタル通信回線)上を周
回させる。そして、この回線上を周回する通信フレーム
に多地点テレビ会議を制御するための制御情報を格納す
る。このようにすることで、多地点テレビ会議システム
を構成する各テレビ会議端末間で制御情報の交換が可能
となる。
According to the present invention, a communication frame is
It circulates on a digital communication line to which terminals are connected (a digital communication line in which a plurality of video conference terminals are connected in a loop). Then, control information for controlling the multipoint video conference is stored in a communication frame circulating on the line. In this way, control information can be exchanged between the video conference terminals constituting the multipoint video conference system.

【0013】[0013]

【実施例】以下、本発明に係る多地点テレビ会議システ
ムの一実施例を説明する。
DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a multipoint video conference system according to the present invention will be described below.

【0014】まず、図1に本実施例に係る多地点テレビ
会議システムの構成を、多地点テレビ会議に参加する端
末数を4として示す。
First, FIG. 1 shows the configuration of a multipoint video conference system according to this embodiment, in which the number of terminals participating in the multipoint video conference is four.

【0015】図中、1、2、3、4が端末、5がデジタ
ル通信網である。また、端末A1は、本実施例におい
て、多地点テレビ会議の議長としての機能を担う議長端
末である。なお、本実施例においては、デジタル通信網
としてCCITT、Iシリーズ勧告で規定されているI
SDNを想定する。また、説明を簡単にするために、各
端末は、ISDNと2B+Dの基本インタフェースで接
続されているものと想定する。
In the figure, 1, 2, 3, and 4 are terminals and 5 is a digital communication network. In this embodiment, the terminal A1 is a chair terminal that functions as a chair of a multipoint video conference. In the present embodiment, as a digital communication network, CCITT, an I
Assume SDN. Further, for the sake of simplicity, it is assumed that each terminal is connected to ISDN by a basic interface of 2B + D.

【0016】さて、本実施例では、多地点テレビ会議に
参加する各端末をループ状に接続する。すなわち、図示
するように、端末A1は、それぞれ異なるBチャネルで
端末D4と端末B2に接続し、端末B2は端末A1と端
末C3に接続し、端末C3は、端末B2と端末D4に接
続し、端末D4は端末C3と端末A1に接続する。
In this embodiment, each terminal participating in the multipoint video conference is connected in a loop. That is, as shown, terminal A1 connects to terminals D4 and B2 with different B channels, terminal B2 connects to terminals A1 and C3, terminal C3 connects to terminals B2 and D4, Terminal D4 connects to terminal C3 and terminal A1.

【0017】次に、図2に、本実施例に係る端末の構成
を示す。
Next, FIG. 2 shows a configuration of a terminal according to the present embodiment.

【0018】図中、200はCRTやビデオカメラ等の
ビデオ入出力機器、201はビデオ情報を符号化/復号
化するビデオコーデック、202はビデオ情報の多重化
/分離処理を行なうビデオパス制御部、210はスピー
カやマイクロフォン等のオーデイオ入出力機器、211
はオーディオ情報を符号化/復号化するオーディオコー
デック、212はオーディオ情報の処理を行なうオーデ
ィオ処理部、220は多地点テレビ会議に伴う各部の制
御を行なう会議制御部、230はテレマティック装置、
240は端末全体の制御を行なうシステム制御部、25
0はデジタル通信網5との間で呼制御等の通信制御を行
なうエンド・網信号制御部、260は後述するH221
フレームのフレーミング処理を行なうMUX/DMU
X、270は網との下位レイヤのインタフェースを担う
網インタフェース部である。また、システム制御部は他
の端末との間の制御データや通知データの処理を担うエ
ンドエンド信号制御部を含む。
In FIG. 1, reference numeral 200 denotes a video input / output device such as a CRT or a video camera; 201, a video codec for encoding / decoding video information; 202, a video path control unit for multiplexing / demultiplexing video information; 210 is an audio input / output device such as a speaker or a microphone;
Is an audio codec that encodes / decodes audio information, 212 is an audio processing unit that processes audio information, 220 is a conference control unit that controls each unit associated with a multipoint video conference, 230 is a telematic device,
240 is a system control unit for controlling the entire terminal, 25
Reference numeral 0 denotes an end / network signal control unit for performing communication control such as call control with the digital communication network 5, and 260 denotes an H221 described later.
MUX / DMU for framing frames
X and 270 are network interface units that serve as lower layer interfaces with the network. Further, the system control unit includes an end-end signal control unit that handles control data and notification data with other terminals.

【0019】これらのうち、ビデオ入出力機器200、
ビデオコーデック201、オーデイオ入出力機器21
0、オーディオコーデック211、テレマティック装置
230、システム制御部240、エンド・網信号制御部
250、MUX/DMUX260、網インタフェース部
270、エンドエンド信号制御部の詳細と、通常の1対
1通信における動作は、CCITT勧告H.320、
H.221、H.242、H.261に規定されている
通りであるので、説明を省略し、以下、多地点テレビ会
議を実行する場合において、前記通常の1対1通信の場
合と異なる点を説明していく。
Among them, the video input / output device 200,
Video codec 201, audio input / output device 21
0, details of the audio codec 211, the telematic device 230, the system control unit 240, the end / network signal control unit 250, the MUX / DMUX 260, the network interface unit 270, the end / end signal control unit, and the operation in the normal one-to-one communication Is CCITT Recommendation H. 320,
H. 221, H .; 242, H .; 261, the description is omitted, and the following description will focus on points that are different from those in the normal one-to-one communication when a multipoint video conference is performed.

【0020】以下、本実施例に係る多地点テレビ会議シ
ステムの動作の概要を説明する。
Hereinafter, an outline of the operation of the multipoint video conference system according to the present embodiment will be described.

【0021】図3、図4、図5は、端末A、B、C、D
の4端末が多地点テレビ会議を行なっている場合におけ
る、各端末のビデオ入出力機器200でのビデオ出力
と、オーディオ出力機器210でのオーディオ出力のよ
うすを示したものである。
FIGS. 3, 4 and 5 show terminals A, B, C and D
3 shows video output from the video input / output device 200 and audio output from the audio output device 210 of each terminal when the four terminals are in a multipoint video conference.

【0022】図3に示した例は、全ての端末が1つの端
末から発信されたビデオ情報を出力する例である。図3
Aは、端末Bより発信されたビデオ情報を全ての端末A
BCDが表示出力している場合を示している。ビデオ情
報の発信元端末は、通常、会議における発言者が使用し
ている端末であり、発信元端末は、前記議長端末よりの
指示によって決定されるか、もしくは、最も大きなレベ
ルのオーデイオ情報を発信している端末に自動的に決定
される。図3Bは、端末Bから端末Cにビデオ情報の発
信元端末が切り替わったところを示している。
The example shown in FIG. 3 is an example in which all terminals output video information transmitted from one terminal. FIG.
A transmits the video information transmitted from terminal B to all terminals A
This shows a case where a BCD is outputting a display. The source terminal of the video information is usually the terminal used by the speaker in the conference, and the source terminal is determined by an instruction from the chair terminal or transmits the highest level of audio information. Is automatically determined by the terminal that is running. FIG. 3B shows a state where the source terminal of the video information is switched from terminal B to terminal C.

【0023】一方、各端末におけるオーディオ出力は、
出力するビデオ情報によらずに、会議に参加している他
端末から受信したオーディオ情報を全てミックスして出
力する。但し、自端末が発信したオーディオ情報につい
ては、エコーキャンセルの技術を用いて自端末では出力
しないようにする。
On the other hand, the audio output at each terminal is
Regardless of the video information to be output, all audio information received from other terminals participating in the conference is mixed and output. However, audio information transmitted by the own terminal is not output by the own terminal using an echo canceling technique.

【0024】すなわち、図3に示した例では、端末Aで
端末B、C、Dが発信したオーデイオ情報を出力し、端
末Bで端末A、C、Dが発信したオーデイオ情報を出力
し、端末Cで端末A、B、Dが発信したオーデイオ情報
を出力し、端末Dで端末A、B、Cが発信したオーデイ
オ情報を出力する。
That is, in the example shown in FIG. 3, the terminal A outputs the audio information transmitted by the terminals B, C and D, and the terminal B outputs the audio information transmitted by the terminals A, C and D. The terminal C outputs the audio information transmitted by the terminals A, B and D, and the terminal D outputs the audio information transmitted by the terminals A, B and C.

【0025】図4に示した例は、全ての端末が、異なる
2つの端末から発信された2つのビデオ情報を出力する
例である。図4は、端末Aと端末Dより発信された2つ
のビデオ情報を全ての端末A、B、C、Dが上下に表示
出力しているところを示している。この場合も、表示出
力する2つの発信元端末は、前記議長端末よりの指示に
よって決定されるか、もしくは、大きなレベルのオーデ
イオ情報を発信している順に2つの端末に自動的に決定
される。
The example shown in FIG. 4 is an example in which all terminals output two pieces of video information transmitted from two different terminals. FIG. 4 shows that all the terminals A, B, C, and D display and output two pieces of video information transmitted from the terminals A and D vertically. Also in this case, the two originating terminals to be displayed and output are determined by the instruction from the chair terminal, or are automatically determined to the two terminals in the order of transmitting the audio information of a large level.

【0026】なお、図4の場合も先に図3に示した場合
と同様に、音声については、出力するビデオ情報によら
ずに、会議に参加している他端末から受信したオーディ
オ情報を全てミックスして出力する。
In the case of FIG. 4, as in the case shown in FIG. 3, all audio information received from other terminals participating in the conference is output regardless of the video information to be output. Mix and output.

【0027】図5に示した例は、全ての端末が、テレビ
会議に参加している全ての端末の4つのビデオ情報を出
力する例である。図5は、端末A、B、C、Dが、4分
割した画面上に、端末A、B、C、Dのビデオ情報を表
示出力するようすを示している。
The example shown in FIG. 5 is an example in which all terminals output four pieces of video information of all terminals participating in a video conference. FIG. 5 shows a state in which the terminals A, B, C, and D display and output the video information of the terminals A, B, C, and D on the screen divided into four.

【0028】なお、図5の場合も先に図3に示した場合
と同様に、音声については、出力するビデオ情報によら
ずに、会議に参加している他端末から受信したオーディ
オ情報を全てミックスして出力する。
In the case of FIG. 5, as in the case shown in FIG. 3, all audio information received from other terminals participating in the conference is output regardless of the video information to be output. Mix and output.

【0029】5端末以上の端末で多地点テレビ会議を実
行する場合は、表示出力する4つの発信元端末は、前記
議長端末よりの指示によって決定するか、もしくは、大
きなレベルのオーデイオ情報を発信している順に4つの
端末に自動的に決定する。
When a multipoint video conference is to be carried out with five or more terminals, the four source terminals to be displayed and output are determined according to an instruction from the chair terminal, or transmit a large level of audio information. The four terminals are automatically determined in this order.

【0030】さて、次に、本実施例において端末間の通
信に用いる通信フレームについて説明する。
Next, a communication frame used for communication between terminals in this embodiment will be described.

【0031】本実施例では、端末間の通信フレームとし
て、CCITT、H.221で勧告されているフレーム
(本明細書中「H.221フレーム」という)を用い
る。
In the present embodiment, CCITT, H.264, etc. are used as communication frames between terminals. 221 (referred to as “H.221 frame” in this specification).

【0032】図6に、このH.221フレームの構成を
示す。
FIG. 2 shows a configuration of a 221 frame.

【0033】図中、600がフレーム同期に用いるFA
S、601がコマンドや端末能力等の送信に用いるBA
S、602はサブチャネル#8でありMLPメッセージ
の送信等に用いられる。その他の領域603はビデオデ
ータやオーディオデータやデータの送信に用いられる領
域である。
In the figure, reference numeral 600 denotes an FA used for frame synchronization.
S, BA used to transmit commands, terminal capabilities, etc.
S and 602 are subchannels # 8, which are used for transmitting MLP messages and the like. The other area 603 is an area used for transmitting video data, audio data, and data.

【0034】領域603の、ビデオデータやオーディオ
データやデータへの割り当ては、BAS601にコマン
ドや端末能力によって指定される。
The assignment of the area 603 to video data, audio data, and data is specified in the BAS 601 by a command or terminal capability.

【0035】以下、本実施例に係る多地点テレビ会議シ
ステムの詳細について説明する。
The details of the multipoint video conference system according to the present embodiment will be described below.

【0036】まず、図3、4、5に示した多地点テレビ
会議システムのビデオ出力を実現する手段について説明
する。いま、4端末A、B、C、Dが、図1に示すよう
にループ状に接続されているものとする。
First, means for realizing video output of the multipoint video conference system shown in FIGS. Now, it is assumed that four terminals A, B, C, and D are connected in a loop as shown in FIG.

【0037】初めに、各端末のビデオデータの送信フレ
ームについて説明する。ビデオデータはビデオ入出力機
器200で取り込んだビデオ情報をビデオコーデック2
01でDCT等により符号化したデータである。また、
ビデオデータの送信フレームは前記H221フレームの
領域603のビデオデータに割り当てられた領域上に格
納される。
First, a transmission frame of video data of each terminal will be described. The video data is obtained by converting the video information captured by the video input / output device 200 into a video codec 2.
01 is data encoded by DCT or the like. Also,
The transmission frame of the video data is stored in the area assigned to the video data in the area 603 of the H221 frame.

【0038】さて、本実施例においては、このビデオデ
ータの送信フレームとしてCCITT、H.261勧告
に従ったフレーム(以下「H.261フレーム」とい
う)を用いる。
In this embodiment, as the transmission frame of the video data, the CCITT, H.264,. H.261 frame (hereinafter referred to as “H.261 frame”) is used.

【0039】図7に、本実施例において用いるH.26
1フレームの構成を示す。
FIG. 7 shows the H.264 used in this embodiment. 26
1 shows a configuration of one frame.

【0040】図7aが、H.261フレームの構成であ
る。
FIG. 261 frames.

【0041】図7aに示すように、H.261フレーム
は、PSC701、TR702、PTYPE703、P
EI704、PSPARE705のヘッダ部と、GOB
1〜12のデータ部より成る。PSC701は同期用デ
ータを示し、TR702がパケットの循環型のシーケン
ス番号を示している。
As shown in FIG. 261 frames include PSC 701, TR 702, PTYPE 703, P
EI704, PSPARE705 header part and GOB
It consists of 1 to 12 data parts. PSC 701 indicates synchronization data, and TR 702 indicates a cyclic sequence number of the packet.

【0042】GOB1〜12に格納されたビデオデータ
で1画像フレームを構成する。すなわち、GOB1〜1
2には、それぞれ、1画像フレームを12分割した画像
領域のビデオデータが格納される。図8aに、GOB1
〜12と画像フレーム中の領域との関係を示す。
One image frame is composed of the video data stored in the GOBs 1 to 12. That is, GOB1 to GOB1
2 stores video data of an image area obtained by dividing one image frame into 12 parts. FIG.
12 shows the relationship between 〜12 and an area in an image frame.

【0043】さて、図3に示した1つの端末からのビデ
オ情報を全端末が表示出力する場合、ビデオ情報の発信
元となる端末は、ビデオ入出力機器200で取り込んだ
ビデオ情報を表示出力すると共に、GOB1〜12にビ
デオデータを格納してH.261フレームを作成して送
信する。他の端末は、このH.261フレームを受信し
て表示出力すると共に、次の送信先の端末にこのH.2
61フレームを中継送信する。発信元端末は、自分が発
信したH.261フレームが、ループ上に端末を接続し
た通信路を周回して戻ってきたらこれを表示出力すると
共に、自端末が先に発信したデータを廃棄する。
Now, when all terminals display and output the video information from one terminal shown in FIG. 3, the terminal that is the source of the video information displays and outputs the video information captured by the video input / output device 200. At the same time, video data is stored in 261 frames are created and transmitted. Other terminals use the H.264 service. 261 frame is received and displayed for output, and the H.264 frame is transmitted to the next destination terminal. 2
Relay transmission of 61 frames. The originating terminal transmits the H.264 message transmitted by itself. When the 261 frame returns after looping around the communication path connecting the terminal on the loop, this is displayed and output, and the data transmitted earlier by the own terminal is discarded.

【0044】図7bが、先に図5に示した、全ての端末
が、テレビ会議に参加している全ての端末の4つのビデ
オ情報を出力する場合のH.261フレームの使用例で
ある。本例では、GOB1、3、5を端末Aに、GOB
2、4、6を端末Bに、GOB7、9、11を端末C
に、GOB8、9、12を端末Dに割り当てる。図8c
に、各端末に割り当てたGOBと画像領域との関係を示
す。
FIG. 7B shows the H.264 when all the terminals output the four pieces of video information of all the terminals participating in the video conference shown in FIG. This is an example of using 261 frames. In this example, GOBs 1, 3, and 5 are assigned to terminal A,
2, 4, and 6 to terminal B, and GOBs 7, 9, and 11 to terminal C.
, GOBs 8, 9, and 12 are allocated to terminal D. FIG. 8c
Shows the relationship between the GOB assigned to each terminal and the image area.

【0045】今端末Aが議長端末とすると、この場合、
端末Aはビデオ入出力機器200で1/4に縮小して取
り込んだビデオ情報を符号化し、GOB1、3、5にビ
デオデータを格納してH.261フレームを作成して送
信する。端末Bは、このH.261フレームを受信して
H.261フレームのGOB1〜12のビデオデータの
示すビデオ情報を表示出力する。また、ビデオ入出力機
器200で1/4に縮小して取り込んだビデオ情報を符
号化し、受信したH.261フレームのGOB2、4、
6に新たな自己のビデオデータを格納して次の送信先の
端末に、H.261フレームを送信する。
Assuming that terminal A is now the chair terminal,
The terminal A encodes video information that has been reduced to 1/4 and captured by the video input / output device 200, stores the video data in GOBs 1, 3, and 5, and stores the video data in H.264. 261 frames are created and transmitted. The terminal B transmits the H.264. H.261 frame is received, and H.261 is received. Video information indicated by video data of GOBs 1 to 12 of 261 frames is displayed and output. In addition, the video input / output device 200 encodes the video information which has been reduced to 1/4 and taken in, and receives the encoded H.264 information. 261 frames of GOB2, 4,
6 stores its own video data and sends it to the next destination terminal. 261 frames are transmitted.

【0046】端末C、Dも、端末Bと同様に、H.26
1フレームを受信してGOBのビデオデータの示すビデ
オ情報を表示出力する。また、ビデオ入出力機器200
で1/4に縮小して取り込んだビデオ情報を符号化し、
受信したH.261フレームの割り当てられたGOBに
自己のビデオデータを格納して次の送信先の端末に、送
信する。
Terminals C and D are also the same as terminal B 26
One frame is received and the video information indicated by the GOB video data is displayed and output. In addition, the video input / output device 200
Encodes the video information captured by reducing it to 1/4,
The received H. The own video data is stored in the GOB to which 261 frames are allocated, and transmitted to the next destination terminal.

【0047】端末Aは、自分が発信したH.261フレ
ームが、ループ上に端末を接続した通信路を周回して戻
ってきたら、H.261フレームのGOBのビデオデー
タの示すビデオ情報を表示出力する。また、ビデオ入出
力機器200で1/4に縮小して取り込んだビデオ情報
を符号化し、受信したH.261フレームのGOB1、
3、5に新たな自己のビデオデータを格納し、必要に応
じてH.261フレームのヘッダを更新して、端末Bに
送信する。
The terminal A sends the H.100 message transmitted by itself. If the H.261 frame circulates around the communication path connecting the terminal on the loop and returns, The video information indicated by the 261 frame GOB video data is displayed and output. In addition, the video input / output device 200 encodes the video information which has been reduced to 1/4 and taken in, and receives the encoded H.264 information. GOB1 of 261 frames,
New video data of the self is stored in H.3 and 5, and H.3. The header of the 261 frame is updated and transmitted to the terminal B.

【0048】なお、図4に示すように、全ての端末が、
異なる2つの端末から発信された2つのビデオ情報を出
力する場合は、発信元となる2つの端末に図8bに示す
ように、GOBを割り当てるようにする。ただし、この
場合、発信元とならない端末は受信したH.261フレ
ームのビデオデータ表示出力と、H.261フレームの
中継のみを行なう。また、端末Aが発信元端末とならな
い場合は、フレームの生成処理と、フレームの中継処理
と、H.261フレームのビデオデータ表示出力のみを
行なう。
As shown in FIG. 4, all terminals
In the case of outputting two pieces of video information transmitted from two different terminals, GOBs are allocated to the two terminals as transmission sources as shown in FIG. 8B. However, in this case, the terminal that is not the transmission source receives the received H.264. H.261 frame video data display output; Only the relay of 261 frames is performed. If the terminal A is not the source terminal, the frame generation processing, the frame relay processing, Only the 261 frame video data display output is performed.

【0049】さて、図7c、dは、先に図5に示した、
全ての端末が、テレビ会議に参加している全ての端末の
4つのビデオ情報を出力する場合のH.261フレーム
の他の使用例である。
Now, FIGS. 7C and 7D are the same as those shown in FIG.
H. a case where all terminals output four pieces of video information of all terminals participating in a video conference This is another usage example of the H.261 frame.

【0050】図7cは、各端末に、GOBのみならず
H.261フレームをも割り当てた例である。この場
合、各端末は、割り当てられたH.261フレームの割
り当てられたGOBに1/4に縮小した自己のビデオデ
ータを格納し、他のGOBにはデータを格納せずに所定
のヘッダのみを付加して送信する。また、各端末は、受
信したH.261フレームから、当該フレームが割り当
てられた端末に割り当てられたGOBに格納されている
ビデオデータをGOBに対応した領域に表示出力する。
また、自分が発信したH.261フレームが、ループ上
に端末を接続した通信路を周回して戻ってきたら、割り
当てられたGOBに新たなビデオデータを格納し、必要
に応じてフレームのヘッダを更新して送信する。なお、
このような動作により、4つのH.261フレームで1
画像フレームを構成することになる。
FIG. 7C shows that each terminal has not only GOB but also H.264. This is an example in which 261 frames are also allocated. In this case, each terminal transmits the assigned H.264. Its own video data reduced to 1/4 is stored in the assigned GOB of 261 frames, and only the predetermined header is added to the other GOBs without storing the data and transmitted. Also, each terminal receives the received H.264. From the 261 frame, the video data stored in the GOB assigned to the terminal to which the frame is assigned is displayed and output in an area corresponding to the GOB.
In addition, H. When the 261 frame returns around the communication path connecting the terminal on the loop, new video data is stored in the assigned GOB, and the frame header is updated and transmitted as necessary. In addition,
By such an operation, the four H.264s. 1 in 261 frames
This constitutes an image frame.

【0051】図7cは、図7bの例において、各端末が
所定のヘッダのみを付加したGOBをH.261フレー
ム中から省略した例である。
FIG. 7C shows that, in the example of FIG. This is an example in which 261 frames are omitted.

【0052】このように受信したH.261フレームの
割り当てられたGOBに自己のビデオデータを格納した
中継送信を制御するのは、各端末のビデオパス制御部2
02(図2参照)である。
The received H.264 message is as follows. The relay transmission in which its own video data is stored in the GOB assigned with 261 frames is controlled by the video path control unit 2 of each terminal.
02 (see FIG. 2).

【0053】以下、ビデオパス制御部の詳細について説
明する。
Hereinafter, details of the video path control unit will be described.

【0054】まず、図7bに示した、GOBを順次異な
る端末に割り当てたH.261フレームを取り扱うビデ
オパス制御部の第1の例を説明する。
First, as shown in FIG. 7B, H.264 in which GOBs are sequentially allocated to different terminals. A first example of a video path control unit that handles 261 frames will be described.

【0055】図9に、ビデオパス制御部の内部構成を示
す。
FIG. 9 shows the internal configuration of the video path control unit.

【0056】図中、201はビデオコーデック、260
がMUX/DMUX、202がビデオパス制御部であ
る。
In the figure, reference numeral 201 denotes a video codec;
Denotes a MUX / DMUX, and 202 denotes a video path control unit.

【0057】図示するように、ビデオコーデック201
は端末の送信系として、ビデオコーダ910、送信バッ
ファ911、送信エラーコレクト912を備え、受信系
として受信エラーコレクト932、受信バッファ93
1、ビデオデコーダ930を備え、制御系としてビデオ
コーデック制御920を備える。
As shown, the video codec 201
Includes a video coder 910, a transmission buffer 911, and a transmission error correct 912 as a transmission system of a terminal, and a reception error collection 932, a reception buffer 93 as a reception system.
1. A video decoder 930 is provided, and a video codec control 920 is provided as a control system.

【0058】また、ビデオパス制御部202は、端末の
送信系として備えられ、ビデオSW900、ビデオクロ
ック切り換え制御902、信号遅延901を備える。
The video path control unit 202 is provided as a transmission system of the terminal, and includes a video SW 900, a video clock switching control 902, and a signal delay 901.

【0059】MUX/DMUX260は、網インタフェ
ース270を介して受信したH.221フレームのH.
261フレームを受信し、ビデオコーデック201の受
信系に渡す。また、MUX/DMUX260は、H.2
61フレームを作成し、他のデータとともにH.221
フレームを生成し、網インタフェース270を介して送
信する。
The MUX / DMUX 260 receives the H.264 received via the network interface 270. H.221 frame
261 frames are received and passed to the receiving system of the video codec 201. The MUX / DMUX 260 is based on H.264. 2
61 frames are created, and H.61 frames are created together with other data. 221
A frame is generated and transmitted via the network interface 270.

【0060】受信系の動作は、従来の1対1通信の場合
と同様であり、MUX/DMUX260から受け取った
H.261フレームを解析し、GOB1〜12のビデオ
データをビデオコーデック201が復号化してビデオ入
出力機器200に出力する。
The operation of the receiving system is the same as that of the conventional one-to-one communication. The video codec 201 decodes the 261 frames, decodes the video data of the GOBs 1 to 12, and outputs the decoded data to the video input / output device 200.

【0061】送信系の動作は、前述したように、自端末
のビデオデータをGOB1〜12の全てに格納して送信
する場合と、受信したGOB1〜12をそのまま送信す
る場合と、自端末のビデオデータを割り当てられたGO
Bに格納して、受信した他端末が発信元となっているG
OBと共に送信する場合の3通りがある。
As described above, the transmission system operates when the video data of the own terminal is stored and transmitted in all the GOBs 1 to 12, when the received GOBs 1 to 12 are transmitted as they are, and when the video data of the own terminal is transmitted. GO assigned data
G stored in B and received from another terminal
There are three types of transmission with OB.

【0062】自端末のビデオデータをGOB1〜12の
全てに格納して送信する旨、会議制御部220から通知
を受けた場合、ビデオコーデックは、ビデオ入出力機器
200で取り込んだビデオ情報を符号化し、GOB1〜
12に格納したH.261フレームを生成して送信バッ
ファ911に格納する。ビデオSW900は、ビデオコ
ーデックの送信バッファ911からのデータ903を選
択し、H.261フレームを送信エラーコレクト912
を介してMUX/DMUX260へ渡す。
When receiving a notification from the conference control unit 220 that the video data of the own terminal is stored and transmitted in all of the GOBs 1 to 12, the video codec encodes the video information captured by the video input / output device 200. , GOB1
12 stored in H.12. 261 frames are generated and stored in the transmission buffer 911. The video SW 900 selects the data 903 from the transmission buffer 911 of the video codec. 261 frames to be transmitted error correct 912
To the MUX / DMUX 260 via

【0063】受信したGOB1〜12をそのまま送信す
る旨、会議制御部220から通知を受けた場合、ビデオ
SW900は、受信系からのデータ904を選択し、受
信したH.261フレームを、そのまま送信エラーコレ
クト912を介してMUX/DMUX260へ渡す。
When the video SW 900 receives a notification from the conference control unit 220 that the received GOBs 1 to 12 are to be transmitted as they are, the video SW 900 selects the data 904 from the receiving system and receives the received H.264 data. The 261 frame is passed to the MUX / DMUX 260 via the transmission error correct 912 as it is.

【0064】自端末のビデオデータを割り当てられたG
OBに格納して、受信した他端末が発信元となっている
GOBと共に送信する旨、会議制御部220から通知を
受けた場合、ビデオコーデックは、ビデオ入出力機器2
00で取り込んだビデオ情報を1/4に縮小して符号化
し、自端末に割り当てられたGOBに格納したH.26
1フレームを生成して送信バッファ911に格納する。
GOBの割り当ても、会議制御部220から通知され
る。ビデオSW900は、ビデオコーデックの送信バッ
ファ911からのデータ903と信号遅延901で遅延
させた受信系からのデータ905とを切り換え出力す
る。そして、自端末に割り当てられたGOBについては
ビデオコーデックの送信バッファ911からのデータ9
03を、送信エラーコレクト912を介してMUX/D
MUX260へ渡し、他のGOBとH.261フレーム
のヘッダについては受信系からのデータを、送信エラー
コレクト912を介してMUX/DMUX260へ渡
す。但し、議長端末となった端末は、自端末に割り当て
られたGOBとH.261フレームのヘッダについては
ビデオコーデックの送信バッファ911からのデータ9
03を、送信エラーコレクト912を介してMUX/D
MUX260へ渡し、他のGOBについては受信系から
のデータを、送信エラーコレクト912を介してMUX
/DMUX260へ渡す。
G to which video data of the own terminal is allocated
The video codec is stored in the OB and transmitted from the conference control unit 220 to the effect that the received other terminal is transmitted together with the GOB that is the transmission source.
00, the video information fetched is reduced to 1/4 and encoded, and stored in the GOB assigned to the own terminal. 26
One frame is generated and stored in the transmission buffer 911.
The GOB assignment is also notified from the conference control unit 220. The video SW 900 switches and outputs data 903 from the transmission buffer 911 of the video codec and data 905 from the reception system delayed by the signal delay 901. Then, the GOB allocated to the own terminal is transmitted from the transmission buffer 911 of the video codec.
03 to the MUX / D via the transmission error collect 912.
MUX 260, and other GOBs and H.264. For the header of the 261 frame, data from the receiving system is passed to the MUX / DMUX 260 via the transmission error correct 912. However, the terminal that has become the chair terminal is the GOB assigned to the own terminal and the H.264 terminal. For the header of the 261 frame, data 9 from the transmission buffer 911 of the video codec is used.
03 to the MUX / D via the transmission error collect 912.
The data is passed to the MUX 260, and the data from the receiving system is transmitted to the other GOBs via the transmission error correct 912.
/ DMUX 260.

【0065】このような、ビデオSW900のデータ9
03とデータ905との切り換えタイミングを制御する
のが、ビデオSWクロック切り換え制御902である。
また、信号遅延901による遅延は、この切り換え制御
に要する時間分、データ905のビデオSW900への
入力を調整するために行なうものである。
Such data 9 of the video SW 900
The video SW clock switching control 902 controls the switching timing between the data SW 03 and the data 905.
The delay by the signal delay 901 is performed to adjust the input of the data 905 to the video SW 900 by the time required for the switching control.

【0066】ビデオクロック切り換え制御902のビデ
オSW900の切り換え制御の詳細について説明する。
The switching control of the video SW 900 by the video clock switching control 902 will be described in detail.

【0067】さて、この例では、各端末は割り当てられ
たGOBの直後の位置にエンドフラグとしてPSCとT
Rを付加して送信するものとし、ビデオクロック切り換
え制御902はこのエンドフラグに基づいてビデオSW
900の切り換えを制御する。エンドフラグとして、P
SCを用いるのは、PSCの値はビデオデータ中に表れ
ないよう規定されているからである。
In this example, each terminal sets PSC and T as end flags at the position immediately after the assigned GOB.
R, and the video clock switching control 902 determines the video SW based on the end flag.
900 switching is controlled. P as the end flag
SC is used because the value of PSC is specified so as not to appear in the video data.

【0068】また、このエンドフラグに用いるPSC
と、H.261ヘッダに用いるPSC701を区別する
ために、固定値”11111”をTRとしてエンドフラ
グとして用いるPSCの直後に続ける。 そして、H.
261フレームのヘッダ中のTR702(5ビット)の
最上位ビットは値を0固定として用いる。すなわち、
H.261フレームのシーケンス番号としては1から1
5までを用いる。
The PSC used for this end flag
And H. In order to distinguish the PSC 701 used for the H.261, a fixed value "11111" is used as a TR immediately after the PSC used as an end flag. And H.
The value of the most significant bit of TR 702 (5 bits) in the header of the 261 frame is fixed at 0. That is,
H. The sequence number of the 261 frame is 1 to 1
Use up to 5.

【0069】図10に、ビデオSWクロック切り換え制
御902の内部構成を示す。
FIG. 10 shows the internal configuration of the video SW clock switching control 902.

【0070】図中、1006はデータレジスタ、100
1はエンドフラグ検出、1002はSW制御、100
5、1003、1004はSWである。
In the figure, 1006 is a data register, 100
1 is end flag detection, 1002 is SW control, 100
5, 1003 and 1004 are SWs.

【0071】この例では、ビデオコーデック201は、
1/4に縮小したビデオ情報を符号化したビデオデータ
を割り当てられたGOBに格納したH.261フレーム
を送信バッファ911に格納すると共に、割り当てられ
たGOBの直後にエンドフラグPSCとTRを格納す
る。
In this example, the video codec 201
H.264 in which video data obtained by encoding video information reduced to 1/4 is stored in the assigned GOB. 261 frames are stored in the transmission buffer 911, and the end flags PSC and TR are stored immediately after the assigned GOB.

【0072】さて、いま、ビデオSW900は、遅延さ
れた受信系からのデータ905を選択し、遅延された受
信系からのデータ905が送信エラーコレクト912送
出されているものとする。
Now, it is assumed that the video SW 900 selects the data 905 from the delayed receiving system, and the data 905 from the delayed receiving system has been transmitted to the transmission error correct 912.

【0073】このとき、SW1005は受信系からのデ
ータ904を選択し、データレジスタ1006とエンド
フラグ検出1001でエンドフラグを監視する。そし
て、エンドフラグが検出されたなら、これをSW制御1
002に伝える。SW制御1002は、この通知を受け
各SW900、1003、1004、1005を切り換
える。そして、読みだしクロックを送出し、自端末が議
長端末でなければ、送信バッファ911に格納されてい
る、自端末に割り当てられているGOBとその直後に付
加したエンドフラグを読みだす。自端末が議長端末であ
れば、送信バッファ911に格納されている、H.26
1フレームのヘッダ部分と、これに連続する自端末に割
り当てられているGOB1、3、5と、その直後に付加
したエンドフラグを読みだす。
At this time, the SW 1005 selects the data 904 from the receiving system, and monitors the end flag by the data register 1006 and the end flag detection 1001. If the end flag is detected, the end flag is set to SW control 1
002. Upon receiving this notification, the SW control 1002 switches among the SWs 900, 1003, 1004, and 1005. Then, a read clock is transmitted, and if the own terminal is not the chair terminal, the GOB assigned to the own terminal and the end flag added immediately after that, which are stored in the transmission buffer 911, are read. If the own terminal is the chair terminal, H.264 is stored in the transmission buffer 911. 26
The header part of one frame, GOBs 1, 3, and 5 assigned to the terminal which is continuous with the header part and the end flag added immediately thereafter are read out.

【0074】この読みだされたデータ903は、遅延さ
れた受信系からのデータ905に代えて、ビデオSW9
00で選択されて、送信エラーコレクト912に送出さ
れる。この、ビデオSW900の切り換えタイミング
が、データ903のスタート位置が、遅延された受信系
からのデータ905上のエンドフラグのスタート位置か
ら始まるように、信号遅延901は遅延時間を調整され
ている。この結果、受信系からのデータの上のエンドフ
ラグは消失する。
The read data 903 replaces the data 905 from the delayed receiving system with the video SW 9
00 is selected and sent to the transmission error correct 912. The delay time of the signal delay 901 is adjusted such that the switching timing of the video SW 900 is such that the start position of the data 903 starts from the start position of the end flag on the data 905 from the delayed receiving system. As a result, the end flag on the data from the receiving system disappears.

【0075】さて、以上の動作によって、SW1005
は、送信バッファ911よりのデータ903を選択する
ので、今度は、データレジスタ1006とエンドフラグ
検出1001でデータ903のエンドフラグを監視す
る。そして、エンドフラグが検出されたなら、これをS
W制御1002に伝える。SW制御1002は、この通
知を受け各SW900、1003、1004、1005
を切り換える。結果、ビデオSW900で、遅延された
受信系からのデータ905を選択し、遅延された受信系
からのデータ905を送信エラーコレクト912送出す
る初めの状態に戻る。
By the operation described above, the SW 1005
Selects the data 903 from the transmission buffer 911. This time, the end flag of the data 903 is monitored by the data register 1006 and the end flag detection 1001. If the end flag is detected, this is set to S
Notify W control 1002. The SW control 1002 receives this notification, and switches SW 900, 1003, 1004, 1005
Switch. As a result, the video SW 900 selects the data 905 from the delayed receiving system, and returns to the initial state of transmitting the data 905 from the delayed receiving system to the transmission error correct 912.

【0076】ところで、このように、各端末は割り当て
られたGOBの直後の位置にエンドフラグとしてPSC
とTRを付加して送信するようにすると、ループ状の通
信路において1つ次の位置にある端末に割り当てられた
GOBが格納されていた位置に、エンドフラグ等が格納
されてしまう場合がある。たとえば、端末Bにおいて
は、端末Cに割り当てられたGOB7が格納されている
位置にエンドフラグ等が格納されてしまうことがある。
しかし、このH.261フレーム上の端末Cが発信した
データは既に、他の端末A、B、Dを周回しており、次
にH.261フレームを受信する端末Cで新たなビデオ
データに更新されるデータである。したがい、支障は生
じない。
As described above, each terminal has a PSC as an end flag at a position immediately after the assigned GOB.
When the transmission is performed by adding the TRB and the TR, the end flag or the like may be stored at the position where the GOB assigned to the terminal at the next position in the loop communication path is stored. . For example, in the terminal B, an end flag or the like may be stored at a position where the GOB 7 assigned to the terminal C is stored.
However, this H. The data transmitted by the terminal C on the H.261 frame has already circulated to the other terminals A, B, and D. This data is updated to new video data at the terminal C receiving the 261 frame. Therefore, no trouble occurs.

【0077】次に、図7bに示したGOBを、順次異な
る端末に割り当てたH.261フレームを取り扱うビデ
オパス制御部の第2の例を説明する。
Next, GOBs shown in FIG. 7B are sequentially assigned to different terminals. A second example of the video path control unit that handles 261 frames will be described.

【0078】図11に、この第2の例に係るビデオパス
制御部の構成を示す。
FIG. 11 shows the configuration of the video path control unit according to the second example.

【0079】図中、1100はメモリ、1104はメモ
リ1100のリードアドレスを生成するリードアドレス
生成部、1105はメモリ1100のライトアドレスを
生成するライトアドレス生成部、1103はSW制御
部、1102はレジスタ、1101はGOB比較部、1
106はビデオSW、1107は送信用バッファであ
る。
In the figure, reference numeral 1100 denotes a memory; 1104, a read address generator for generating a read address of the memory 1100; 1105, a write address generator for generating a write address of the memory 1100; 1103, a SW controller; 1102, a register; 1101 is a GOB comparison unit, 1
Reference numeral 106 denotes a video SW, and 1107 denotes a transmission buffer.

【0080】ビデオコーデックは、ビデオ入出力機器2
00で取り込んだビデオ情報を1/4に縮小して符号化
し、自端末に割り当てられたGOBに格納したH.26
1フレームを生成して送信バッファ911に格納する。
The video codec is a video input / output device 2
00, the video information fetched is reduced to 1/4 and encoded, and stored in the GOB assigned to the own terminal. 26
One frame is generated and stored in the transmission buffer 911.

【0081】メモリ1100には、リードアドレス生成
部1104によって、受信系よりのデータ904が格納
される。GOB比較部1101は、データ904のGO
Bを監視し、GOB番号が自端末に割り当てられたGO
Bである場合には、メモリ1100への書き込みと、ラ
イトアドレス生成部1104のアドレスのインクリメン
トを停止し、停止したアドレス値をレジスタ1102に
格納する。そして、データ904のGOB番号が自端末
に割り当てられたGOBでなくなれば、メモリ1100
への書き込みと、ライトアドレス生成部1104のアド
レスのインクリメントを再開し、データ904をメモリ
1100に書き込む。但し議長端末は、H.261フレ
ームのヘッダ部分も自端末に割り当てられたGOBと同
様に扱う。
Data 904 from the receiving system is stored in memory 1100 by read address generating section 1104. The GOB comparison unit 1101 calculates the GO
B is monitored, and the GOB number is assigned to the own terminal.
In the case of B, the writing to the memory 1100 and the increment of the address of the write address generation unit 1104 are stopped, and the stopped address value is stored in the register 1102. If the GOB number of the data 904 is no longer the GOB assigned to the own terminal, the memory 1100
And the write address generation unit 1104 resumes incrementing the address, and writes the data 904 to the memory 1100. However, the chair terminal is H.264. The header part of the 261 frame is handled in the same way as the GOB assigned to the own terminal.

【0082】さて、メモリ1100に格納されたデータ
は、リードアドレス生成部1105の生成するアドレス
により読みだされ、ビデオSW1106を介して送信用
バッファ1107を介して送信エラーコレクト912に
送信される。SW制御部1103は、レジスタ1102
に格納されたアドレス値とリードアドレス生成部110
4の生成するアドレス値を比較し、一致したら、メモリ
1100からの読みだしと、リードアドレス生成部11
04のアドレスのインクリメントを停止し、ビデオSW
1106を切り換え、送信バッファ911より、自端末
に割り当てられたGOBデータ903を読みだして、送
信用バッファ1107を介して送信エラーコレクト91
2に送信する。但し議長端末は、H.261フレームの
ヘッダ部分と自端末に割り当てられたGOBデータ90
3を読みだして、送信エラーコレクト912に送信す
る。そして、送信バッファ911よりの読みだしが終了
したら、ライトアドレス生成部1104のアドレスのイ
ンクリメントを再開し、ビデオSW1106を切り換
え、メモリ1100よりのデータの読みだし送信エラー
コレクト912への送信を再開する。
The data stored in the memory 1100 is read by the address generated by the read address generation unit 1105 and transmitted to the transmission error collect 912 via the video SW 1106 and the transmission buffer 1107. The SW control unit 1103 includes a register 1102
Value and read address generation unit 110
4 are compared with each other, and if they match, reading from the memory 1100 and the read address generation unit 11
04, stop incrementing the address
1106, the GOB data 903 assigned to the terminal is read from the transmission buffer 911, and the transmission error correct 91 is transmitted via the transmission buffer 1107.
Send to 2. However, the chair terminal is H.264. 261 frame header part and GOB data 90 assigned to the terminal itself
3 is read and transmitted to the transmission error collect 912. Then, when the reading from the transmission buffer 911 is completed, the increment of the address of the write address generation unit 1104 is restarted, the video SW 1106 is switched, and the reading of the data from the memory 1100 and the transmission to the transmission error correct 912 are restarted.

【0083】なお、H.261フレームを受信した時点
で、ビデオコーデック201による符号化が終了してい
ない場合は、ビデオデータに代えてダミーデータを割り
当てられたGOBに格納するようにする。また、ダミー
データを受信した端末ではこれを無視するようにする。
Incidentally, H. If the encoding by the video codec 201 is not completed when the 261 frame is received, the dummy data is stored in the assigned GOB instead of the video data. The terminal that has received the dummy data ignores the dummy data.

【0084】以下、図3、4、5に示した多地点テレビ
会議システムのオーディオ出力を実現する手段について
説明する。いま、4端末A、B、C、Dが、図1に示す
ようにループ状に接続されているものとする。
The means for realizing the audio output of the multipoint video conference system shown in FIGS. Now, it is assumed that four terminals A, B, C, and D are connected in a loop as shown in FIG.

【0085】オーディオデータは、図6に示したH.2
21フレームの領域603に格納される。
The audio data corresponds to the H.264 data shown in FIG. 2
It is stored in an area 603 of 21 frames.

【0086】さて、H.221フレームの領域603に
格納されるオーディオデータは、多地点テレビ会議に参
加している全ての端末のオーディオをミックスしたデー
タである。各端末は、ループ状の通信路を周回するオー
ディオデータを受信し、受信したオーディオデータから
先に自端末が発信したオーディオデータをキャンセルし
て出力すると共に、受信したオーディオデータから先に
自端末が発信したオーディオデータをキャンセルしたオ
ーディオデータに、新たに発信するオーディオデータを
ミックスしてループ上における次の端末に送信する。
By the way, H. The audio data stored in the area 603 of the 221 frame is data obtained by mixing the audios of all the terminals participating in the multipoint video conference. Each terminal receives audio data that circulates around the loop communication path, cancels and outputs audio data transmitted by the terminal from the received audio data, and outputs the terminal from the received audio data. The newly transmitted audio data is mixed with the canceled audio data and transmitted to the next terminal on the loop.

【0087】このような、自端末が発信したオーディオ
データのキャンセルと、新たに発信するオーディオデー
タのミックスを実現するのがオーディオ処理部212で
ある。
The audio processing unit 212 realizes such cancellation of the audio data transmitted from the own terminal and mixing of the newly transmitted audio data.

【0088】以下、オーディオ処理部212の詳細につ
いて説明する。
The details of the audio processing section 212 will be described below.

【0089】図12に、オーディオ処理部212の内部
構成を示す。
FIG. 12 shows the internal configuration of the audio processing unit 212.

【0090】図示するように、オーディオ処理部212
は、自端末が発信したオーディオデータのキャンセルを
行なうエコーキャンセル部1200と、新たに発信する
オーディオデータのミックスを行なうミキサー部121
0を有している。
As shown, the audio processing unit 212
Are an echo canceling unit 1200 for canceling audio data transmitted by the terminal itself, and a mixer unit 121 for mixing audio data newly transmitted.
It has 0.

【0091】エコーキャンセル部1200は、音声ルー
プ遅延制御1201、オーディオ可変遅延1202、オ
ーディオ減算1203、出力制御1204、μ/A変換
1205、リニア変換1206、オーディオレベル検出
1207よりなる。また、ミキサー部1210は、リニ
ア変換1211、オディオ加算1212、μ/A変換1
213、オーディオ平均レベル識別1214を有してい
る。
The echo canceling unit 1200 comprises an audio loop delay control 1201, an audio variable delay 1202, an audio subtraction 1203, an output control 1204, a μ / A conversion 1205, a linear conversion 1206, and an audio level detection 1207. The mixer unit 1210 includes a linear converter 1211, an audio adder 1212, and a μ / A converter 112.
213, audio average level identification 1214.

【0092】エコーキャンセル部1200において、音
声ループ遅延制御は、システム制御部240より、オー
ディオデータが発信されてからループ上を周回して戻っ
てくるまでの遅延時間の通知を受け、この遅延時間をオ
ーディオ可変遅延1202に設定する。遅延時間は、M
UX/DMUX260において、発信した特定のH.2
21フレームがループ上を周回して戻ってくるまでの時
間を測定してシステム制御部240に通知する。
In the echo cancellation section 1200, the audio loop delay control is performed by the system control section 240 by receiving a notification of the delay time from when the audio data is transmitted to when the audio data circulates on the loop and returns. Audio variable delay 1202 is set. The delay time is M
In the UX / DMUX 260, the specific H.264 transmitted is transmitted. 2
The time required for 21 frames to go around the loop and return is measured and reported to the system control unit 240.

【0093】リニア変換1211は、オーディオコーデ
ック211がμ/A則で符号化したオーディオデータ
を、リニアデータに戻し、オーディオ可変遅延1202
に送る。オーディオ可変遅延1202は、リニア変換1
211から受け取ったオーディオデータを設定された時
間遅延させて、オーディオ加算1212と、オーディオ
減算1203に送る。
The linear conversion 1211 converts the audio data coded by the audio codec 211 according to the μ / A rule into linear data,
Send to The audio variable delay 1202 is
The audio data received from 211 is delayed for a set time and sent to audio addition 1212 and audio subtraction 1203.

【0094】一方、MUX/DMUX260は、受信し
たH.221フレームからオーディオデータを抽出し、
リニア変換1206に送る。リニア変換1206はMU
X/DMUX260から受け取ったμ/A則で符号化し
たオーディオデータを、リニアデータに戻し、オーディ
オ減算1203に送る。
On the other hand, the MUX / DMUX 260 Extract audio data from 221 frames,
Send to linear conversion 1206. Linear conversion 1206 is MU
The audio data coded according to the μ / A rule received from the X / DMUX 260 is converted back to linear data and sent to the audio subtraction 1203.

【0095】オーディオ減算1203は、リニア変換1
206よりのオーディオデータからオーディオ可変遅延
1202よりのオーディオデータを減算する。これで、
受信したオーディオデータよりの、先に自端末が発信し
たオーディオデータのキャンセルが実現される。
The audio subtraction 1203 performs the linear conversion 1
The audio data from the audio variable delay 1202 is subtracted from the audio data from 206. with this,
Canceling of the audio data transmitted by the own terminal earlier than the received audio data is realized.

【0096】このようにして、受信したオーディオデデ
ータより自端末が先に発信したオーディオデータをキャ
ンセルしたオーディオデータは、出力制御1204を介
して、μ/A変換1205に送られ、μ/A則で符号化
されてオーディオコーデック211に送られる。オーデ
ィオコーデックは受け取ったオーディオデータを復号化
してオーディオ入出力装置210に出力する。
In this manner, the audio data in which the audio data transmitted by the own terminal before the received audio data is canceled is sent to the μ / A converter 1205 via the output control 1204, and the μ / A rule is applied. And transmitted to the audio codec 211. The audio codec decodes the received audio data and outputs it to the audio input / output device 210.

【0097】また、受信したオーディオデータより自端
末が先に発信したオーディオデータをキャンセルしたオ
ーディオデータは、出力制御1204を介して、オーデ
ィオ加算1212に送られる。オーディオ加算1212
は、出力制御1204より受け取ったオーディオデータ
とリニア変換1211から受け取ったオーディオデータ
を加算する。これで、新たに発信するオーディオデータ
のミックスが実現されたので、このデータをμ/A変換
1213でμ/A則で符号化し、MUX/DMUX26
0に送る。MUX/DMUX260は受け取ったオーデ
ィオデータをH.221フレームに格納してループ上の
次の端末に送信する。
The audio data in which the audio data transmitted by the terminal before the received audio data is canceled is sent to the audio addition unit 1212 via the output control 1204. Audio addition 1212
Adds the audio data received from the output control 1204 and the audio data received from the linear conversion 1211. As a result, a mix of newly transmitted audio data is realized, and this data is encoded by the μ / A conversion 1213 according to the μ / A rule, and the MUX / DMUX 26
Send to 0. The MUX / DMUX 260 converts the received audio data into H.264 data. 221 frames and transmit to the next terminal on the loop.

【0098】オーディオ平均レベル識別1214は、リ
ニア変換1211から受け取ったオーディオデータのレ
ベルを算出し、会議制御220に送る。この識別された
オーディオデータのレベルは、前述した、オーディオ音
量による表示するビデオデータの自動切り換えに用いら
れる。
The audio average level discriminator 1214 calculates the level of the audio data received from the linear conversion 1211 and sends it to the conference control 220. The identified level of the audio data is used for the above-described automatic switching of the video data to be displayed based on the audio volume.

【0099】また、オーディオレベル検出1207は、
端末が議長端末となったときに作動するもので、受信し
たオーディオデータより自端末が先に発信したオーディ
オデータをキャンセルしたオーディオデータのレベルを
会議制御部220に通知する。また、出力制御1204
は、会議制御部220から指示を受けた場合に、一旦、
エコーキャンセラー部1200のオーディオデータ出力
値を0とする手段である。 なお、本実施例では、オー
ディオコーデック211として、μ/A則で符号化され
たデータをインタフェースとする既成のオーディオコー
デックを想定しているが、オーディオコーデック211
をリニアデータをインタフェースとするものとした場
合、μ/A変換1211と、μ/A変換1205は不要
である。
The audio level detection 1207 is
The terminal operates when the terminal becomes the chair terminal, and notifies the conference control unit 220 of the level of audio data in which the own terminal has canceled the audio data transmitted earlier than the received audio data. Output control 1204
When receiving an instruction from the conference control unit 220, once
This is a means for setting the audio data output value of the echo canceller unit 1200 to 0. In this embodiment, an existing audio codec that uses data encoded according to the μ / A rule as an interface is assumed as the audio codec 211.
Is a linear data interface, the μ / A conversion 1211 and the μ / A conversion 1205 are unnecessary.

【0100】ここで、オーディオ平均レベル識別121
4の詳細を説明する。
Here, audio average level identification 121
4 will be described in detail.

【0101】図13にオーディオ平均レベル識別121
4の内部構成を示す。
FIG. 13 shows an audio average level identification 121.
4 shows the internal configuration.

【0102】図示するように、オーディオ平均レベル識
別1214は、オーディオ加算1301、書き込み制御
1302、メモリ1303、カウンタ1304、カウン
タ値比較1305、リセット制御1306、識別制御1
307、オーディオレベル識別1308を有している。
As shown in the figure, the audio average level identification 1214 includes audio addition 1301, write control 1302, memory 1303, counter 1304, counter value comparison 1305, reset control 1306, identification control 1
307, and audio level identification 1308.

【0103】μ/A変換1211よりオーディオデータ
を受け取ると、オーディオ加算1301は、メモリ13
03より、前回までのオーディオデータの加算値を読み
だし、これとμ/A変換1211より受け取ったオーデ
ィオデータを加算し、書き込み制御を介しメモリ130
3に加算後のオーディオデータを書き込む。メモリ13
03への書き込みの回数はカウンタ1304で計数され
る。
When audio data is received from the μ / A converter 1211, the audio addition 1301
03, the added value of the audio data up to the previous time is read out, and the added value is added to the audio data received from the μ / A converter 1211.
Then, the audio data after the addition is written in 3. Memory 13
03 is counted by the counter 1304.

【0104】メモリへの書き込み回数が一定回数以上と
なると、識別制御1307はオーディオレベル識別13
08とリセット制御1306に通知する。通知を受ける
と、オーディオレベル識別1308はメモリ1303よ
りそれまでのオーディオデータの加算値を読みだし、会
議制御部220に通知する。
When the number of times of writing to the memory becomes a certain number or more, the identification control 1307 sets the audio level identification 13
08 and the reset control 1306 are notified. Upon receiving the notification, the audio level identification 1308 reads the added value of the audio data up to that point from the memory 1303 and notifies the conference control unit 220.

【0105】一方、通知を受けたリセット制御1306
は、メモリ1303の内容と、カウンタの計数値をリセ
ットする。
On the other hand, the reset control 1306 receiving the notification
Resets the contents of the memory 1303 and the count value of the counter.

【0106】以上、ビデオデータとオーディオデータに
関する多地点テレビ会議システムの詳細について説明し
た。
The details of the multipoint video conference system relating to video data and audio data have been described above.

【0107】以下、多地点テレビ会議を開催、運営する
のに必要な制御に関する、多地点テレビ会議システムの
詳細について説明する。
The details of the multipoint video conference system related to the control required to hold and operate the multipoint video conference will be described below.

【0108】本実施例においては、先に図1に示したル
ープ状に端末を接続した多地点テレビ会議システムの構
成、多地点テレビ会議から端末の脱退に伴う多地点テレ
ビ会議システム構成の変更、各端末に表示出力するビデ
オデータの指定等を、議長端末と他の端末間で制御情報
を交換することにより実現する。
In the present embodiment, the configuration of the multipoint video conference system in which the terminals are connected in a loop as shown in FIG. 1, the change of the configuration of the multipoint video conference system accompanying the withdrawal of the terminal from the multipoint video conference, Designation of video data to be displayed and output to each terminal is realized by exchanging control information between the chair terminal and other terminals.

【0109】そこで、まず、この制御情報の送信フレー
ムについて説明する。
[0109] First, the transmission frame of the control information will be described.

【0110】本実施例では、制御情報を先に図6に示し
たH.221フレームのサブチャネル#8(符号60
2)上にCCITT勧告H.221に規定されているM
LPデータの領域を確保し、この領域上にある複数のチ
ャネルを、各々異なる端末に割り当てる。そして、各端
末は割り当てられたチャネルを用いて制御情報を送信す
る。
In this embodiment, the control information is stored in H.264 shown in FIG. 221 frame sub-channel # 8 (reference numeral 60)
2) Above, CCITT Recommendation H. M specified in H.221
An area for LP data is secured, and a plurality of channels on this area are allocated to different terminals. Then, each terminal transmits control information using the assigned channel.

【0111】図14に、MLPデータ領域上のチャネル
を示す。
FIG. 14 shows channels in the MLP data area.

【0112】MLPデータ領域は、6.4Kb/sまた
は4Kb/sの大きさで、BAS(図6符号601)上
のコマンドによって確保可能である。
The MLP data area has a size of 6.4 Kb / s or 4 Kb / s, and can be secured by a command on the BAS (601 in FIG. 6).

【0113】図14aに示したのは、MLPデータ領域
を6.4Kb/sの大きさで確保した場合である。この
場合、図示するように、MLPデータ領域上に8ビット
毎に共通チャネルとNo1〜7の8本のチャネルが構成
される。そこで、共通チャネルを議長端末が用いるチャ
ネルとし、他のチャネルを、共通チャネル上の制御情報
によって、他の端末に割り当てる。
FIG. 14A shows a case where the MLP data area is secured at a size of 6.4 Kb / s. In this case, as shown in the figure, a common channel and eight channels Nos. 1 to 7 are formed every 8 bits on the MLP data area. Therefore, the common channel is used as the channel used by the chair terminal, and another channel is allocated to another terminal according to control information on the common channel.

【0114】図14bに示したのが MLPデータ領域
を4Kb/sの大きさで確保した場合である。この場
合、図示するように、MLPデータ領域上に8ビット毎
に共通チャネルとNo1〜3の4本のチャネルが構成さ
れる。そこで、共通チャネルを議長端末が用いるチャネ
ルとし、他のチャネルを、共通チャネル上の制御情報に
よって、他の端末に割り当てる。
FIG. 14B shows a case where the MLP data area is secured at a size of 4 Kb / s. In this case, as shown in the figure, a common channel and four channels No. 1 to No. 3 are configured every 8 bits on the MLP data area. Therefore, the common channel is used as the channel used by the chair terminal, and another channel is allocated to another terminal according to control information on the common channel.

【0115】なお、制御情報の送信に、MLPデータ領
域を用いる代わりに、BAS領域を用いるようにしても
よい。
[0115] Instead of using the MLP data area, the BAS area may be used for transmitting control information.

【0116】すなわち、図6に示したH.221フレー
ムのBAS領域601のコマンドによって、BAS領域
をサブチャネル#8(符号602)上まで拡張し、拡張
した領域を各端末の制御情報の送信用に用いてもよい。
That is, the H.264 shown in FIG. The BAS area may be extended up to sub-channel # 8 (reference numeral 602) by a command of the BAS area 601 of the 221 frame, and the extended area may be used for transmitting control information of each terminal.

【0117】各チャネルによって送信される制御情報
は、コマンドとデータである。
The control information transmitted by each channel is a command and data.

【0118】このコマンドとデータは、図15aに示す
ように、同一H.221フレーム上のチャネルに格納し
て送信してもよいし、図15bに示すように、連続する
H.221フレーム上のチャネルに分割して格納し送信
するようにしてもよい。
The command and the data are identical to each other as shown in FIG. 221 frame and may be transmitted. Alternatively, as shown in FIG. 221 frames may be divided into channels and stored and transmitted.

【0119】さて、各端末は、受信したH.221フレ
ームのMLPデータ領域もしくはBAS領域を解析し、
自端末に割り当てられた領域に格納されている先に自端
末が発信した制御情報は抜取り、受信したH.221フ
レームのMLPデータ領域もしくはBAS領域の自端末
に割り当てられた領域以外の領域の制御情報はそのま
ま、ループ上の次の端末に中継する。
Each terminal receives the received H.264. Analyze the MLP data area or BAS area of 221 frames,
The control information transmitted by the own terminal to the destination stored in the area allocated to the own terminal is extracted and the received H.264 information is transmitted. The control information of the MLP data area of the 221 frame or the area other than the area allocated to the own terminal in the BAS area is relayed to the next terminal on the loop as it is.

【0120】また、新たに発信すべき制御情報があれば
自端末に割り当てられた領域に格納し、受信したH.2
21フレームのMLPデータ領域もしくはBAS領域の
自端末に割り当てられた領域以外の領域の制御情報と共
に、ループ上、次の端末に中継する。
If there is control information to be newly transmitted, the control information is stored in an area allocated to the terminal itself, and the received H.264 information is transmitted. 2
The information is relayed to the next terminal on the loop together with the control information of the 21-frame MLP data area or the area other than the area allocated to the own terminal in the BAS area.

【0121】次に、議長端末と他の端末間で交換する制
御情報を用いた、多地点テレビ会議の開催、運営の詳細
について説明する。
Next, details of holding and operating a multipoint video conference using control information exchanged between the chair terminal and other terminals will be described.

【0122】制御情報を用いた多地点テレビ会議システ
ムの制御は、各端末のシステム制御部240と会議制御
部220が主に行なう。
The control of the multipoint video conference system using the control information is mainly performed by the system control unit 240 and the conference control unit 220 of each terminal.

【0123】まず、議長端末のシステム制御部240と
会議制御部220の詳細について説明する。
First, details of the system controller 240 and the conference controller 220 of the chair terminal will be described.

【0124】図16に、議長端末となった端末固有の多
地点テレビ会議の制御処理を示す。すなわち、本実施例
において各端末は議長端末として動作する機能を備えて
いる。
FIG. 16 shows the control processing of the multipoint video conference unique to the terminal serving as the chair terminal. That is, in this embodiment, each terminal has a function of operating as a chair terminal.

【0125】まず、図1に示したループ状のテレビ会議
システムによるテレビ会議を開始する場合について説明
する。
First, a case where a video conference is started by the loop video conference system shown in FIG. 1 will be described.

【0126】この場合、システム制御部240は、図示
せざるキーボードより会議に参加する端末B、C、Dの
指定を受けると、エンド網制御部250を制御し、端末
Bとの間に呼を確立する。次に、発呼終話処理1613
により、呼を確立した端末Bに対して、端末Cへの接続
を指示するコマンドをパケット合成送出制御処理162
7に渡す。パケット合成送出制御処理1627は受けと
ったコマンドを前記共通チャネルに格納したMLPデー
タまたはBASデータを作成し、MUXインタフェース
処理1629を施し、MUX/DMUX260に渡す。
MUX/DMUX260は、受け取ったMLPデータま
たはBASデータを格納したH.221フレームを作成
し、網インタフェース270を介して、端末Bに送る。
In this case, upon receiving designations of terminals B, C, and D participating in the conference from a keyboard (not shown), system control section 240 controls end network control section 250 and places a call with terminal B. Establish. Next, call termination processing 1613
A command for instructing the terminal B that has established the call to connect to the terminal C is sent to the packet combining transmission control process 162.
Pass to 7. The packet combining / transmission control processing 1627 creates MLP data or BAS data in which the received command is stored in the common channel, performs MUX interface processing 1629, and transfers the data to the MUX / DMUX 260.
MUX / DMUX 260 stores the received MLP data or BAS data in H.264. A 221 frame is created and sent to the terminal B via the network interface 270.

【0127】そして端末Cと端末Bが接続されたら、端
末Cに対して、端末Dへの接続を指示するコマンドを、
端末Bを介して送る。そして端末Dと端末Cが接続され
たら、端末Dに対して、端末Aへの接続を指示するコマ
ンドを、端末B、Cを介して送る。端末Aと端末Dが接
続されたらループ状の構成が完成する。
When the terminals C and B are connected, a command for instructing the terminal C to connect to the terminal D is given by:
Send via terminal B. Then, when the terminal D and the terminal C are connected, a command for instructing the connection to the terminal A is sent to the terminal D via the terminals B and C. When the terminals A and D are connected, the loop configuration is completed.

【0128】このように、端末への接続を指示するコマ
ンドによって、順次、テレビ会議に参加する端末を接続
し、ループを作成する。
As described above, the terminal which participates in the video conference is sequentially connected by the command instructing the connection to the terminal, and a loop is created.

【0129】次に、多地点テレビ会議におけるオーディ
オ制御について説明する。
Next, audio control in a multipoint video conference will be described.

【0130】会議制御部220は、オーディオ処理部2
12のオーディオレベル検出1207(図12参照)か
ら通知されたレベルが一定期間、無音レベルか否か、す
なわち、一定期間、無音と判定される所定のレベル以下
か否かを判別する1621。そして、一定期間無音レベ
ルであると判別した場合、オーディオ処理部212の出
力制御1204に、オーディオデータを一旦”0”とす
るように指示し、エコーキャンセラーのオーディオ出力
を、一旦OFFする1620。
The conference control unit 220 includes the audio processing unit 2
It is determined 1621 whether or not the level notified from the audio level detection 1207 (see FIG. 12) is a silence level for a certain period, that is, is equal to or lower than a predetermined level determined to be silence for a certain period. If it is determined that the sound level is the silence level for a certain period, the output control unit 1204 of the audio processing unit 212 is instructed to temporarily set the audio data to “0”, and the audio output of the echo canceller is temporarily turned off 1620.

【0131】このように、オーディオデータレベルをリ
セットすることにより、オーディオ処理部212のオー
ディオ減算1203やオーディオ加算1212において
生じる演算誤差の、オーディオデータへの蓄積を抑制す
る。なお、演算誤差の蓄積は、オーディオデータを出力
した場合に雑音として表れる。
As described above, by resetting the audio data level, accumulation of an arithmetic error generated in the audio subtraction 1203 and the audio addition 1212 of the audio processing unit 212 in the audio data is suppressed. Note that the accumulation of the calculation error appears as noise when audio data is output.

【0132】次に、各端末に表示するビデオデータの切
り換え制御について説明する。
Next, switching control of video data displayed on each terminal will be described.

【0133】本実施例では、ビデオデータの切り換え
は、各端末のオーディオデータレベルに基づいて自動的
に行なうか、各端末からの切り換え要求に基づいて切り
換えるかを選択可能としている。この選択を行なうの
が、自動手動切り換えSW1625である。
In the present embodiment, it is possible to select whether to switch video data automatically based on the audio data level of each terminal or to switch based on a switching request from each terminal. This selection is made by the automatic manual switching SW 1625.

【0134】まず、各端末のオーディオデータレベルに
基づいて自動的にビデオデータの切り換えを行なう場合
について説明する。
First, a case where video data is automatically switched based on the audio data level of each terminal will be described.

【0135】MUX/DMUX260は、受信したH.
221フレーム中のMLPデータまたはBASデータ
を、DMUXインタフェース処理1630を介しパケッ
ト解読送出制御処理1628に渡す、パケット解読送出
制御処理1628は受けとったMLPデータまたはBA
Sデータを解読し、各端末より送られたオーデイオ平均
レベルのデータをメモリ書き込み制御1622に渡す。
メモリ書き込み制御1622はこれを各端末毎にメモリ
1623に書き込み、比較処理1624でレベルの大小
を比較し、いずれの端末のオーディオデータレベルが最
大かを、ビデオパス切り換え指示処理1626に通知す
る。ビデオパス切り換え指示処理は、表示するビデオデ
ータを、オーディオデータレベルが最大であった端末の
ビデオデータとするコマンドをパケット合成送出制御処
理1627に渡す。パケット合成送出制御処理1627
は、このコマンドを前記共通チャネルに格納したMLP
データまたはBASデータを作成し、MUXインタフェ
ース処理1629を施し、MUX/DMUX260に渡
す。MUX/DMUX260は、受け取ったMLPデー
タまたはBASデータを格納したH.221フレームを
作成し、網インタフェース270を介して、ループ上の
各端末に送る。
The MUX / DMUX 260 receives the received H.264.
The MLP data or BAS data in the H.221 frame is passed to the packet decryption transmission control process 1628 via the DMUX interface process 1630. The packet decryption transmission control process 1628 receives the received MLP data or BAS data.
It decodes the S data and passes the data of the audio average level sent from each terminal to the memory write control 1622.
The memory write control 1622 writes this in the memory 1623 for each terminal, compares the level in the comparison processing 1624, and notifies the video path switching instruction processing 1626 which terminal has the maximum audio data level. In the video path switching instruction process, a command for setting the video data to be displayed to the video data of the terminal having the highest audio data level is passed to the packet synthesis transmission control process 1627. Packet synthesis transmission control processing 1627
Is the MLP storing this command in the common channel.
Data or BAS data is created, subjected to MUX interface processing 1629, and passed to the MUX / DMUX 260. MUX / DMUX 260 stores the received MLP data or BAS data in H.264. A 221 frame is created and sent to each terminal on the loop via the network interface 270.

【0136】次に、各端末からの切り換え要求に基づい
て、各端末に表示出力するビデオデータを切り換える場
合について説明する。
Next, a case will be described in which video data to be displayed and output to each terminal is switched based on a switching request from each terminal.

【0137】MUX/DMUX260は、受信したH.
221フレーム中のMLPデータまたはBASデータ
を、DMUXインタフェース処理1630を介しパケッ
ト解読送出制御処理1628に渡す、パケット解読送出
制御処理1628は受けとったMLPデータまたはBA
Sデータを解読し、切り換え要求コマンドが存在すれ
ば、このコマンドを切り換え要求処理1611に渡す。
切り換え要求処理1611は、切り換え要求を示すコマ
ンド受け取った場合、もしくは、キーボードより切り換
え要求が指示された場合、切り換え要求の内容を文字重
畳処理に渡し、図17に示すように切り換え要求の内容
をビデオ入出力機器299の表示出力画面に重畳して出
力する。
The MUX / DMUX 260 receives the received H.264.
The MLP data or BAS data in the H.221 frame is passed to the packet decryption transmission control process 1628 via the DMUX interface process 1630. The packet decryption transmission control process 1628 receives the received MLP data or BAS data.
The S data is decoded, and if there is a switch request command, this command is passed to the switch request processing 1611.
The switching request processing 1611 transfers the content of the switching request to the character superimposition processing when a command indicating the switching request is received or when a switching request is instructed from the keyboard, and converts the content of the switching request into a video as shown in FIG. The output is superimposed on the display output screen of the input / output device 299.

【0138】そして、要求入力処理1610は、切り換
え要求が表示を要求するビデオデータを発信している端
末を、ビデオパス切り換え指示処理1626に通知す
る。ビデオパス切り換え指示処理は、表示するビデオデ
ータを、通知された端末のビデオデータとするコマンド
をパケット合成送出制御処理1627に渡す。パケット
合成送出制御処理1627は、このコマンドを前記共通
チャネルに格納したMLPデータまたはBASデータを
作成し、MUXインタフェース処理1629を施し、M
UX/DMUX260に渡す。また、MUX/DMUX
260は、受け取ったMLPデータまたはBASデータ
を格納したH.221フレームを作成し、網インタフェ
ース270を介して、ループ上の各端末に送る。
Then, the request input processing 1610 notifies the video path switching instruction processing 1626 of the terminal transmitting the video data whose switching request requests display. In the video path switching instruction processing, a command for setting the video data to be displayed to the video data of the notified terminal is passed to the packet synthesis transmission control processing 1627. The packet synthesis / transmission control processing 1627 creates MLP data or BAS data in which the command is stored in the common channel, performs MUX interface processing 1629, and
Pass to UX / DMUX 260. Also, MUX / DMUX
H. 260 stores the received MLP data or BAS data. A 221 frame is created and sent to each terminal on the loop via the network interface 270.

【0139】次に、図1に示したループ状のテレビ会議
システムによるテレビ会議から、いずれかの端末が退席
する場合、または、新たな端末がテレビ会議に参加する
場合ついて説明する。
Next, a case will be described in which any terminal leaves or a new terminal participates in the video conference by the video conference in the loop video conference system shown in FIG.

【0140】MUX/DMUX260は、受信したH.
221フレーム中のMLPデータまたはBASデータ
を、DMUXインタフェース処理1630を介しパケッ
ト解読送出制御処理1628に渡す、パケット解読送出
制御処理1628は受けとったMLPデータまたはBA
Sデータを解読し、退席要求コマンドが存在すれば、こ
のコマンドを途中退席、途中参加処理1614に渡す。
途中退席、途中参加処理1614、退席要求コマンド受
け取った場合、もしくは、キーボードより退席要求もし
くは途中参加要求が指示された場合、要求の内容を文字
重畳処理1601に渡し、図18に示すように切り換え
要求の内容をビデオ入出力機器299の表示出力画面に
重畳して出力する1602。
The MUX / DMUX 260 receives the received H.264.
The MLP data or BAS data in the H.221 frame is passed to the packet decryption transmission control process 1628 via the DMUX interface process 1630. The packet decryption transmission control process 1628 receives the received MLP data or BAS data.
The S data is decoded, and if there is an exit request command, this command is passed to the midway exit / intermediate participation process 1614.
When receiving a command to exit from the room or join in the middle 1614 or a request to leave the room, or when a request to leave or join in the middle is instructed from the keyboard, the contents of the request are passed to the character superimposition process 1601 and a switching request is made as shown in FIG. 1602 is superimposed on the display output screen of the video input / output device 299 and output.

【0141】そして、要求入力処理1621は、要求の
内容を発呼終話制御処理1613に通知する。発呼終話
制御処理1613は、要求の内容に応じて、終話コマン
ドと発呼コマンド生成し、パケット合成送出制御処理1
627に渡す。終話コマンドは退席する端末にループ上
隣あう2端末に退席する端末との接続を切断するよう指
示、もしくは、参加する端末に近設した位置にある、ル
ープ上で接続する2端末間の接続を切断するよう指示す
るコマンドである。また、発呼コマンドは、退席した端
末に接続していた端末間を接続するよう指示、もしく
は、参加する端末を含んでループを構成するよう指示す
るコマンドである。具体的には、図1の端末Cが退席を
要求する場合は、端末Cと端末D間の接続の切断を終話
コマンドで指示し、端末Cと端末B間の接続の切断を終
話コマンドで指示し、発呼コマンドで端末Bに端末Dと
の接続を指示する。また、図1の端末Bと端末C間に端
末Eを参加させる場合には、端末Bと端末C間の接続の
切断を終話コマンドで指示し、発呼コマンドで端末Bに
端末Eとの接続を指示し、端末Bに端末Eが接続した
ら、発呼コマンドで端末Eに端末Cとの接続を指示す
る。
Then, the request input processing 1621 notifies the call termination control processing 1613 of the contents of the request. The call termination control process 1613 generates a termination command and a call command according to the contents of the request,
627. The end-call command instructs the exiting terminal to disconnect the two terminals adjacent to the loop from the exiting terminal, or a connection between two terminals connected on the loop at a position close to the participating terminal. Is a command for instructing to disconnect. The call command is a command for instructing connection between terminals that have been connected to a terminal that has exited or for forming a loop including terminals that participate. Specifically, when the terminal C in FIG. 1 requests the leaving, the disconnection command between the terminal C and the terminal D is instructed by the end command, and the disconnection between the terminal C and the terminal B is indicated by the end command. The terminal B is instructed to connect to the terminal D by a call command. When the terminal E joins between the terminal B and the terminal C shown in FIG. When a connection is instructed and the terminal E is connected to the terminal B, the terminal E is instructed to connect to the terminal C by a call command.

【0142】パケット合成送出制御処理1627は、発
呼終話制御処理1613より受け取ったコマンドを前記
共通チャネルに格納したMLPデータまたはBASデー
タを作成し、MUXインタフェース処理1629を施
し、MUX/DMUX260に渡す。また、MUX/D
MUX260は、受け取ったMLPデータまたはBAS
データを格納したH.221フレームを作成し、網イン
タフェース270を介して、ループ上の各端末に送る。
The packet combining / transmission control processing 1627 creates MLP data or BAS data in which the command received from the call termination control processing 1613 is stored in the common channel, performs MUX interface processing 1629, and passes it to the MUX / DMUX 260. . Also, MUX / D
The MUX 260 receives the received MLP data or BAS
H. which stored data. A 221 frame is created and sent to each terminal on the loop via the network interface 270.

【0143】次に、議長端末以外の端末の多地点テレビ
会議の制御処理を説明する。
Next, control processing of a multipoint video conference by a terminal other than the chair terminal will be described.

【0144】図19に、議長端末以外の端末の多地点テ
レビ会議の制御処理を示す。
FIG. 19 shows a control process of a multipoint video conference of a terminal other than the chair terminal.

【0145】まず、議長端末より他の端末との接続もし
くは接続の切断を指示された場合について説明する。
First, the case where the chair terminal instructs connection or disconnection with another terminal will be described.

【0146】MUX/DMUX260は、受け取った
H.221フレーム中のMLPデータまたはBASデー
タを、DMUXインタフェース処理1909を介し図示
せざるパケット解読送出制御処理に渡す、パケット解読
送出制御処理は受けとったMLPデータまたはBASデ
ータを解読し、共通チャネル(図14参照)に発呼コマ
ンドもしくは終話コマンドが存在すれば、このコマンド
をシステム制御部240に渡す。システム制御部240
は、エンド網制御部250を制御し、コマンドで指示さ
れた端末と接続、もしくは、接続を切断する。
The MUX / DMUX 260 receives the received H.264. The MLP data or BAS data in the H.221 frame is passed to a packet decoding / transmission control process (not shown) via a DMUX interface process 1909. The packet decoding / transmission control process decodes the received MLP data or BAS data, and outputs a common channel (FIG. 14). If there is an outgoing call command or an end-of-call command, the command is passed to the system control unit 240. System control unit 240
Controls the end network control unit 250 to connect to or disconnect from the terminal specified by the command.

【0147】次に、議長端末より、表示するビデオデー
タの切り換えを指示された場合について説明する。
Next, a case where the chair terminal instructs to switch the video data to be displayed will be described.

【0148】MUX/DMUX260は、受け取った
H.221フレーム中のMLPデータまたはBASデー
タを、DMUXインタフェース処理1909を介し図示
せざるパケット解読送出制御処理に渡す、パケット解読
送出制御処理は受けとったMLPデータまたはBASデ
ータを解読し、共通チャネルに表示するビデオデータの
切り換えを指示するコマンドが存在すれば、このコマン
ドを会話制御部240に渡す。
The MUX / DMUX 260 receives the received H.264. The MLP data or the BAS data in the 221 frame is passed to a packet decoding / transmission control process (not shown) via a DMUX interface process 1909. The packet decoding / transmission control process decodes the received MLP data or BAS data and displays the data on a common channel. If there is a command for switching video data, the command is passed to the conversation control unit 240.

【0149】会議制御システム制御部240の会議主制
御部処理1907は、通知されたコマンドに応じて、
H.261フレームに自端末のビデオデータを格納して
送信するかを決定し、自端末のビデオデータを格納して
送信する場合には自端末が送出するビデオ情報のサイズ
やビデオデータを格納するGOBを決定する。そして、
決定した内容をビデオコーデック201とビデオパス制
御部202に通知する。ビデオコーデック201とビデ
オパス制御部202は、前述したように、この通知に基
づいて動作する。
The conference controller control unit processing 1907 of the conference control system control unit 240 responds to the notified command by
H. It is determined whether the video data of the own terminal is stored and transmitted in the 261 frame. When the video data of the own terminal is stored and transmitted, the size of the video information transmitted by the own terminal and the GOB storing the video data are determined. decide. And
The determined contents are notified to the video codec 201 and the video path control unit 202. The video codec 201 and the video path control unit 202 operate based on this notification as described above.

【0150】次に、議長端末に、オーディオ平均レベル
を送信する処理について説明する。
Next, the process of transmitting the average audio level to the chair terminal will be described.

【0151】会議制御部240の会議主制御処理190
7は、オーディオ処理部212のオーディオ平均レベル
識別1214から、前述したようにオーディオ平均レベ
ルの通知を受けると、このデータを、図示せざるパケッ
ト合成送出制御処理に渡す。パケット合成送出制御処理
は、このデータを自端末に割り当てられたチャネルに格
納したMLPデータまたはBASデータを作成し、MU
Xインタフェース処理1908を施し、MUX/DMU
X260に渡す。また、MUX/DMUX260は、受
け取ったMLPデータまたはBASデータを格納した
H.221フレームを作成し、網インタフェース270
を介して、ループ上、議長端末に送る。
Conference controller control processing 190 of conference controller 240
7 receives the notification of the audio average level from the audio average level identification 1214 of the audio processing unit 212 as described above, and passes this data to a packet synthesis transmission control process (not shown). The packet combining and sending control process creates MLP data or BAS data in which this data is stored in a channel assigned to the terminal itself,
X interface processing 1908 is performed, and MUX / DMU
Hand over to X260. Further, the MUX / DMUX 260 stores the received MLP data or BAS data in the H.264. 221 frame is created and the network interface 270 is created.
Via the loop to the chair terminal.

【0152】次に、ビデオ切り換え要求や途中退席要求
やテレマティック端末データの送信要求を、議長端末に
送信する処理について説明する。
Next, a process for transmitting a video switching request, a midway exit request, or a transmission request for telematic terminal data to the chair terminal will be described.

【0153】図示せざるキーボード等より、これらの要
求が入力されると、システム制御部240の入力取り込
み処理は、要求を取り込み主制御1906に渡す。主制
御1906は、渡された要求に応じたコマンドを生成
し、会議主制御処理1907に渡す。会議主制御処理1
907は、このコマンドを、図示せざるパケット合成送
出制御処理に渡す。パケット合成送出制御処理は、この
コマンドを自端末に割り当てられたチャネルに格納した
MLPデータまたはBASデータを作成し、MUXイン
タフェース処理1908を施し、MUX/DMUX26
0に渡す。また、MUX/DMUX260は、受け取っ
たMLPデータまたはBASデータを格納したH.22
1フレームを作成し、網インタフェース270を介し
て、ループ上、議長端末に送る。
When these requests are input from a keyboard or the like (not shown), the input capture processing of the system control unit 240 captures the requests and passes them to the main control 1906. The main control 1906 generates a command according to the passed request and passes it to the conference master control processing 1907. Conference master control processing 1
907 passes this command to a packet synthesis transmission control process (not shown). The packet combining and sending control process creates MLP data or BAS data in which this command is stored in the channel allocated to the terminal itself, performs MUX interface processing 1908, and performs MUX / DMUX 26
Pass to 0. Further, the MUX / DMUX 260 stores the received MLP data or BAS data in the H.264. 22
One frame is created and sent to the chair terminal on the loop via the network interface 270.

【0154】なお、文字重畳1905は、主制御190
6の制御下で、議長端末から受け取ったコマンドやデー
タ等を、重畳してビデオ入出力機器の画面に表示する。
The character superimposition 1905 is performed by the main control 190.
Under the control of 6, the command and data received from the chair terminal are superimposed and displayed on the screen of the video input / output device.

【0155】ところで、以上の実施例において、H.2
61フレームに4端末が発信したビデオデータを格納す
る(図7)手段を示した。
By the way, in the above embodiment, H. 2
The means for storing video data transmitted by four terminals in 61 frames (FIG. 7) has been shown.

【0156】各端末のビデオコーデック201は、受信
したH.261フレームに格納されているビデオデータ
を復号化し、ビデオ入出力機器200に表示出力する。
The video codec 201 of each terminal transmits the received H.264 code. The video data stored in the 261 frame is decoded and output to the video input / output device 200 for display.

【0157】しかし、H.261フレームに4端末が発
信したビデオデータが格納されている場合、各端末の発
信したビデオデータは相互に独立であるので、ビデオコ
ーデック201は各端末の発信したビデオデータ毎に独
立に取り扱うことができる。
However, H. When the video data transmitted from four terminals is stored in the 261 frame, the video data transmitted from each terminal is mutually independent. Therefore, the video codec 201 can handle the video data transmitted from each terminal independently. it can.

【0158】そこで、本実施例では、ビデオコーデック
201は、それぞれ各端末の発信したビデオデータの復
号化が終了した時点で、復号化が終了したビデオデータ
を表示出力する。
Therefore, in this embodiment, the video codec 201 displays and outputs the decoded video data when the decoding of the video data transmitted from each terminal is completed.

【0159】図20に、ビデオコーデックのビデオコー
ダ周辺の構成を示す。
FIG. 20 shows a configuration around a video coder of a video codec.

【0160】図中、2005がデコーダ、2001が復
号化メモリ、2000と2007がダブルバッファ構成
の表示メモリ、2008は受信メモリである、200は
ビデオ入出力機器である。ダブルバッファ構成の表示メ
モリ2000と2007は、復号化データの書き込み用
として動作するときは、他方がビデオ入出力機器200
へのデータの表示読みだし用として動作する。
In the figure, 2005 is a decoder, 2001 is a decoding memory, 2000 and 2007 are display memories of a double buffer configuration, 2008 is a receiving memory, and 200 is a video input / output device. When the display memories 2000 and 2007 having the double buffer configuration operate for writing the decoded data, the display memories 2000 and 2007 use the video input / output device 200
It works for reading and displaying data to

【0161】デコーダ2005は、受信メモリ2008
より受信したビデオデータを読みだし、復号化メモリ2
005に格納されている前フレームの復号化データを参
照して復号化する。復号化したデータは次フレームの復
号化の参照用として復号化メモリ2005に書き込み、
また、現在復号化データの書き込み用として動作してい
る表示メモリ2000に書き込む。1つの端末から発信
された1/4画像領域分のビデオデータの復号化が終了
したら、表示メモリ2000と2007を切り換え、表
示メモリ2000を表示読みだし用に、表示メモリ20
07を復号化データの書き込み用に用いる。
The decoder 2005 includes a receiving memory 2008
Read out the received video data from the
The decoding is performed with reference to the decoded data of the previous frame stored in 005. The decrypted data is written to the decryption memory 2005 as a reference for decrypting the next frame,
Further, the data is written to the display memory 2000 which is currently operating for writing the decrypted data. When the decoding of the video data for the 1/4 image area transmitted from one terminal is completed, the display memory 2000 and 2007 are switched, and the display memory 2000 is read out from the display memory 20 for reading out the display.
07 is used for writing the decrypted data.

【0162】ところで、表示メモリと復号化メモリは1
つのメモリを共用することができる。
By the way, the display memory and the decoding memory are 1
Memory can be shared.

【0163】図21に、表示メモリと復号化メモリは1
つのメモリを共用した場合の構成を示す。
In FIG. 21, the display memory and the decoding memory are 1
The configuration when two memories are shared is shown.

【0164】図中、2105がデコーダ、2101と2
102が復号化メモリと表示メモリ、として共用するダ
ブルバッファ構成のメモリ、200がビデオ入出力機
器、2008は受信メモリである。ダブルバッファ構成
のメモリ2101、2102は、一方が参照データ読み
だし用の復号化メモリと表示読みだし用の表示メモリと
して動作するとき、他方のメモリは復号化データの書き
込み用の復号化メモリおよび表示メモリとして動作す
る。
In the figure, 2105 is a decoder, 2101 and 2105
Reference numeral 102 denotes a memory having a double buffer configuration commonly used as a decoding memory and a display memory, 200 denotes a video input / output device, and 2008 denotes a reception memory. When one of the memories 2101 and 2102 of the double buffer configuration operates as a decoding memory for reading reference data and a display memory for display reading, the other memory serves as a decoding memory for writing decoded data and a display memory. Operate as memory.

【0165】デコーダ2105は、受信メモリ2008
より受信したビデオデータを読みだし、参照データ読み
だし用の復号化メモリとして動作しているメモリ210
0から読みだした前フレームの復号化データを参照して
復号化する。また、このメモリ2102からの参照用の
読みだしと並行して、メモリ2102の復号化データは
表示用として読みだされビデオ入出力機器200に送ら
れる。デコーダ2105が復号化したデータは次フレー
ムの復号化の参照用として復号化データの書き込み用の
復号化メモリとして動作しているメモリ2101に書き
込まれる。1つの端末から発信された1/4画像領域分
のビデオデータの復号化が終了したら、参照データ読み
だし用の復号化メモリとして動作しているメモリ210
2から今回復号化が終了した1/4領域以外の領域の復
号化データをメモリ2101に転送し、メモリ2102
と2101の役割を切り換える。
The decoder 2105 has a receiving memory 2008
Memory 210 which reads out the received video data and operates as a decoding memory for reading out reference data.
The decoding is performed with reference to the decoded data of the previous frame read from 0. In parallel with the reading from the memory 2102 for reference, the decoded data in the memory 2102 is read for display and sent to the video input / output device 200. The data decoded by the decoder 2105 is written to a memory 2101 operating as a decoding memory for writing the decoded data for reference of decoding the next frame. When the decoding of the video data of the 1/4 image area transmitted from one terminal is completed, the memory 210 operating as the decoding memory for reading the reference data
From 2, the decoded data of the area other than the quarter area where decoding has been completed this time is transferred to the memory 2101, and
And 2101 are switched.

【0166】以下、同様に1つの端末から発信された1
/4画像領域分のビデオデータの復号化の終了の度にメ
モリ2101に転送し、メモリ2100と2101の役
割を切り換える。
[0166] Hereinafter, similarly, 1 is transmitted from one terminal.
The video data is transferred to the memory 2101 every time decoding of video data for the 画像 image area is completed, and the roles of the memories 2100 and 2101 are switched.

【0167】なお、以上の実施例では、図1に示したよ
うに各端末間を1本のBチャネルで接続し、ループ状の
多地点テレビ会議システムを構成した。
In the above embodiment, as shown in FIG. 1, each terminal is connected by one B channel to form a loop multipoint video conference system.

【0168】しかし、1本のBチャネルは異なる送信方
向の2伝送路であるので、各端末間を1本のBチャネル
でループ状に接続すると、実際は2つのループ状通信路
が構成される。以上の説明では、この2つのループ状通
信路のうちの1つのループ状通信路のみを用いる場合に
ついて説明した。しかし、この2つのループ状通信路を
同時に用いることにより端末間の通信容量を増加するこ
とができる。すなわち、たとえば、ビデオデータを2つ
のループ状通信路のうちの一方のH.221フレームで
送信することとし、オーディオデータを他方のH.22
1フレームで送信する等の振り分けが可能となる。
However, since one B channel is two transmission paths in different transmission directions, if each terminal is connected in a loop by one B channel, two loop communication paths are actually formed. In the above description, a case has been described in which only one of the two loop communication paths is used. However, by simultaneously using these two loop communication paths, the communication capacity between terminals can be increased. That is, for example, video data is transferred to one of two loop communication paths, H.264. 221 frames, and the audio data is transmitted by the other H.221 frame. 22
Distribution such as transmission in one frame becomes possible.

【0169】また、この場合、CCITT、H.221
に定める付加チャネルを用いた図22に示すH.221
フレームを利用することにより、H.221フレームを
拡張することもできる。すなわち、2つのループ状通信
路のうちの一方をH.221にいう第1チャネルとし、
他方をH.221にいう付加チャネルとして使用するよ
うにする。
In this case, CCITT, H. 221
H. shown in FIG. 221
By utilizing the frame, H.264 is used. 221 frames can also be extended. That is, one of the two loop communication paths is set to H.264. 221 as a first channel,
The other is H. 221 is used as an additional channel.

【0170】また、以上の実施例においては、図1に示
したように各端末間を1本のBチャネルで接続し、ルー
プ状の多地点テレビ会議システムを構成した。しかし、
前述したように、1本のBチャネルは異なる送信方向の
2伝送路であるので、図23に示すように各端末を順に
1本のBチャネルで接続した構成においても、両端の端
末がH.221フレームを折り返して送信し、両端以外
の端末が、いずれか1送信方向については受信したH.
221フレームを透過的に次の端末に送信することによ
りループ状の通信路を構成することができる。そして、
このようにしてループ状の通信路を構成した場合でも、
本実施例は同様に適用することができる。
In the above embodiment, each terminal is connected by one B channel as shown in FIG. 1 to form a loop-shaped multipoint video conference system. But,
As described above, one B channel is two transmission paths in different transmission directions. Therefore, even in a configuration in which terminals are sequentially connected by one B channel as shown in FIG. The H.221 frame is transmitted in a loop, and terminals other than both ends receive H.221 frames in any one transmission direction.
By transmitting the 221 frame transparently to the next terminal, a loop communication path can be formed. And
Even if a loop communication path is configured in this way,
This embodiment can be similarly applied.

【0171】また、以上の実施例においては、図1に示
すデジタル通信網としてCCITT、Iシリーズ勧告で
規定されているISDNを想定し、各端末は、ISDN
と2B+Dの基本インタフェースで接続されているもの
と想定した。
In the above embodiment, the digital communication network shown in FIG. 1 is assumed to be CCITT, ISDN defined by the I series recommendation, and each terminal
And 2B + D basic interface.

【0172】しかし、本実施例は、ISDNと2B+D
の基本インタフェースのみならず、一次群速度インタフ
ェースによって端末がISDNが接続されている場合に
も同様に適用することができる。また、この場合におい
て、一次群速度インタフェース中の複数のBチャネルを
用いる場合は、前記付加チャネルを用いたH.221フ
レームを使用することができる。
However, in this embodiment, ISDN and 2B + D
In addition to the basic interface described above, the present invention can be similarly applied to a case where a terminal is connected to an ISDN by a primary rate interface. Further, in this case, when a plurality of B channels in the primary rate interface are used, H.264 using the additional channel is used. 221 frames can be used.

【0173】[0173]

【発明の効果】以上のように、本発明によれば、MCU
を必要とせずに、多地点テレビ会議に参加する端末のみ
で多地点テレビ会議を実現できる多地点テレビ会議通信
方法を提供することができる。
As described above, according to the present invention, the MCU
And a multipoint videoconference communication method capable of realizing a multipoint videoconference with only the terminals participating in the multipoint videoconference without requiring the terminal.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施例に係る多地点テレビ会議シス
テムの構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of a multipoint video conference system according to an embodiment of the present invention.

【図2】本発明の一実施例に係る多地点テレビ電話・会
議端末の構成を示すブロック図である。
FIG. 2 is a block diagram showing a configuration of a multipoint videophone / conference terminal according to one embodiment of the present invention.

【図3】本発明の一実施例に係る多地点テレビ会議シス
テムの動作を示す説明図である。
FIG. 3 is an explanatory diagram showing an operation of the multipoint video conference system according to one embodiment of the present invention.

【図4】本発明の一実施例に係る多地点テレビ会議シス
テムの動作を示す説明図である。
FIG. 4 is an explanatory diagram showing an operation of the multipoint video conference system according to one embodiment of the present invention.

【図5】本発明の一実施例に係る多地点テレビ会議シス
テムの動作を示す説明図である。
FIG. 5 is an explanatory diagram showing an operation of the multipoint video conference system according to one embodiment of the present invention.

【図6】CCITT、H.221勧告に定めるフレーム
構成を示す説明図である。
FIG. 6: CCITT, H .; 221 is an explanatory diagram illustrating a frame configuration defined in Recommendation 221. FIG.

【図7】CCITT、H.261勧告に定めるフレーム
の本発明の一実施例に係る使用例を示す説明図である。
FIG. 7: CCITT, H .; 261 is an explanatory diagram illustrating an example of use of a frame defined in Recommendation 261 according to an embodiment of the present invention. FIG.

【図8】CCITT、H.261勧告に定めるGOBと
ビデオデータの本発明の一実施例に係る関係を示す説明
図である。
FIG. 8: CCITT, H .; FIG. 3 is an explanatory diagram showing a relationship between GOB and video data defined in Recommendation H.261 according to an embodiment of the present invention.

【図9】本発明の一実施例に係るビデオパス制御部の第
1の構成例を示すブロック図である。
FIG. 9 is a block diagram illustrating a first configuration example of a video path control unit according to one embodiment of the present invention.

【図10】本発明の一実施例に係るビデオSWクロック
切り換え制御の構成を示すブロック図である。
FIG. 10 is a block diagram showing a configuration of video SW clock switching control according to one embodiment of the present invention.

【図11】本発明の一実施例に係るオーディオ処理部の
構成を示すブロック図である。
FIG. 11 is a block diagram illustrating a configuration of an audio processing unit according to an embodiment of the present invention.

【図12】本発明の一実施例に係るオーディオ平均レベ
ル識別の示すブロック図である。
FIG. 12 is a block diagram illustrating audio average level identification according to an embodiment of the present invention.

【図13】本発明の一実施例に係るビデオパス制御部の
第2の構成例を示すブロック図である。
FIG. 13 is a block diagram showing a second configuration example of the video path control unit according to one embodiment of the present invention.

【図14】本発明の一実施例に係る制御情報の送信方式
を説明するための説明図である。
FIG. 14 is an explanatory diagram illustrating a control information transmission method according to an embodiment of the present invention.

【図15】本発明の一実施例に係る制御情報の送信方式
を説明するための説明図である。
FIG. 15 is an explanatory diagram illustrating a control information transmission method according to an embodiment of the present invention.

【図16】本発明の一実施例に係る議長端末の制御系の
構成を示すブロック図である。
FIG. 16 is a block diagram showing a configuration of a control system of a chair terminal according to an embodiment of the present invention.

【図17】本発明の一実施例に係る議長端末における制
御情報の表示例を示す説明図である。
FIG. 17 is an explanatory diagram showing a display example of control information in the chair terminal according to one embodiment of the present invention.

【図18】本発明の一実施例に係る議長端末における制
御情報の表示例を示す説明図である。
FIG. 18 is an explanatory diagram showing a display example of control information on the chair terminal according to one embodiment of the present invention.

【図19】本発明の一実施例に係る端末の制御系の構成
を示すブロック図である。
FIG. 19 is a block diagram illustrating a configuration of a control system of a terminal according to an embodiment of the present invention.

【図20】本発明の一実施例に係るビデオデコーダ周辺
の第1の構成例を示すブロック図である。
FIG. 20 is a block diagram showing a first configuration example around a video decoder according to an embodiment of the present invention.

【図21】本発明の一実施例に係るビデオデコーダ周辺
の第2の構成例を示すブロック図である。
FIG. 21 is a block diagram showing a second configuration example around a video decoder according to one embodiment of the present invention.

【図22】CCITT、H.221勧告に定める付加チ
ャネルを用いたフレーム構成を示す説明図である。
FIG. 22. CCITT, H .; 221 is an explanatory diagram illustrating a frame configuration using an additional channel defined in the Recommendation 221. FIG.

【図23】本発明の一実施例に係る多地点テレビ会議シ
ステムの第2の構成例を示すブロック図である。
FIG. 23 is a block diagram showing a second configuration example of the multipoint video conference system according to one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

1、2、3、4 端末 5 デジタル通信網 200 ビデオ入出力機器 201 ビデオコーデック 202 ビデオパス制御部 210 オーデイオ入出力機器 211 オーディオコーデック 212 オーディオ処理部 220 会議制御部 230 テレマティック装置 240 システム制御部 250 エンド・網信号制御部 260 MUX/DMUX 270 網インタフェース部 1, 2, 3, 4 terminal 5 digital communication network 200 video input / output device 201 video codec 202 video path control unit 210 audio input / output device 211 audio codec 212 audio processing unit 220 conference control unit 230 telematic device 240 system control unit 250 End / network signal control unit 260 MUX / DMUX 270 network interface unit

─────────────────────────────────────────────────────
────────────────────────────────────────────────── ───

【手続補正書】[Procedure amendment]

【提出日】平成10年8月10日[Submission date] August 10, 1998

【手続補正1】[Procedure amendment 1]

【補正対象書類名】明細書[Document name to be amended] Statement

【補正対象項目名】特許請求の範囲[Correction target item name] Claims

【補正方法】変更[Correction method] Change

【補正内容】[Correction contents]

【特許請求の範囲】[Claims]

Claims (5)

【特許請求の範囲】[Claims] 【請求項1】デジタル通信回線を介して複数の通信端末
をループ状に接続し、上記ループ上の予め定められた方
向にテレビ会議データを格納した通信フレームを巡回さ
せて上記複数の通信端末間でテレビ会議通信を行うテレ
ビ会議通信における制御情報の送信方法であって、 上記ループ状に接続した通信端末間を巡回する通信フレ
ーム内に上記複数の通信端末を制御するための制御情報
を格納する領域を確保し、 上記領域内の複数のチャネルを各々異なる通信端末に割
り当て、 上記各々の通信端末に上記複数のチャネルをそれぞれ割
り当て、 上記各通信端末は、自分自身の端末に割り当てられた領
域に制御情報を格納して上記デジタル通信回線を介して
送信することを特徴とするテレビ会議通信における制御
情報の送信方法。
A plurality of communication terminals connected in a loop via a digital communication line, and a communication frame storing video conference data is circulated in a predetermined direction on said loop to allow communication between said plurality of communication terminals. And transmitting control information for controlling the plurality of communication terminals in a communication frame circulating between the communication terminals connected in a loop. Securing an area, allocating a plurality of channels in the area to different communication terminals, allocating the plurality of channels to each of the communication terminals, and allocating each of the communication terminals to an area allocated to its own terminal. A method of transmitting control information in video conference communication, comprising storing control information and transmitting the control information via the digital communication line.
【請求項2】請求項1に記載のテレビ会議通信における
制御情報の送信方法であって、 前記各通信端末は、受信した通信フレーム内の自分自身
の通信端末に割り当てられたチャネルの、先に自分自身
が格納した制御情報を抜き取り、自分自身以外の通信端
末に割り当てられたチャネルに格納された制御情報につ
いては、そのままループ上の次の通信端末に送信するこ
とを特徴とするテレビ会議通信における制御情報の送信
方法。
2. The method for transmitting control information in video conference communication according to claim 1, wherein each of said communication terminals is provided first in a channel allocated to its own communication terminal in a received communication frame. In a video conference communication, the control information stored in a channel allocated to a communication terminal other than itself is extracted by extracting control information stored by itself and transmitted to the next communication terminal on the loop as it is. Transmission method of control information.
【請求項3】請求項1または2に記載のテレビ会議通信
における制御情報の送信方法であって、 前記通信フレームとしてCCITTのH.221に規定
された通信フレームを用い、前記制御情報は、H.22
1フレーム内のMLPデータ領域に格納することを特徴
とするテレビ会議通信における制御情報の送信方法。
3. The method for transmitting control information in video conference communication according to claim 1 or 2, wherein the communication frame is H.264 of CCITT. 221 using a communication frame specified in H.221. 22
A method for transmitting control information in video conference communication, wherein the control information is stored in an MLP data area in one frame.
【請求項4】請求項1または2に記載のテレビ会議通信
における制御情報の送信方法であって、 前記通信フレームとしてCCITTのH.221に規定
された通信フレームを用い、前記制御情報は、H.22
1フレーム内のBAS領域に格納することを特徴とする
テレビ会議通信における制御情報の送信方法。
4. The method for transmitting control information in video conference communication according to claim 1 or 2, wherein the communication frame is H.264 or CC. 221 using a communication frame specified in H.221. 22
A method for transmitting control information in video conference communication, wherein the control information is stored in a BAS area in one frame.
【請求項5】デジタル通信回線を介して複数の通信端末
間でテレビ会議通信を行うテレビ会議通信の設定方法で
あって、 第一の通信端末において会議通信に参加する複数の通信
端末が指定されると、 上記第一の通信端末は、上記指定に基づいて第二の通信
端末との間に呼を設定し、上記第二の通信端末に上記デ
ジタル通信回線を介して第三の通信端末の情報を送信
し、 上記第二の通信端末は、上記第一の端末から送信されて
きた情報に基づいて第三の通信端末との間に呼を設定
し、 上記第一の通信端末は、上記第二に通信端末を介して上
記第三の通信端末に次の接続先である端末の情報を送信
し、 上記第三の通信端末が送信されてきた情報に基づいて次
の接続先である通信端末との間に呼を設定していくこと
により、上記複数の通信端末間を接続することを特徴と
するテレビ会議通信の設定方法。
5. A video conference communication setting method for performing a video conference communication between a plurality of communication terminals via a digital communication line, wherein a plurality of communication terminals participating in the conference communication are specified in a first communication terminal. Then, the first communication terminal sets up a call with the second communication terminal based on the designation, and the second communication terminal communicates with the third communication terminal via the digital communication line. Transmitting information, the second communication terminal sets a call with a third communication terminal based on the information transmitted from the first terminal, the first communication terminal, Secondly, transmitting the information of the next connection destination terminal to the third communication terminal via the communication terminal, the communication of the next connection destination based on the information transmitted by the third communication terminal By setting up a call with a terminal, the communication terminals Setting the video conference communication, characterized by connecting.
JP20081698A 1991-07-15 1998-07-15 Control information transmission method and video conference communication setting method in video conference communication Expired - Fee Related JP3308906B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP20081698A JP3308906B2 (en) 1991-07-15 1998-07-15 Control information transmission method and video conference communication setting method in video conference communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP20081698A JP3308906B2 (en) 1991-07-15 1998-07-15 Control information transmission method and video conference communication setting method in video conference communication

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP17402591A Division JP3308562B2 (en) 1991-07-15 1991-07-15 Video conference terminal

Publications (2)

Publication Number Publication Date
JPH11112498A true JPH11112498A (en) 1999-04-23
JP3308906B2 JP3308906B2 (en) 2002-07-29

Family

ID=16430683

Family Applications (1)

Application Number Title Priority Date Filing Date
JP20081698A Expired - Fee Related JP3308906B2 (en) 1991-07-15 1998-07-15 Control information transmission method and video conference communication setting method in video conference communication

Country Status (1)

Country Link
JP (1) JP3308906B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100592432B1 (en) 2004-08-26 2006-06-22 주식회사 나라비전 Small multi-party conference channel formation method using SPI service

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100592432B1 (en) 2004-08-26 2006-06-22 주식회사 나라비전 Small multi-party conference channel formation method using SPI service

Also Published As

Publication number Publication date
JP3308906B2 (en) 2002-07-29

Similar Documents

Publication Publication Date Title
JP3308563B2 (en) Multipoint video conference system
JP3308562B2 (en) Video conference terminal
US5600646A (en) Video teleconferencing system with digital transcoding
US6288740B1 (en) Method and apparatus for continuous presence conferencing with voice-activated quadrant selection
CA2169571A1 (en) System, method and multipoint control unit for multipoint multimedia conferencing
JPH07203407A (en) Communication terminal equipment and multi-point communication system
JP3308905B2 (en) Video conference terminal
JP3308906B2 (en) Control information transmission method and video conference communication setting method in video conference communication
EP0677962B1 (en) Peripheral unit for satellite multi-videoconferencing
JP2549098B2 (en) Transmission control device for electronic conference system
JPH01241959A (en) Communication system between multi-point
JP2839295B2 (en) Screen Update Method for Multipoint Video Conference System
JP3819097B2 (en) Video conference control device
JP2823571B2 (en) Distributed multipoint teleconferencing equipment
RU2171015C2 (en) Multiple-point device for video conferences
JPH07298229A (en) Communication method, communication system and terminal equipment
JPH0522720A (en) Picture codec and av meeting terminal
JP2705966B2 (en) Video conference communication method
JPH09294166A (en) Video conference equipment and multi-point video conference system using the same
JPH06284419A (en) Multi-point video conference system
JPH0346486A (en) Still picture display system for television conference between multiple locations
JPH0522719A (en) Av meeting terminal
JPH03268552A (en) Loop type multipoint television conference system
JPH09270792A (en) Multi-point video conference system
JPH07322230A (en) Inter-multi-spot video conference equipment

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080517

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees