JP3573850B2 - Video conferencing systems - Google Patents

Video conferencing systems Download PDF

Info

Publication number
JP3573850B2
JP3573850B2 JP29355195A JP29355195A JP3573850B2 JP 3573850 B2 JP3573850 B2 JP 3573850B2 JP 29355195 A JP29355195 A JP 29355195A JP 29355195 A JP29355195 A JP 29355195A JP 3573850 B2 JP3573850 B2 JP 3573850B2
Authority
JP
Japan
Prior art keywords
participant
image
display priority
images
lan
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP29355195A
Other languages
Japanese (ja)
Other versions
JPH09135431A (en
Inventor
敬 湯浅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
HP Inc
Original Assignee
Hewlett Packard Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Co filed Critical Hewlett Packard Co
Priority to JP29355195A priority Critical patent/JP3573850B2/en
Publication of JPH09135431A publication Critical patent/JPH09135431A/en
Application granted granted Critical
Publication of JP3573850B2 publication Critical patent/JP3573850B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Telephonic Communication Services (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、広域ネットワークに複数の狭域ネットワークが接続されてなるビデオ会議システムに関し、具体的にはマルチポイントコントロールユニット(以下、「MCU」と言う)による参加者画像の表示技術に関する。
【0002】
【技術背景】
ビデオ会議システム(以下、単に「会議システム」と言う)は、ATM(非同期転送モード)回線等の1つのWAN(広域ネットワーク)に、イーサネット等の複数のLAN(狭域ネットワーク)が接続されて構成されることも多い。
従来、この種のシステムには、MCUが何れか1つのLANに設けられ、あるいは各LANに設けられる。
ここで、MCUは、各会議参加者のそれぞれのビデオ会議端末装置(以下、「端末装置」と言う)から、参加者画像と参加者音声との多重化信号を受信し、これらの多重化信号をビデオ信号と音声信号とに分別し、これら各信号から、各端末装置の画像出力装置に表示されるべき画像(以下、「会議画像」と言う)と、各端末装置の音声出力装置に出力されるべき音声(以下、「会議音声」と言う)を作成する。
たとえば、会議画像は、発言者などをもとに選定された1つの参加者画像であることもある。また、表示領域が適当な数(たとえば4つ)の参加者画像に分割表示された合成画像であり、発言している参加者を強調表示することもある。なお、会議音声は、全ての会議参加者の音声の合成音声であることもあるし、1つの音声または複数の特定参加者の音声の合成音声であることもある。
MCUは、上記のようにして作成した会議画像と会議音声を再び多重化し、この多重化信号を各参加者(場合によっては、傍観者)の端末装置にマルチキャスト送信する。
【0003】
ところで、WANを介して複数のLAN同士が接続されてなるビデオ会議システムでは、LAN単位で表示画像を変更したい場合も生じる。例えば、本社LANと、第1営業所LANと、第2営業所LANとがWANを介して接続されている場合に、本社LANの各端末装置の参加者は、第1営業所LANに接続されている端末装置の参加者画像を、ある優先度で画像表示装置に表示させたい場合が生じる。また、例えば、各営業所LANの各端末装置の参加者は、自分が属するLANの各端末装置の参加者画像を、ある優先度で画像表示装置に表示させたい場合も生じる。
しかし、前述した従来の何れのビデオ会議システムであっても、基本的には全ての端末装置について会議画像は同一であるため、上記のようにあるLANに属する端末装置からの参加者画像をある優先度で表示させることはできないと言う問題がある。
【0004】
【発明の目的】
本発明の目的は、端末装置の画像表示装置に、各LANごとに定められた、沈黙時間に基づく優先度で会議画像を表示することができる会議システムを提供することである。
【0005】
【発明の概要】
本発明のビデオ会議システムは、WANに複数のLANが接続され、前記各LANにそれぞれMCU(これらのMCUを、以下「LMCU」と言う)を介して前記WANに接続された少なくとも1つのビデオ会議端末装置が備えられ、(1)前記LMCUが、前記各端末装置の参加者の沈黙継続時間を監視すると共に、当該沈黙継続時間に、当該端末装置が属するLANに応じて定められた重み付けを行い、当該各参加者画像の表示優先度を決定する表示優先度決定手段、および、
(2)前記各参加者画像の中から、表示優先度が高い順に所定個数の参加者画像を選択し、これらの選択画像を当該LAN内の各端末装置にマルチキャストする手段を備えたことを特徴とする。
【0006】
表示優先度決定手段は、(1)当該LMCUが属するLAN内の前記端末装置の各参加者の沈黙継続時間を監視すると共に、(2)当該沈黙継続時間に、当該端末装置が属するLANに応じて定められた重み付けを行い、当該各参加者画像の表示優先度を決定する。表示優先度決定手段を2つの構成要素に分けて、(1)と(2)の処理を別個に行わすこともできる。
選択・出力手段は、前記各参加者画像の中から、表示優先度が高い順に所定個数の参加者画像を選択し、これらの選択画像を当該LAN内の端末会議装置にマルチキャストする。
【0007】
上記の重み付けには、種々の態様がある。たとえば、他のLMCUからの沈黙継続時間に一定の時間を加算、または減算することができる。あるいは、他のLMCUからの沈黙継続時間に所定係数を乗算することもできる。なお、沈黙継続時間が短いほど優先度が高い。
【0008】
本発明の会議システムでは、上記の重み付け(方法や程度)を適当に設定することにより、各LANの事情に合わせた参加者画像の選択を行うことができる。しかも、従来のように、単一のMCUで2種以上の合成画像を作るとその分WAN通信が増えるが、本発明の会議システムでは、この操作が局所化されているので、データ通信の量が増えることはない。
【0009】
なお、本発明の会議システムでは、特定の参加者に、最も高い表示優先度を付与する手段を設けることもできる。これにより、議長等、特定の参加者の表示優先度を他の参加者よりも高く設定することができる。
【0010】
【実施例】
図1は本発明の会議システムが適用されるネットワークの例を示す概略図である。図1において、WAN1に、複数のLAN21,22,23が、それぞれルータ31,32,33を介して接続されている。そして、LAN21には端末装置211〜215が、LAN22には端末装置221〜223が、LAN23には端末装置231〜236がそれぞれ接続されている。なお、LAN21には、会議に傍観者としてしか参加できない参加者(すなわち、参加者画像と参加者音声を受信するのみの参加者)の端末装置216,217も接続されている。
【0011】
ルータ31〜33は、それぞれLMCU41〜43を有しており、各LMCU41〜43は、相互にWAN1を介して通信することができる。
【0012】
図2,図3はLMCU41の構成をより詳細に示す図であり、図2はLAN入力処理部を、図3はWAN入力処理部をそれぞれ示している。
図2において、端末装置211〜215からの参加者画像と参加者音声との多重化信号M11〜M15はLAN入力部51により受信される。
図2に示すように、LAN入力部51は、これらの多重化信号M11〜M15を分配器52を介して、それぞれ分類器531〜535に分配出力する。
分類器531〜535は、多重化信号M11〜M15を参加者画像V11〜V15と参加者音声A11〜A15とにそれぞれ分け、V11〜V15を第1の参加者画像選択手段54に、A11〜A15を第1の表示優先度決定手段55に出力する。
【0013】
第1の表示優先度決定手段55は、参加者画像V11〜V15についての表示優先度を、参加者音声A11〜A15に基づき決定し、優先度が高い4つの参加者画像についての表示優先度P11,P12,P13,P15を選択する。この表示優先度は、後述するように、端末装置211〜215の各参加者の沈黙継続時間により定めることができる。
ここでは、参加者画像の表示優先度はV11,V12,V13,V15が、V14よりも高いものとする。
第1の表示優先度決定手段55は、表示優先度P11,P12,P13,P15を、第1の参加者画像選択手段54、多重化手段58、優先度バッファ62に出力すると共に、参加者音声A11〜A15を第1の音声合成手段56に出力する。
【0014】
第1の参加者画像選択手段54は、表示優先度P11,P12,P13,P15に基づき、4つの参加者画像V11,V12,V13,V15を選択し、これらを第1の画像合成手段57に出力する。第1の画像合成手段57はこれらの参加者画像を、表示領域が4分割された1画像VCに合成し、この合成画像VCを第1の多重化手段58および画像バッファ63に出力する。
第1の音声合成手段56は、参加者音声A11〜A15を1音声ACに合成し、この合成音声ACを音声バッファ61および第1の多重化手段58に出力する。
多重化手段58は、合成画像VC、優先度情報P(表示優先度P11,P12,P13,P15からなる)、および合成音声ACを多重化し、この多重化信号Mを、WAN出力部59に出力する。WAN出力部59は多重化信号Mを、WAN1を介してLAN22,23のLMCU42,43にマルチキャスト送信する。
【0015】
LAN21,22のLMCU42,43は、上記と同様のLAN入力処理部を備えており、多重化信号M,MをWAN1上に出力している。ここでは、Mは、端末装置221,222,223の参加者画像V21,V22,V23の合成画像VC、これら参加者画像の優先度情報P(表示優先度P21,P22,P23からなる)、および端末装置221〜223の合成音声ACの多重化信号であり、Mは、端末装置222,223,224,225の参加者画像V32,V33,V34,V35の合成画像VC、これら参加者画像の優先度情報P(表示優先度P32,P33,P34,P35からなる)、および端末装置231〜236の合成音声ACの多重化信号であるものとする。
【0016】
図3に示すように、LMCU42,43からの多重化信号M,Mは、WAN入力部71により受信される。
WAN入力部71はM,Mを分配器72に出力し、分配器72はこれらの多重化信号M,Mを分類器731,732にそれぞれ出力する。
分類器731は、合成画像VCを画像分類器741に、優先度情報Pを優先度分類器742に、合成音声ACを音声合成手段75にそれぞれ出力する。また、分類器732は、合成画像VCを画像分類器743に、優先度情報Pを優先度分類器744に、合成音声ACを音声合成手段75にそれぞれ出力する。
【0017】
画像分類器741は、合成画像VCをV21,V22,V23に分けて、これらを第2の参加者画像選択手段76に出力する。また、同様に、分類器743は、合成画像VCをV32,V33,V34,V35に分けて、これらを第2の参加者画像選択手段76に出力する。
優先度分類器742は、優先度情報Pを表示優先度P21,P22,P23に分けて、これらを第2の表示優先度決定手段77に出力する。また、同様に、優先度分類器744は、優先度情報Pを表示優先度P32,P33,P34,P35に分けて、これらを第2の表示優先度決定手段77に出力する。
【0018】
第2の表示優先度決定手段77は、表示優先度P21,P22,P23に対しLAN21について予め定められた重み付けを施すと共に、表示優先度P32,P33,P34,P35に対しLAN23について予め定められた重み付けを施す。
ここでは、第2の表示優先度決定手段77は、表示優先度P21,P22,P23をある度数だけ一律に低くし、新たな重み付き表示優先度P′21,P′22,P′23を生成し、表示優先度P32,P33,P34,P35をある度数だけ一律に低くし、新たに重み付表示優先度P′32,P′33,P′34,P′35を生成している。第2の表示優先度決定手段77は、図2で述べた優先度バッファ62から、表示優先度P11,P12,P13,P15を入力している。上記の各重み付き表示優先度を入力するとともに、これらの表示優先度の中から表示優先度が高い4つ(ここでは、P12,P15,P′23,P′32)を特定し、選択信号S2を第2の参加者画像選択手段76に出力する。
【0019】
参加者画像選択手段76は、参加者画像V21〜V23,V31〜V36を入力すると共に、図2で述べた画像バッファ63から参加者画像VC(V11〜V13,V15)を入力しており、これら参加者画像の中から、選択信号Sに基づき表示優先度が高い参加者画像V12,V15,V23,V32を選択して、第2の画像合成手段78に出力する。第2の画像合成手段78は、これらの参加者画像V12,V15,V23,V32を、表示領域が4分割された1画像Vに合成し、この合成画像Vを多重化手段79に出力する。
音声合成手段75は、前述したようにAC,ACを入力すると共に、図2で述べた音声バッファ61から合成音声ACを入力しており、これらを1音声Aに合成し、この合成音声Aを多重化手段79に出力する。
多重化手段79は、入力した合成画像V、および合成音声Aを多重化し、この多重化信号MLAN1を、LAN出力部80に出力する。LAN出力部80はこの多重化信号MLAN1を、LAN21を介して端末装置211〜215および216,217にマルチキャスト送信する。
【0020】
LMCUが、表示優先度を各参加者の沈黙継続時間に基づき決定し、これら参加者画像を合成画面に出力する場合の実施例を図2を参照しつつ以下に説明する。
各LMCU41〜43の第1の表示優先度決定手段55は、各ユーザの音声レベルを、あるしきい値と比較し、音声レベルから各参加者が音声を発しているかを判定する。表示優先度決定手段55は、タイマーを有しており、参加者の沈黙継続時間を監視し、最後に喋った時刻を記録している。
評価値は、沈黙継続時間で決まる部分と、重み付けで決まる部分(後述する偏値参照)とがある。評価値が取り得る値は、通常は0〜100である。たとえば、重み付けがなされない場合、参加者が発言し終わった瞬間は評価値は0であり、沈黙時間が経過するごとに高くなり、所定の時間が経過すると100となり、それ以上は増加しない。評価値の重み付けで決まる部分は、沈黙時間とは独立に与えられる。例えば、重みが20である場合には、評価値の初期値は20であり、沈黙時間が経過するごとに20から増加して行く。
【0021】
なお、表示優先度は、評価値が大きいほど低く、評価値が小さいほど高い。
表示優先度決定手段55は、上記評価値をもとに、表示優先度が高い4つ(すなわち、評価値が低い4参加者)の画像を特定する信号Sを第1の参加者画像選択手段54に出力する。第1の参加者画像選択手段54は、信号Sに基づく4画像を選択し、これらの画像を第1の参加者画像合成手段57に出力する。第1の参加者画像合成手段57は、当該4画像を表示領域が4分割された1画像に合成し、前述したように多重化手段58に出力する。
【0022】
図4(a−1),(a−2),(a−3)は、LMCU41〜43の第1の参加者画像合成手段57により合成された画像VC〜VC、および各分割画像の評価値(沈黙継続時間で決まる部分)e〜eを示している。なお、各画像VC〜VCにおいて、分割画像は表示優先度が高い順(評価値が低い順)に、左上,右上,左下,右下の順に表示されている。たとえば、LMCU41においては、V11,V12,V13,V15が表示されており、(a−1)示すように、評価値は、V12については「3」、V15については「21」、V11については「78」、V13については「90」である。
【0023】
これらの合成画像VC〜VC、および評価値は、LMCU41〜43の多重化手段58により合成音声と共に多重化され、WAN1を介してLMCU相互に交換される。各LMCUは、他のLMCUからの音声は、自己のLANの各端末装置の音声とそのまま合成している。
図3で述べた第2の表示優先度決定手段77による重み付けは、他のLMCUからの評価値に偏値(評価値のうち重み付けで決まる部分)を加えることにより行う。
【0024】
たとえば、LMCU41の第2の表示優先度決定手段77は、自己の評価値eには偏値を加えずに、LMCU42,43からの評価値について他地点偏値「20」を加える。図4(b−1),(b−2),(b−3)に、偏値が加えられていない評価値eおよび偏値を加えた後の評価値e′,e′を示す。表示優先度決定手段77は、各評価値e,e′,e′を参照して、最も評価値が小さい4画像を選択するための信号Sを生成し、これを参加者画像選択手段76に出力する。前述したように参加者画像選択手段76は、信号Sに基づき、4画像(この場合には、V12,V15,V23,V32)を選択し、第2の画像合成手段78に出力し、該合成手段78は図4(c−1)に示すような合成画像を作成する。
【0025】
LMCU42,43においても、上記と同様の処理が行われ、各第2の画像合成手段78は、図4(c−2),(c−3)に示すような合成画像を作成する。前述したように、LMCU41〜43のLAN出力部80は、図4(a−1),(c−2),(c−3)に示す合成画像VC〜VCを各LANの端末装置に、合成音声AC〜ACと共にマルチキャスト転送する。
なお、図4(c−1),(c−2),(c−3)では、参加者画像を優先度が高い順に配置しているが、表示はされるが位置が変わるだけである場合には、参加者画像の表示位置をもとのままに維持することが好ましい(すなわち、具体的には、4分割された参加者画像の表示領域の配置の交替を行う)。
【0026】
図5にLMCU41〜43における、処理過程を示す。同図では、参加者画像の処理の流れ、および音声信号の処理の流れを示している。たとえば、LMCU41は、LMCU42,43から多重化信号M(合成画像VC,合成音声AC)、多重化信号M(合成画像VC,合成音声AC)を受信し、これらと自己の合成画像VC,合成音声ACとから、合成画像V,合成音声Aを作成した様子を示している。
【0027】
他地点偏値は、LANでの局所性を保つためのもので、この値を0とすると、会議に属する全ての端末装置には同一画像が表示される。すなわち、会議の全ての参加者の中から、沈黙継続時間が短い順に4人が選ばれて表示される。
他のLMCUからの他地点偏値を大きくすると、自己のLAN内の参加者の表示頻度が高くなる。
【0028】
また、LMCU41〜43間の取り決めにより、議長を一人選ぶこともできる。議長が属するLANのLMCUは議長モードとなり、議長に対する評価値は音声レベルに関係なく、「−120」(他地点偏値(20)と、沈黙継続時間で決まる評価値部分の最大値(100)の和に負の符号を付した値)とする。これにより、議長の評価値は、どのLMCUにおいても最小となるために、議長画像は常に合成画面に現れるようにできる。なお、議長に限らず、注目しておきたい話者について、議長と同様の取り扱いをすることもできる。このような取り扱いがされる参加者は1人とは限らず同時に複数(たとえば2人とする)こともできる。
【0029】
以上の実施例から明らかなように、本発明の会議システムは、以下の実施態様をも包含する。
すなわち、各LANに設けられるMCUが、
LAN入力処理部として、
[1]当該LANの各端末装置からそれぞれ受信した参加者画像についての表示優先度を、各参加者の沈黙継続時間の短さにより決定する第1の表示優先度決定手段(55)と、
[2]所定人数分の参加者画像を、前記参加者画像の中から、上記表示優先度の高い順に選択する第1の参加者画像選択手段(54)と、
[3]これらを1画面上に合成する第1の画像合成手段(57)と、
[4]当該LANの各端末装置からそれぞれ受信した音声を合成する第1の音声合成手段(56)と、
[5]上記第1の参加者画像選択手段により合成された画像、これらの参加者画像についての前記表示優先度、および上記第1の音声合成手段により合成された音声を、他のLANのMCUに多重データとして送信する第1の送信手段(58,59)と、
をそれぞれ備え、
WAN入力処理部として、
[6]他の複数のLANのMCUから、前記多重データを受信する手段(71)と、
[7]前記他の複数のLANのMCUから受信した沈黙継続時間に、当該他の複数のLANについてそれぞれ定められた重み付けを施し、前記出力処理部の第1の参加者画像選択手段により選択された所定人数分の参加者画像、および前記他の複数のLANのMCUからそれぞれ受信した所定人数分の参加者画像についての表示優先度を各参加者の沈黙継続時間の短さにより決定する第2の参加者画像選択手段(77)と、
[8]所定人数分の参加者画像を、前記出力処理部の第1の参加者画像選択手段により選択された所定人数分の参加者画像、および前記他の複数のLANのMCUから受信した所定人数分の参加者画像の中から、表示優先度の高い順に選択し、これらを1画面上に合成する第2の画像合成手段(76)と、
[9]第1の音声合成手段により合成された音声と、前記他の複数のLANのMCUから受信した各音声とを合成する第2の音声合成手段(75)と、
[10]上記第2の参加者画像選択手段により合成された合成画像と、前記第2の音声合成手段により合成された音声を、多重データとして当該LAN内の端末装置に送信する第2の送信手段(79,80)と、
をそれぞれ備えることを特徴とする。
【0030】
【発明の効果】
本発明は、端末装置の画像表示装置に、各LANごとに定められた沈黙時間に基づく優先度で会議画像を表示することができる。
特に、本発明ではMCU機能が分散管理されているので、1つのLMCUあたりの負荷を低減すると共に、WANの通信量を会議システム全体を通じて減少させる効果をも奏することができる。
【図面の簡単な説明】
【図1】本発明のビデオ会議システムが適用されるシステムの一例を示す概略図である。
【図2】本発明のビデオ会議システムにおけるLMCUの入力処理部の一例を示す説明図である。
【図3】本発明のビデオ会議システムにおけるWAN入力処理部の一例を示す説明図である。
【図4】(a−1)〜(a−3)は、各LMCUにより合成された各画像および各分割画像の評価値を示す図、(b−1)〜(b−3)は前記評価値に偏値を加えた後の評価値を示す図、(c−1)〜(c−3)は各LMCUにより合成されて各端末装置に送信される画像を示す図である。
【図5】LMCUがWANを介して相互に多重化信号を交換する様子を示す説明図である。
【符号の説明】
1 WAN
21〜23 LAN
211〜217 LAN21の端末装置
221〜223 LAN22の端末装置
231〜236 LAN23の端末装置
31〜33 ルータ
41〜43 LMCU
51 LAN入力部
531〜535 分類器
54 第1の参加者画像選択手段
55 第1の表示優先度決定手段
56 第1の音声合成手段
57 第1の画像合成手段
58 多重化手段
59 WAN出力部
61 音声バッファ
62 優先度バッファ
63 画像バッファ
71 WAN入力部
72 分配器
731,732 分類器
741,743 画像分類器
742,744 優先度分類器
76 第2の参加者画像選択手段
77 第2の表示優先度決定手段
78 画像合成手段
79 多重化手段
80 LAN出力部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a video conference system in which a plurality of narrow area networks are connected to a wide area network, and more particularly, to a technique for displaying a participant image using a multipoint control unit (hereinafter, referred to as “MCU”).
[0002]
[Technical background]
2. Description of the Related Art A video conference system (hereinafter simply referred to as a "conference system") is configured by connecting a plurality of LANs (narrow networks) such as Ethernet to one WAN (wide area network) such as an ATM (asynchronous transfer mode) line. It is often done.
Conventionally, in this type of system, an MCU is provided on any one LAN, or provided on each LAN.
Here, the MCU receives multiplexed signals of participant images and participant voices from respective video conference terminal devices (hereinafter, referred to as “terminal devices”) of each conference participant, and receives these multiplexed signals. Is separated into a video signal and an audio signal, and from these signals, an image to be displayed on an image output device of each terminal device (hereinafter referred to as a “conference image”) and output to an audio output device of each terminal device The audio to be performed (hereinafter referred to as “conference audio”) is created.
For example, the conference image may be one participant image selected based on a speaker or the like. In addition, the display area is a composite image divided and displayed on an appropriate number (for example, four) of participant images, and the speaking participant may be highlighted. The conference voice may be a synthesized voice of voices of all conference participants, or may be a synthesized voice of one voice or voices of a plurality of specific participants.
The MCU again multiplexes the conference image and the conference audio created as described above, and multicasts the multiplexed signal to the terminal device of each participant (in some cases, bystander).
[0003]
By the way, in a video conference system in which a plurality of LANs are connected to each other via a WAN, there are cases where it is desired to change a display image in LAN units. For example, when the head office LAN, the first office LAN, and the second office LAN are connected via a WAN, the participants of the terminal devices of the head office LAN are connected to the first office LAN. There is a case in which a participant image of the terminal device that the user wants to display on the image display device with a certain priority. Further, for example, a participant of each terminal device of each office LAN may want to display a participant image of each terminal device of the LAN to which the participant belongs on an image display device with a certain priority.
However, in any of the conventional video conference systems described above, since the conference image is basically the same for all terminal devices, there is a participant image from a terminal device belonging to a certain LAN as described above. There is a problem that it cannot be displayed by priority.
[0004]
[Object of the invention]
SUMMARY OF THE INVENTION It is an object of the present invention to provide a conference system which can display a conference image on an image display device of a terminal device with a priority determined based on a silence time for each LAN.
[0005]
Summary of the Invention
The video conferencing system according to the present invention is characterized in that a plurality of LANs are connected to a WAN and at least one video conference connected to the WAN via an MCU (hereinafter, these MCUs are referred to as “LMCUs”). (1) The LMCU monitors the duration of silence of a participant of each of the terminal apparatuses, and weights the duration of silence according to the LAN to which the terminal apparatus belongs. Display priority determining means for determining the display priority of each participant image, and
(2) There is provided a means for selecting a predetermined number of participant images from the respective participant images in descending order of display priority and multicasting these selected images to each terminal device in the LAN. And
[0006]
The display priority determining means (1) monitors the silence duration of each participant of the terminal device in the LAN to which the LMCU belongs, and (2) responds to the LAN to which the terminal device belongs in the silence continuation time. The display priority of each participant image is determined. The display priority determining means may be divided into two components, and the processes (1) and (2) may be performed separately.
The selection / output means selects a predetermined number of participant images from the respective participant images in descending order of display priority, and multicasts the selected images to the terminal conference device in the LAN.
[0007]
There are various modes for the above weighting. For example, a certain time can be added to or subtracted from the silence duration from another LMCU. Alternatively, the silence duration from another LMCU can be multiplied by a predetermined coefficient. The priority is higher as the silence duration is shorter.
[0008]
In the conference system of the present invention, by appropriately setting the weights (methods and degrees), it is possible to select a participant image according to the circumstances of each LAN. Moreover, as in the conventional case, when two or more types of composite images are created by a single MCU, WAN communication increases accordingly. However, in the conference system of the present invention, since this operation is localized, the amount of data communication is increased. Does not increase.
[0009]
In the conference system of the present invention, means for giving the highest display priority to a specific participant may be provided. As a result, the display priority of a specific participant such as the chair can be set higher than other participants.
[0010]
【Example】
FIG. 1 is a schematic diagram showing an example of a network to which the conference system of the present invention is applied. In FIG. 1, a plurality of LANs 21, 22, and 23 are connected to a WAN 1 via routers 31, 32, and 33, respectively. The terminal devices 211 to 215 are connected to the LAN 21, the terminal devices 221 to 223 are connected to the LAN 22, and the terminal devices 231 to 236 are connected to the LAN 23. The LAN 21 is also connected to terminal devices 216 and 217 of participants who can only participate in the conference as bystanders (that is, participants who only receive the participant image and the participant voice).
[0011]
The routers 31 to 33 have LMCUs 41 to 43, respectively, and the LMCUs 41 to 43 can communicate with each other via the WAN1.
[0012]
2 and 3 are diagrams showing the configuration of the LMCU 41 in more detail. FIG. 2 shows a LAN input processing unit, and FIG. 3 shows a WAN input processing unit.
In FIG. 2, multiplexed signals M 11 to M 15 of participant images and participant voices from terminal devices 211 to 215 are received by LAN input unit 51.
As shown in FIG. 2, the LAN input unit 51 distributes and outputs these multiplexed signals M 11 to M 15 to the classifiers 531 to 535 via the distributor 52.
Classifier 531 to 535 divides each multiplexed signal M 11 ~M 15 to the participant audio A 11 to A 15 and participants image V 11 ~V 15, the V 11 ~V 15 first participant image The selection means 54 outputs A 11 to A 15 to the first display priority determination means 55.
[0013]
The first display priority determining means 55 determines the display priority of the participant images V 11 to V 15 based on the participant voices A 11 to A 15, and determines the display priority of the four high-priority participant images. The display priorities P 11 , P 12 , P 13 and P 15 are selected. This display priority can be determined by the silence duration of each participant of the terminal devices 211 to 215 as described later.
Here, it is assumed that the display priorities of the participant images are V 11 , V 12 , V 13 , and V 15 higher than V 14 .
The first display priority determining unit 55 outputs the display priorities P 11 , P 12 , P 13 , and P 15 to the first participant image selecting unit 54, the multiplexing unit 58, and the priority buffer 62. , And outputs the participant voices A 11 to A 15 to the first voice synthesis means 56.
[0014]
The first participant image selection means 54 selects four participant images V 11 , V 12 , V 13 , and V 15 based on the display priorities P 11 , P 12 , P 13 , and P 15 , and selects these. Output to the first image combining means 57. The first image synthesizing unit 57 synthesizes these participant images into one image VC 1 whose display area is divided into four, and outputs the synthesized image VC 1 to the first multiplexing unit 58 and the image buffer 63. .
The first voice synthesis means 56 synthesizes the participant voices A 11 to A 15 into one voice AC 1 and outputs the synthesized voice AC 1 to the voice buffer 61 and the first multiplexing means 58.
The multiplexing means 58 multiplexes the synthesized image VC 1 , the priority information P 1 (consisting of display priorities P 11 , P 12 , P 13 , and P 15 ) and the synthesized voice AC 1, and multiplexes the multiplexed signal M 1 Is output to the WAN output unit 59. WAN output unit 59 the multiplexed signal M 1, multicasts to LMCU42,43 of LAN22,23 through WAN1.
[0015]
The LMCUs 42 and 43 of the LANs 21 and 22 have the same LAN input processing unit as described above, and output multiplexed signals M 2 and M 3 onto the WAN 1. Here, M 2 is the composite image VC 2 participants image V 21, V 22, V 23 of the terminal device 221, 222, 223, priority information P 2 of these participants image (display priority P 21, P 22, composed of P 23), and a multiplexed signal of the synthesized speech AC 2 terminal devices 221 to 223, M 3 is participant image V 32 of the terminal device 222,223,224,225, V 33, V 34, the composite image VC 3 of V 35, (consisting of display priority P 32, P 33, P 34 , P 35) the priority information P 3 of these participants images, and synthesized speech AC 3 of the terminal apparatus 231 to 236 Multiplexed signal.
[0016]
As shown in FIG. 3, the multiplexed signals M 2 and M 3 from the LMCUs 42 and 43 are received by the WAN input unit 71.
The WAN input unit 71 outputs M 2 and M 3 to the distributor 72, and the distributor 72 outputs these multiplexed signals M 2 and M 3 to the classifiers 731 and 732, respectively.
The classifier 731 outputs the synthesized image VC 2 to the image classifier 741, the priority information P 2 to the priority classifier 742, and the synthesized speech AC 2 to the speech synthesis unit 75. The classifier 732 outputs the synthesized image VC 3 to the image classifier 743, the priority information P 3 to the priority classifier 744, and the synthesized speech AC 3 to the speech synthesis unit 75.
[0017]
Image classifier 741, a composite image VC 2 is divided into V 21, V 22, V 23 , and outputs them to the second participant image selection unit 76. Similarly, the classifier 743, the composite image VC 3 is divided into V 32, V 33, V 34 , V 35, and outputs them to the second participant image selection unit 76.
Priority classifier 742 divides the priority information P 2 to the display priority P 21, P 22, P 23 , and outputs them to the second display priority determining means 77. Similarly, priority classifier 744 divides the priority information P 3 to the display priority P 32, P 33, P 34 , P 35, and outputs them to the second display priority determining means 77 .
[0018]
The second display priority determining means 77 applies a predetermined weight to the display priority P 21 , P 22 , and P 23 for the LAN 21 and assigns the display priority P 32 , P 33 , P 34 , and P 35 to the display priority P 21 , P 22 , and P 23. On the other hand, a predetermined weight is applied to the LAN 23.
Here, the second display priority determining means 77 uniformly lowers the display priorities P 21 , P 22 , and P 23 by a certain frequency, and sets new weighted display priorities P ′ 21 , P ′ 22 , P '23 generates, low only uniform degree that the display priority P 32, P 33, P 34, P 35, new display priority P weighting' 32, P '33, P' 34, P ' 35 is generated. The second display priority determining unit 77 receives the display priorities P 11 , P 12 , P 13 , and P 15 from the priority buffer 62 described with reference to FIG. The above-mentioned weighted display priorities are input, and four of the display priorities (here, P 12 , P 15 , P ′ 23 , P ′ 32 ) having the highest display priority are specified, The selection signal S2 is output to the second participant image selection means 76.
[0019]
Participants image selecting unit 76 inputs the participant image V 21 ~V 23, V 31 ~V 36, participant image VC 1 from the image buffer 63 described in FIG. 2 (V 11 ~V 13, V 15 ) Is input, and among the participant images, the participant images V 12 , V 15 , V 23 , and V 32 having a high display priority are selected based on the selection signal S 2 , and the second image synthesis is performed. Output to means 78. The second image synthesizing unit 78 synthesizes these participant images V 12 , V 15 , V 23 , and V 32 into one image V 1 whose display area is divided into four, and multiplexes the synthesized image V 1 . Output to means 79.
The voice synthesizing means 75 receives AC 2 and AC 3 as described above, and also receives a synthesized voice AC 1 from the voice buffer 61 described in FIG. 2 and synthesizes them into one voice A 1. and it outputs the synthesized speech a 1 to the multiplexing unit 79.
The multiplexing unit 79 multiplexes the input synthesized image V 1 and synthesized voice A 1 and outputs the multiplexed signal MLAN1 to the LAN output unit 80. The LAN output unit 80 multicasts the multiplexed signal MLAN1 to the terminal devices 211 to 215 and 216 and 217 via the LAN 21.
[0020]
An embodiment in which the LMCU determines the display priority based on the duration of silence of each participant and outputs these participant images to the composite screen will be described below with reference to FIG.
The first display priority determining means 55 of each of the LMCUs 41 to 43 compares the voice level of each user with a certain threshold value, and determines from each voice level whether each participant is emitting voice. The display priority determination means 55 has a timer, monitors the duration of silence of the participant, and records the last time of speaking.
The evaluation value has a part determined by the silence duration and a part determined by weighting (see a bias value described later). The value that the evaluation value can take is usually 0 to 100. For example, when weighting is not performed, the evaluation value is 0 at the moment when the participant finishes speaking, becomes higher every time the silence time elapses, becomes 100 after the predetermined time elapses, and does not increase any more. The part determined by the weighting of the evaluation value is given independently of the silence time. For example, when the weight is 20, the initial value of the evaluation value is 20, and it increases from 20 every time the silence time elapses.
[0021]
The display priority is lower as the evaluation value is larger, and is higher as the evaluation value is smaller.
Display priority determining means 55, on the basis of the evaluation value, the display priority four high (i.e., a low evaluation value 4 participants) first participant image select signals S 1 to identify the image Output to the means 54. The first participant image selecting means 54 selects four images based on the signal S 1 and outputs these images to the first participant image synthesizing means 57. The first participant image synthesizing unit 57 synthesizes the four images into one image whose display area is divided into four, and outputs the synthesized image to the multiplexing unit 58 as described above.
[0022]
Figure 4 (a-1), ( a-2), (a-3) , the first participant image synthesizing means 57 image VC 1 to Vc 3 was synthesized by the LMCU41~43, and each divided image evaluation value (part determined by the silence duration) shows e 1 to e 3. In each image VC 1 to Vc 3, divided images on the display in descending order of priority (evaluation values in ascending order), the upper left, upper right, lower left, are displayed in the order at the lower right. For example, in LMCU41, V 11, V 12, V 13, V 15 and is displayed, (a-1) as shown, the evaluation value is "3" for V 12, the V 15 is "21 "for V 11 is" 78 ", the V 13 is" 90 ".
[0023]
These synthesized images VC 1 to VC 3 and the evaluation value are multiplexed together with the synthesized voice by the multiplexing means 58 of the LMCUs 41 to 43, and are exchanged between the LMCUs via the WAN 1. Each LMCU synthesizes the voice from the other LMCU directly with the voice of each terminal device of its own LAN.
The weighting by the second display priority determining means 77 described in FIG. 3 is performed by adding a bias value (a part of the evaluation value determined by the weighting) to the evaluation value from another LMCU.
[0024]
For example, the second display priority determining means 77 of LMCU41 is without adding Henchi the evaluation value e 1 self, adding other point polarization value "20" for the evaluation value from LMCU42,43. FIG 4 (b-1), a (b-2), (b -3) , the evaluation value e '2, e' 3 after the polarization value is added an evaluation value e 1 and Henchi not added Show. The display priority determining means 77 refers to the evaluation values e 1 , e ′ 2 , e ′ 3 to generate a signal S 2 for selecting the four images having the smallest evaluation values, and to generate a signal S 2 for the participant image. Output to the selection means 76. As described above, the participant image selection means 76 selects four images (in this case, V 12 , V 15 , V 23 , V 32 ) based on the signal S 2 , and sends the selected image to the second image synthesis means 78. Then, the combining means 78 creates a combined image as shown in FIG.
[0025]
The same processing as described above is performed in the LMCUs 42 and 43, and each second image combining unit 78 creates a combined image as shown in FIGS. 4 (c-2) and (c-3). As described above, the LAN output unit 80 of each of the LMCUs 41 to 43 transmits the composite images VC 1 to VC 3 shown in FIGS. 4 (a-1), (c-2), and (c-3) to the terminal device of each LAN. , And multicast transmission together with the synthesized voices AC 1 to AC 3 .
In FIG. 4 (c-1), (c-2), and (c-3), the participant images are arranged in descending order of priority, but are displayed but changed only in position. It is preferable that the display position of the participant image is maintained as it is (that is, the arrangement of the display areas of the participant image divided into four parts is changed).
[0026]
FIG. 5 shows the processing steps in the LMCUs 41 to 43. FIG. 2 shows a flow of processing of a participant image and a flow of processing of an audio signal. For example, the LMCU 41 receives a multiplexed signal M 2 (synthesized image VC 2 , synthesized voice AC 2 ) and a multiplexed signal M 3 (synthesized image VC 3 , synthesized voice AC 3 ) from the LMCUs 42 and 43, and receives them and their own. A state is shown in which a synthesized image V 1 and a synthesized voice A 1 are created from a synthesized image VC 1 and a synthesized voice AC 1 .
[0027]
The other point bias value is for maintaining locality in the LAN, and when this value is set to 0, the same image is displayed on all terminal devices belonging to the conference. That is, among all participants of the conference, four persons are selected and displayed in ascending order of silence duration.
When the local deviation value from another LMCU is increased, the display frequency of the participants in the own LAN increases.
[0028]
In addition, one chairperson can be selected according to the agreement between the LMCUs 41 to 43. The LMCU of the LAN to which the chair belongs belongs to the chair mode, and the evaluation value for the chair is "-120" (other-point bias value (20) and the maximum value (100) of the evaluation value portion determined by the silence duration time regardless of the voice level). (A value obtained by adding a negative sign to the sum of Thus, the chair's evaluation value is minimized in any LMCU, so that the chair image can always appear on the composite screen. It should be noted that not only the chair but also speakers who want to pay attention can be treated in the same manner as the chair. The number of participants to be treated in this way is not limited to one, but may be plural (for example, two) at the same time.
[0029]
As is clear from the above embodiments, the conference system of the present invention also includes the following embodiments.
That is, the MCU provided in each LAN is
As a LAN input processing unit,
[1] first display priority determining means (55) for determining a display priority of a participant image received from each terminal device of the LAN based on a short duration of silence of each participant;
[2] first participant image selection means (54) for selecting a predetermined number of participant images from the participant images in the order of the display priority,
[3] first image combining means (57) for combining these on one screen;
[4] first voice synthesizing means (56) for synthesizing voice received from each terminal device of the LAN,
[5] The images synthesized by the first participant image selecting means, the display priorities of these participant images, and the voice synthesized by the first voice synthesizing means are converted into the MCU of another LAN. First transmission means (58, 59) for transmitting the multiplexed data to
Respectively,
As a WAN input processing unit,
[6] means (71) for receiving the multiplexed data from MCUs of other plural LANs;
[7] The silence durations received from the MCUs of the other plurality of LANs are weighted respectively determined for the other plurality of LANs, and are selected by the first participant image selecting means of the output processing unit. The display priority of the predetermined number of participant images and the display number of the predetermined number of participant images respectively received from the MCUs of the other plurality of LANs is determined by the short duration of silence of each participant. Participant image selection means (77),
[8] A predetermined number of participant images received by the predetermined number of participant images selected by the first participant image selection means of the output processing unit and the plurality of other LAN MCUs A second image synthesizing means (76) for selecting, from the participant images for the number of participants, in descending order of display priority and synthesizing them on one screen;
[9] a second voice synthesizing unit (75) for synthesizing the voice synthesized by the first voice synthesizing unit and each voice received from the MCUs of the other plurality of LANs;
[10] A second transmission of transmitting the synthesized image synthesized by the second participant image selecting means and the voice synthesized by the second voice synthesizing means to the terminal device in the LAN as multiplexed data. Means (79, 80);
, Respectively.
[0030]
【The invention's effect】
According to the present invention, a conference image can be displayed on an image display device of a terminal device with a priority based on a silence time determined for each LAN.
In particular, according to the present invention, since the MCU function is distributedly managed, the load per LMCU can be reduced, and the effect of reducing the WAN traffic throughout the conference system can be achieved.
[Brief description of the drawings]
FIG. 1 is a schematic diagram showing an example of a system to which a video conference system of the present invention is applied.
FIG. 2 is an explanatory diagram showing an example of an input processing unit of an LMCU in the video conference system of the present invention.
FIG. 3 is an explanatory diagram showing an example of a WAN input processing unit in the video conference system of the present invention.
FIGS. 4 (a-1) to (a-3) are diagrams showing evaluation values of each image and each divided image synthesized by each LMCU, and FIGS. 4 (b-1) to (b-3) are diagrams showing the evaluation values. FIG. 3C is a diagram illustrating an evaluation value after a bias value is added to a value, and FIGS. 3C to 3C are diagrams illustrating images synthesized by each LMCU and transmitted to each terminal device.
FIG. 5 is an explanatory diagram showing how the LMCU exchanges multiplexed signals with each other via a WAN.
[Explanation of symbols]
1 WAN
21-23 LAN
211 to 217 Terminal devices 221 to 223 of LAN 21 Terminal devices 231 to 236 of LAN 22 Terminal devices 31 to 33 of LAN 23 Routers 41 to 43 LMCU
51 LAN input units 531 to 535 Classifier 54 First participant image selecting unit 55 First display priority determining unit 56 First voice synthesizing unit 57 First image synthesizing unit 58 Multiplexing unit 59 WAN output unit 61 Audio buffer 62 Priority buffer 63 Image buffer 71 WAN input unit 72 Distributors 731 and 732 Classifiers 741 and 743 Image classifiers 742 and 744 Priority classifier 76 Second participant image selection means 77 Second display priority Determining means 78 image synthesizing means 79 multiplexing means 80 LAN output unit

Claims (3)

広域ネットワークに、複数の狭域ネットワークが接続され、前記各狭域ネットワークにそれぞれマルチポイントコントロールユニットを介して前記広域ネットワークに接続された少なくとも1つのビデオ会議端末装置が備えられ、各マルチポイントコントロールユニットが、他の狭域ネットワークに設けられたマルチポイントコントロールユニットと相互に通信し、かつ各ビデオ会議端末装置の画像表示装置に複数の参加者が表示されるビデオ会議システムであって、前記マルチポイントコントロールユニットが、前記各端末装置の参加者の沈黙継続時間を監視すると共に、当該沈黙継続時間に、当該端末装置が属する狭域ネットワークに応じて定められた重み付けを行い、当該各参加者画像の表示優先度を決定する表示優先度決定手段、および、前記各参加者画像の中から、表示優先度が高い順に所定個数の参加者画像を選択し、これらの選択画像を当該狭域ネットワーク内の各ビデオ会議端末装置にマルチキャストする手段、を備えたことを特徴とするビデオ会議システム。A plurality of narrow area networks are connected to the wide area network, and each of the plurality of narrow area networks is provided with at least one video conference terminal connected to the wide area network via a multipoint control unit. Is a video conferencing system that communicates with a multipoint control unit provided in another narrow area network, and in which a plurality of participants are displayed on an image display device of each video conference terminal device, wherein the multipoint The control unit monitors the silence duration of the participant of each of the terminal devices, and performs a weighting on the silence duration according to the narrow-area network to which the terminal device belongs, to thereby obtain the image of each of the participant images. Display priority determining means for determining display priority, and Means for selecting a predetermined number of participant images from the participant images in descending order of display priority, and multicasting these selected images to each video conference terminal device in the narrow area network. A video conference system. 特定の参加者に、最も高い表示優先度を付与する手段を設けてなることを特徴とする請求項1に記載のビデオ会議システム。The video conference system according to claim 1, further comprising means for assigning the highest display priority to a specific participant. 前記重み付けが、前記沈黙継続時間に基づいて定められる評価値への、重みを表す値の加算であり、前記表示優先度の序列が、前記加算の結果の値の低い順に決定されることを特徴とする請求項1または2に記載のビデオ会議システム。The weighting is an addition of a value representing a weight to an evaluation value determined based on the silence duration , and the display priority order is determined in ascending order of the value of the result of the addition. The video conference system according to claim 1 or 2, wherein
JP29355195A 1995-10-17 1995-10-17 Video conferencing systems Expired - Fee Related JP3573850B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP29355195A JP3573850B2 (en) 1995-10-17 1995-10-17 Video conferencing systems

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP29355195A JP3573850B2 (en) 1995-10-17 1995-10-17 Video conferencing systems

Publications (2)

Publication Number Publication Date
JPH09135431A JPH09135431A (en) 1997-05-20
JP3573850B2 true JP3573850B2 (en) 2004-10-06

Family

ID=17796225

Family Applications (1)

Application Number Title Priority Date Filing Date
JP29355195A Expired - Fee Related JP3573850B2 (en) 1995-10-17 1995-10-17 Video conferencing systems

Country Status (1)

Country Link
JP (1) JP3573850B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5211001B2 (en) * 2009-09-09 2013-06-12 日本電信電話株式会社 Conference communication system, conference communication method and program
EP2525533B1 (en) * 2011-05-16 2014-02-26 Alcatel Lucent Method and apparatus for providing bidirectional communication between segments of a home network

Also Published As

Publication number Publication date
JPH09135431A (en) 1997-05-20

Similar Documents

Publication Publication Date Title
US7612793B2 (en) Spatially correlated audio in multipoint videoconferencing
US6330022B1 (en) Digital processing apparatus and method to support video conferencing in variable contexts
US5745380A (en) Priority controlled transmission of multimedia streams via a telecommunication line
US5675374A (en) Video teleconferencing system
US5970054A (en) Multipoint teleconference system employing H. 221 frames
JP2827932B2 (en) Synthetic screen display control method for multipoint video conference
US8289362B2 (en) Audio directionality control for a multi-display switched video conferencing system
JP2000270304A (en) Multispot video conference system
JPH07200424A (en) Voice conference system and its control method
WO2010045515A1 (en) Telepresence conference room layout, dynamic scenario manager, diagnostics and control system and method
JPH09121251A (en) Method, communication system and conference device for performing conference
JPH0537933A (en) Inter-multiplace video conference system
JP3573850B2 (en) Video conferencing systems
JPH09149133A (en) Voice input terminal and voice synthesis terminal for video conference system
JPH1056626A (en) Video conference system
KR20150042628A (en) Method and apparatus of providing a distributed telepresense service
JPH02125588A (en) Multi-point picture display device
JP2823571B2 (en) Distributed multipoint teleconferencing equipment
JPH08321884A (en) Multi-spot video conference system
JP2008278166A (en) Video conference viewing and listening system
JPH0698030A (en) System and device for communication conference
JP2002204437A (en) Communication unit, communication system, communication method, and storage medium
JPH08125760A (en) Information processor
JPH0888692A (en) Transmitter, receiver and transmitter-receiver
JPH1013803A (en) Multi-point video conference controller

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040510

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040519

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040614

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040630

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100709

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110709

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees