NO320115B1 - Anordning og fremgangsmate for a generere CP-bilder. - Google Patents

Anordning og fremgangsmate for a generere CP-bilder. Download PDF

Info

Publication number
NO320115B1
NO320115B1 NO20040661A NO20040661A NO320115B1 NO 320115 B1 NO320115 B1 NO 320115B1 NO 20040661 A NO20040661 A NO 20040661A NO 20040661 A NO20040661 A NO 20040661A NO 320115 B1 NO320115 B1 NO 320115B1
Authority
NO
Norway
Prior art keywords
video
images
image
coded
macroblocks
Prior art date
Application number
NO20040661A
Other languages
English (en)
Other versions
NO20040661D0 (no
Inventor
Tom Erik Lia
Tom-Ivar Johansen
Original Assignee
Tandberg Telecom As
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tandberg Telecom As filed Critical Tandberg Telecom As
Priority to NO20040661A priority Critical patent/NO320115B1/no
Publication of NO20040661D0 publication Critical patent/NO20040661D0/no
Priority to US11/055,176 priority patent/US7720157B2/en
Priority to ES05710946T priority patent/ES2345893T3/es
Priority to AT05710946T priority patent/ATE471631T1/de
Priority to JP2006553078A priority patent/JP4582659B2/ja
Priority to CNB2005800047469A priority patent/CN100559865C/zh
Priority to PCT/NO2005/000050 priority patent/WO2005079068A1/en
Priority to DE602005021859T priority patent/DE602005021859D1/de
Priority to EP05710946A priority patent/EP1721462B1/en
Publication of NO320115B1 publication Critical patent/NO320115B1/no

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Polysaccharides And Polysaccharide Derivatives (AREA)
  • Organic Low-Molecular-Weight Compounds And Preparation Thereof (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Detergent Compositions (AREA)

Abstract

Den foreliggende oppfinnelsen vedrører generering av kontinuerlig-tilstedeværelsesbilder (CP) i en multipunktskontrollenhet (MCU) som styrer en multistedsvideokonferanse. Oppfinnelsen benytter bitstrukturen for ITU H.26standardene for å redusere prosesseringstiden og kravene i en MCU for å generere CP-betraktninger uten egenbetraktning. Ved å rearrangere makroblokker fra kodede CP-bilder, kan regioner i et CP-bilde fjernes for derved å tillate transmittering av CP-bilder uten egenbetraktning til de deltakende steder. Rearrangeringsprosedyren reduserer signifikant behovet for koderessurser i en MCU.

Description

Område for oppfinnelsen
Den foreliggende oppfinnelsen vedrører gjennomføring av videokonferanser, og spesielt generering av kontinuerlig-tilstedeværelsesbilder (eng: Continuous Presence (CP) images) i en multipunktskontrollenhet (eng: Multipoint Control Unit
(MCU)).
Bakgrunn for oppfinnelsen
Transmisjon av bevegelige bilder i sanntid anvendes i mange applikasjoner slik som f.eks. gjennomføring av videokonferanser, nettmøter, TV-kringkasting og videotelefoni.
Det å representere bevegelige bilder krever imidlertid store mengder informasjon, idet digital video typisk beskrives ved å representere hver piksel i et bilde med 8
bits (1 byte). Slike ukomprimerte videodata fører til store bitvolumer, og kan ikke overføres over konvensjonelle kommunikasjonsnettverk og transmisjonslinjer i sanntid på grunn av begrenset båndbredde.
For å muliggjøre sanntids videotransmisjon kreves derfor høy grad av datakomprimering. Datakomprimering kan imidlertid gå på bekostning av bildekvalitet. Derfor har det blitt lagt stor innsats i å utvikle komprimeringsteknikker som tillater sanntids transmisjon av høykvalitetsvideo over båndbreddebegrensede dataforbindelser.
I videokomprimeringssystemer er hovedmålet å representere videoinformasjon med så liten kapasitet som mulig. Kapasitet defineres med bits, enten som en konstant verdi eller som bits/tidsenhet. I begge tilfeller er hovedmålet å redusere antallet bits.
Den mest alminnelige videokodingsmetoden er beskrevet i standardene MPEG<*> og H.26<*>. Videodataene gjennomgår fire hovedprosesser før transmisjon, nemlig prediksjon, transformasjon, kvantisering og entropikoding.
Prediksjonsprosesseri reduserer betraktelig mengden av bits som er nødvendig for at hvert bilde i en videosekvens skal overføres. Den drar fordel av at deler av sekvensen har likhet med andre deler av sekvensen. Siden prediktordelen er kjent både for koderen og dekoderen, behøver bare forskjellen å overføres. Denne forskjellen krever typisk mye mindre kapasitet for sin representasjon. Prediksjonen er hovedsakelig basert på bildeinnhold fra tidligere rekonstruerte bilder der beliggenheten av innholdet er definert ved bevegelsesvektorer.
Prediksjonsprosessen utføres typisk på kvadratiske blokkstørrelser (f.eks. 16x16 piksler).
Videokonferansesystemer tillater også samtidig utveksling av audio-, video- og datainformasjon blant flere konferansesteder (eng.: conferencing sites). Systemer kjent som multipunktskontrollenheter (eng: multipoint control units (MCUs))
utfører svitsjefunksjoner for å tillate flere steder (eng.: sites) å kommunisere sammen i en konferanse. MCU'en linker stedene sammen ved mottak av rammer
med konferansesignaler fra stedene, prosesserer de mottatte signalene, og retransmitterer de prosesserte signalene til passende steder. Konferansesignalene innbefatter audio-, video-, data- og kontrollinformasjon. I en svitsjet konferanse blir videosignalet fra ett av konferansestedene, typisk det som har den mest høylydte taler, kringkastet til hver av deltakerne. I en kontinuerlig-tilstedeværelseskonferanse blir videosignaler fra to eller flere steder romlig mikset for å danne et sammensatt videosignal for betraktning av konferansedeltakere. Kontinuerlig-deltakelsesbildet eller det sammensatte bildet er kombinert bilde som kan innbefatte levende videostrømmer, som stillbilder, menyer eller andre visuelle bilder fra deltakere på konferansen.
I en typisk kontinuerlig-tilstedeværelseskonferanse blir videodisplayet inndelt i en sammensatt layout som har arealer eller områder (f.eks. kvadranter). Steder velges ved konferanseoppsettet fra stedene som er forbundet i konferansen for fremvisning i regionene. Felles sammensatte layouter innbefatter fire, ni eller seksten regioner. Layouten velges og fastsettes deretter for konferansens varighet.
Noen konferansearrangementer tilveiebringer ulike sammensatte signaler eller en videomiks, slik at hvert sted kan betrakte en ulik blanding av steder. Andre arrangementer benytter stemmeaktivert kvadrantseleksjon for å assosiere steder med bestemte kvadranter. Et slikt arrangement muliggjør at konferansedeltakere kan betrakte ikke bare faste videomikssteder, men også et sted valgt på basis av stemmeaktivitet. Imidlertid er layouten hva angår antall regioner eller kvadranter fastsatt for konferansen.
Med henvisning til fig. 1 er det vist en utførelsesform av en MCU 10 av den typen som er beskrevet i US patent 5 600 646. MCU 10 innbefatter også H-323-funksjonalitet slik det er beskrevet i US patent 6 404 745.1 tillegg har videoprpsesseringen i MCU'en blitt forbedret, slik det vil beskrives videre her. Trekkene som er beskrevet her for MCU 10 kan utføres i en Tandberg MCU.
MCU-en 10 innbefatter i det minste én nettverksgrensesnittenhet (eng.: Network Interface Unit (NIU)) 120, minst én broprosesseringsenhet (eng.: Bridge Processing Unit (BPU)) 122, en videoprosesseringsenhet (eng.: Video Processing Unit (VPU)) 124, en dataprosesseringsenhet (eng.: Data Processing Unit) (DPU) 126, og en vertsprosesseringsenhet (eng.: Host Processing Unit (HPU)) 130.1 tillegg til en industristandardarkitektur (ISA) vertskontrollbuss (eng.: a host Industry Standard Architecture control bus) 132, omfatter MCU-en 10 en nettverksbuss 134, en BPU-buss 136 og en X-buss 138. Nettverksbussen 134 overholder Multi-Vendor Integration Protocol (MVIP), mens BPU-bussen 136 og X-bussen er avledninger av MVIP-spesifikasjonen. HPU 130 tilveiebringer et styringsgrensesnitt (eng.: a management interface) for MCU-operasjoner. Hvert av de ovenstående MCU-elementer er videre beskrevet i de ovenfor angitte US patentene 5 600 646 og 6 404 745.
H.323-funksjonaliteten er tilveiebrakt ved tilføyelse av en gateway-prosesseringsenhet (eng.: Gateway Prosessing Unit (GPU)) 128 og en modifisert BPU omtalt som BPU-G 122A. GPU-en 128 kjører H.323-protokoller for oppkallssignalering og dannelse og kontroll av audio-, video- og datastrømmer gjennom et Ethernet- eller annet LAN-grensesnitt 140 til endepunktterminaler. BPU-G 122A er en BPU 122 som er programmert til å prosessere audio-, video- og datapakker mottatt fra GPU 128.
MCU-operasjonen beskrives nå på høyt nivå, initielt for linjesvitsjet konferansegjennomføring og deretter for pakkesvitsjet H.323 konferansegjennomføring. I linjesvitsjet konferansegjennomføring gjøres digitale datarammer fra H.320-linjesvitsjede endepunktsterminaler tilgjengelig på nettverksbussen 134 gjennom et nettverksgrensesnitt 142 til en NIU 120. BPU'ene 122 prosesserer datarammene fra nettverksbussen 134 for å produsere datarammer som gjøres tilgjengelig til andre BPU'er 122 på BPU-bussen 136. BPU'ene 122 ekstraherer også audioinformasjon fra datarammene.
BPU'ene 122 kombinerer komprimert videoinformasjon og mikset kodet audioinformasjon til rammer som plasseres på nettverksbussen 134 for transmisjon til respektive H.320-terminaler.
I tilfeller der de audiovisuelle terminaler opererer ved ulike transmisjonsrater, eller med ulike kompresjonsalgoritmer, eller skal mikses til et sammensatt bilde, sendes multiple videoinnganger til BPU 124 der videoinngangene dekomprimeres, mikses og rekomprimeres til en enkelt videostrøm. Denne enkeltvideostrømmen sendes deretter tilbake gjennom BPU 122 som svitsjer videostrømmen til de passende endepunktsterminaler.
For pakkebasert H.323-konferansegjennomføring gjør GPU 128 audio-, video- og datapakker tilgjengelige på nettverksbussen 134. Datapakkene prosesseres gjennom DPU 126.
BPU-G 122A prosesserer audio- og videopakker fra nettverksbussen 134 for å produsere audio- og videokringkastingsmikser som plasseres på nettverksbussen 134 for transmisjon til respektive endepunktsterminaler gjennom GPU 128.1 tillegg prosesserer GPU-G 122A audio- og videopakker for å produsere datarammer som gjøres tilgjengelig for DPU'ene 122 på BPU-bussen 136. På denne måten tjener MCU 14 en gateway-funksjon hvorved regulære BPU'er 122 og BPU-G 122A kan utveksle audio og video mellom H.320- og H.323-terminaler på transparent måte.
Etter denne beskrivelsen av komponentene for MCU 10 som muliggjør de grunnleggende konferansebrodannelsesfunksjonene (eng.: the basic conference bridging functions), beskrives nå en høynivåbeskrivelse av fleksibiliteten som tilveiebringes av BPU 124 med henvisning til det funksjonelle blokkdiagrammet i fig. 2.1 MCU 10 blir komprimert videoinfo rmasjon fra opp til fem audiovisuelle terminaler som er i samme konferanse, rutet til en bestemt VPU 124 over BPU-bussen 136. VPU-en 124 omfatter fem videokomprimeringsprosessorer (VCP0-VCP4), som hver har et par av videodekoder/-koder 102-i, 106-i, og pikselskaleringsbl okker 104-i, 108-i.
Et par av videodekoder/-koder 102-i, 106-i er tilordnet den komprimerte videoinformasjonsstrømmen som er assosiert med hvert bestemt sted (eng.: site) i konferansen. Hver videodekoder 102-i dekoder den komprimerte videoinformasjonen ved bruk av algoritmen som passer kodingsalgoritmen for sitt assosierte sted. Innbefattet som del av videodekoderen 102-i kan være prosessering for å bestemme rammingen, pakkene og sjekksummene som kan være del av transmisjonsprotokollen. Det skal bemerkes at en prosessorkodet videostrøm kan være tilordnet flere steder (f.eks. en kontinuerlig tilstedeværelsesapplikasjon som har mer enn fem steder i konferansen). I tillegg kan et dekoder-/koderpar 102-i, 106-i svitsje mellom stedene innenfor en konferanse.
Den dekodede videoinformasjonen (f.eks. pikslene) skaleres opp eller ned, om nødvendig, ved en pikselskaleringsblokk 104-i for å passe pikseloppløsningskravene for andre steder i konferansen som vil kode de skalerte pikslene. F.eks. kan et arbeidsbordsystem (eng.: a desktop system) kode ved en oppløsning på 256x240 piksler, mens en H-320-terminal kan kreve en pikseloppløsning på 358x288 piksler for et Common Intermediate Format (CIF)-bilde. Andre alminnelige formater innbefatter Quarter Common Intermediate Format (QCIF) (176x144 piksler), 4CIF (704x576), SIF (352x240), 4SIF (704x480), VGA (640x480), SVGA (800x600) og XGA (1024x768).
VPU-en 124 innbefatter en pikselbuss 182 og minne 123. Systemet beskrevet i US patent 5 600 646 benytter en tidsdelt multipleksbuss. Spesielt leverer hver dekoder 102-j piksler til pikselbuss 182 til minnet 123. Hver koder 106-j kan gjenvinne et hvilket som helst av bildene fra minnet 123 på.pikselbussen for gjenkoding og/eller romlig miksing eller sammensetning. En annen pikselskaleringsblokk 108-j er forbundet mellom pikselbussen 182 og koderen 106-j for innstilling av pikseloppløsning for det samplede bildet etter behov.
En kontinuerlig tilstedeværelsesapplikasjon blir nå beskrevet med henvisning til fig.
3 og 4. For enkelhets skyld er endepunktsterminalene vist som H-320-terminaler. I fig. 3 ankommer data fra steder 38 over et kommunikasjonsnettverk til respektive NIU'er 120. Fem steder 38 (A, B, C, D, E) er forbundet i konferansen. Stedene A og B er vist forbundet til en bestemt NIU 120 som støtter multiple kodek-forbindelser (f.eks. et Tl-grensesnitt). De andre stedene C, D og E er forbundet til NIU'er 120 som støtter bare én enkelt kodek-forbindelse (f.eks. et ISDN-grensesnitt). Hvert sted 38 plasserer én eller flere oktetter med digital data fra nettverksbussen 134 som usynkronisert H.221-rammede data. BPU'ene 122 bestemmer så H.221-rammingen og oktettinnrettingen (eng.: octet alignment). Disse innrettede (eng.: aligned) data gjøres tilgjengelige for alle andre enheter på BPU-bussen 136. DPU'ene 122 ekstraherer også audioinformasjon fra H.221-rammer og dekoder audioen til 16 bits PCM-data. De dekodede audiodata gjøres tilgjengelig på BPU-bussen 136 for miksing med audiodata fra andre konferansesteder.
Innrettede H.221-rammer mottas av VPU 124 for prosessering av koder-/dekoderelementer betegnet videokomprimeringsprosessorer (VCP'er). VPU 124 har fem VCP'er (fig. 2) som i dette eksemplet er respektivt tilordnet steder A, B, C, D, E. En VCP på VPU 124 som er tilordnet sted E er funksjonelt illustrert i fig. 4. Komprimert videoinformasjon (H.261) ekstraheres fra H.221-rammene og dekodes av VCP som bilde X. Dekodervideobildet X plasseres på pikselbussen 182 gjennom en skaleringsblokk. Fig. 4 viser pikselbussen 182 med dekodede videorammer fra hvert sted A, B, C, D, E suksessivt gjenvunnet fra minnet 123 identifisert ved deres respektive RAM-adresser. VCP'en anordnet sted E mottar de dekodede videorammer fra stedene A, B, C og D som deretter blir anbrakt i rutemønster (eng: tiled) (romlig mikset) til et enkelt sammensatt bilde I. Det rutemønsteranbrakte (eng.: the tiled) bildet I blir deretter kodet som H.261-video innen H.221 -ramming og plassert på BPU-bussen 136 (fig. 3) for BPU-prosessering som beskrevet ovenfor.
Slik det kan ses fra beskrivelsen ovenfor, krever transkoding betraktelige prosesseringsressurser, idet råpikseldata å mikses og kodes for å danne en mikset betraktning eller en kontinuerlig tilstedeværelsesbetraktning. For å unngå egenbetraktning, dvs. å unngå at CP-betraktningene inneholder et bilde av de respektive deltakere som de transmitteres til, må MCU'en innbefatte minst en koder for hvert bilde i en CP-betraktning. For å muliggjøre CP 16 må MCU-en da innbefatte minst 16 kodere.
Sammenfatning av oppfinnelsen
Det er en hensikt ved den foreliggende oppfinnelsen å tilveiebringe en fremgangsmåte og en anordning for å unngå egenbetraktning, som reduserer det nødvendige antall kodere og prosesseringstiden.
I samsvar med et første aspekt av den foreliggende oppfinnelsen, oppnås den ovenstående hensikt og andre fordeler ved en fremgangsmåte for å danne et kodet mål-kontinuerlig tilstedeværelsesbilde (CP), som fremsatt i det vedføyde selvstendige krav 1.
I samsvar med et andre aspekt ved den foreliggende oppfinnelsen, oppnås den ovenstående hensikt og andre fordeler ved en anordning i en Multipoint Control Unit (MCU) for å danne et kodet mål-CP-bilde, som fremsatt i det vedføyde, selvstendige krav 8.
Ytterligere hensikter og fordeler oppnås ved de trekk som er fremsatt i de uselvstendige krav.
Kort beskrivelse av tegningene
For å gjøre oppfinnelsen enklere å forstå, vil den følgende drøfting vise til de vedføyde tegninger, der:
Fig. 1 er et blokkdiagram av en MCU-konfigurasjon,
Fig. 2 er et skjematisk blokkdiagram av en utførelsesform av en VPU,
Fig. 3 er et blokkdiagram av en MCU-konfigurasjon som illustrerer dataflyt for kontinuerlig tilstedeværelseskonferansegjennomføring, Fig. 4 er et blokkdiagram som illustrerer anbringelse i rutemønster i en kontinuerlig tilstedeværelseskonferanse,
Fig. 5 er et blokkdiagram for anordningene av blokkgruppe i et CIF-bilde,
Fig. 6 illustrerer blokkgruppelaget i samsvar med H-263,
Fig. 7 illustrerer makroblokklaget i samsvar med H.263,
Fig. 8 er blokkdiagrammet som illustrerer tre ulike kontinuerlige tilstedeværelsesbilder som benyttes i én utførelsesform av den foreliggende oppfinnelsen, Fig. 9 er et skjematisk blokkdiagram for en utførelsesform av den foreliggende oppfinnelsen, og Fig. 10 er et skjematisk flytskjema som illustrerer en utførelsesform av fremgangsmåten i samsvar med oppfinnelsen.
Beste utførelsesmåte for oppfinnelsen
Den foreliggende oppfinnelsen benytter bitstrukturen for ITU H.26<*>standarden for å redusere prosesseringstiden og behovene i en MCU for å generere CP-betraktninger uten egenbetraktninger. For å forstå bitstrukturkarakteristikkene som benyttes, blir bildeblokkstrukturen i samsvar med H.263 beskrevet i det følgende.
I samsvar med H.263 inndeles hvert bilde i blokker som representerer 8x8 piksler. Blokkene anordnes i makroblokker, noe som for luminansdelen av pikslene betyr 16 (8x8) blokker og for krominansdelen av pikslene betyr 4 (2x2) blokker. En gruppe av blokker (GOB) representerer normalt 22 makroblokker, og antallet GOB'er pr. bilde er 6 for sub-QCIF, 9 for QCIF, og 18 for CIF, 4CIF og 16CIF. GOB-nummereringen gjøres ved bruk av vertikal skann av GOB'ene, ved å starte den øvre GOB (nr. 0) og å slutte med den nederste GOB. Et eksempel på arrangementet av GOB'er i et bilde er gitt for CIF-bildeformatet i fig. 5. Data for hver GOB består av en GOB-header fulgt av data for makroblokker. Data for GOB'er transmitteres pr. GOB i økende GOB-tall. Starten av en GOB identifiseres ved en Group of Block Start Code (GBSC). Strukturen av GOB-laget er vist i fig. 6.
Data for hver makroblokk består av en makroblokkheader fulgt av data for blokkene. Strukturen er vist i fig. 7. COD er bare til stede i bilder som ikke er av type "INTRA" for hver makroblokk i disse bildene. En bit som når den settes til "0" signaliserer at makroblokken er kodet. Dersom den settes til "1", transmitteres ikke ytterligere informasjon for denne makroblokken, i dette tilfellet skal dekoderen behandle makroblokken som en inter-makroblokk med be vegel ses vektor for hele blokken lik null og uten koeffisientdata.
Dersom COD er satt til "0", innbefatter datadelen av makroblokken informasjon om de respektive blokker i makroblokken, og denne informasjonen er representert ved bevegelsesvektorer som angir posisjonen i tidligere bilder hvortil de innbefattede piksler er like.
Konvensjonelt krever unngåelse av egenbetraktning i et CP-bilde spesielt koding for hver deltakerne, som impliserer én koder for hver utgående datastrøm i MCU'en, som angitt i fig. 2. Den foreliggende oppfinnelsen benytter makroblokkstrukturen for allerede kodede videodata for å oppnå skreddersydd miks av et CP-bilde avhengig av mottakeren.
I den følgende eksempelutførélsesformen av den foreliggende oppfinnelsen, betrakt en konferanse med fem endepunktssteder som innhenter videobilder av CIP-format og koder bildene i samsvar med H.263-standarden. I MCU'en blir datastrømmene fra de respektive deltakerne dekodet ved dekodere som er assosiert med respektive MCU-innganger i samsvar med H.263. Etter dekoding vil råpikseldata fra de respektive deltakerne være tilgjengelige på en intern bus i MCU'en, klar for miksing og transkoding. I tilfelle av fem deltakere ville det være nærliggende å velge et CP 4-format for det miksede bildet for å overføres tilbake til de respektive steder. Det miksede formatet kan velges av MCU i samsvar med prinsippene "Best Impression" beskrevet i US patentsøknad 10/601,095.
I samsvar med denne eksempelutførélsesformen av oppfinnelsen blir to ulike CP4-bilder, CP bilde 1 og CP bilde 2, kodet ved hver respektive koder som illustrert i fig. 8. CP bilde 1 innbefatter bildene mottatt fra stedene 1, 2, 3 og 4, mens CP bildene 2 innbefatter de mottatte bilder fra stedet 5 i én kvadrant, som etterlater de gjenværende kvadranter tomme. Ved koding av CP-bildene og anordning av de kodede data i blokksystemet beskrevet ovenfor, sammenfaller kvadrantgrensene med makroblokkgrensene i GOB'ene. Slik som for CP bilde 1, innbefatter de første elleve makroblokker i den første GOB data fra bildet for sted 1, mens de elleve siste makroblokker i den første GOB innbefatter data fra bildet for stedet 2.
I samsvar med den foreliggende oppfinnelsen rearrangerer MCU'en makroblokkene i hvert CP-bilde i samsvar med mottakeren. Som et eksempel, i CP-bildet transmittert til sted 4, erstattes de elleve siste makroblokker i hver av de ni siste GOB'er i CP-bildet 1 med de henholdsvis elleve første makroblokker i hver av de ni første GOB'er for CP-bilde 2. Dette resulterer i et nytt dekodet CP-bilde, som innbefatter bildet mottatt fra sted 5 i stedet for bildet mottatt fra sted 4. Dette CP-bildet transmitteres tilbake til sted 4, og følgelig unngås egenbetraktning ved dette stedet.
Korresponderende erstatninger eller rearrangementer utføres for de fire andre CP-bildene respektivt assosiert med de andre steder.
Fig. 9 illustrerer et eksempel på den indre arkitektur for en MCU i samsvar med den foreliggende oppfinnelsen. Denne arkitekturen samsvarer med VPU for tidligere kjent teknikk som illustrert i fig. 2. Pikselbussen, minnet og
pikselskaleringsenhetene er for enkelhets skyld erstattet med en mikse- og skaleringsenhet. Bemerk at bus 1 og bus 2 i fig. 9 alternativt kunne være sammensatt av en felles databus. Bemerk også at den virkelige implementasjonen kan være annerledes, og at bare enhetene som er relevant for den foreliggende oppfinnelsen er vist.
Inngangsdatastrømmene er dekodet med en separat dekoder for hvert sted i samsvar med kodingsstandarden som benyttes, i dette tilfellet H.263. De dekodede data er i form av PCM-data, og er gjort tilgjengelige for en mikse- og skaleringsenhet (eng.: Mixing and Scaling Unit (MSU)) på databus 1.
MSU mikser romlig PCM-dataene fra stedene 1, 2, 3 og 4, og danner CP-bilde 1. Et CP-bilde 2 blir også dannet ved å plassere PCM-dataene fra sted 5 i den første kvadrant, hvilket etterlater de gjenværende kvadranter tomme eller fylt med dummydata. PCM-dataene for de to romlig miksede bildene gjøres deretter tilgjengelige for de to følgende koderne på databussen 2. Koderne henter PCM-data for CP-bildene generert av MSU'en fra databus 2 og koder hvert respektive bilde. Resultatet av kodingsprosessen er et antall makroblokker sammensatt i GOB'er som beskrevet ovenfor. I tilfelle av et CIF-format i samsvar med H.263, inneholder en GOB 22 makroblokker, og hvert bilde består av 18 GOB'er. Etter koding av bildene blir GOB'er påfølgende innsatt i en assosiert buffer. Størrelsen av buffere skal være tilstrekkelig stort til å romme GOB'ene for i det minste ett bilde.
Imidlertid er antallet bits som representerer et kodet bilde ikke konstant, men det kan variere vesentlig i samsvar med variasjonen av bildeinnhold og bevegelser fra ett bilde til et annet. Antallet bits er også avhengig av hvorvidt bildet er intra-kodet eller inter-kodet, dvs. prediksjon fra nabomakroblokker i det samme bildet, eller prediksjon fra tidligere bilde(r).
Når kodede data for komplett synkrone bilder innsettes i de respektive bufferne, er repakkerne klare til å rearrangere rekkefølgen for makroblokkene for å danne CP-bildene som er nødvendige for de assosierte utganger. Repakkerne vil være i stand til å identifisere og isolere makroblokkene ved hjelp av GOB'en og makroblokkheadere. Starten av hver GOB angis ved en unik startkode betegnet GBSC (Group of Block Start Code), fulgt av GN (Group Number) som angir GOB-tallet. I headerne for makroblokkene angir COD hvorvidt makroblokken er kodet eller ikke. Dersom COD er "1", er ingen ytterligere informasjon tilstede for denne makroblokken, med bevegelsesvektor for hele blokken lik null og uten noen koeffisientdata. Dersom COD er "0", vil ytterligere data for makroblokken følge. Noen av de ytterligere data kan være av variabel lengde, men de ulike koder er definert på en slik måte at lengden av hver kode er veldefinert.
Siden makroblokkene er identifiserbare og midlertidig lagret i en buffer, kan repakkerne lese ut makroblokkene i en hvilken som helst rekkefølge, og danne en hvilken som helst variant av et CP4-bilde fra bildet av de fem stedene. Som eksempel betrakt repakkeren som danner CP-bildet for sted 4. De første buffere inneholder de kodede data for CP-bilde 1, mens den andre bufferen inneholder de kodede data for CP-bilde 2. Repakkeren henter GOB 1-9 for CP-bilde 1 i samme rekkefølge som det opptrer i den første bufferen for å danne det nye CP-bildet. Ved dannelse av GOB 10 vil repakkeren imidlertid identifisere og hente de elleve første makroblokker for GOB 10 i den første bufferen fulgt av de elleve første makroblokker for GOB 1 i den andre bufferen. Videre dannes GOB 11 ved å hente de elleve første makroblokker i GOB 11 i den første bufferen fulgt av de elleve første makroblokker for GOB 2 i den andre buffer. De sju gjenværende GOB'er dannes tilsvarende, avsluttende med GOB 18, som dannes ved å hente de elleve første makroblokker for GOB 18 i den første bufferen fulgt av de elleve første makroblokker for GOB 9 i den andre buffer.
Repakkerne kan forhåndsprogrammeres for å hente makroblokkene fra bufferne i en konstant rekkefølge, eller rekkefølgen av makroblokkene kan kontrolleres av en kontrollenhet (ikke vist) som tillater en repakke å danne ulike CP-bilder.
Fig. 10 er et skjematisk blokkdiagram som illustrerer en utførelsesform av fremgangsmåten i samsvar med oppfinnelsen.
Fremgangsmåtetrinnene illustrert i fig. 10 er innbefattet i en fremgangsmåte for å danne et kodet mål-kontinuerlig tilstedeværelsesbilde (CP) i samsvar med en videokodingsstandard fra et antall kodede videosignaler som innbefatter definerte rekkefølger av makroblokker. Hver makroblokk omfatter kodede videosignaler som samsvarer med et respektivt endepunktsvideobilde, mottatt fra endepunkter som deltar i en multipunkts videokonferanse.
Fremgangsmåten starter ved trinn 202.
Først utføres dekodingstrinnet 204, hvor videosignaler dekodes til de korresponderende endepunktsvideobilder.
Videre, i miksetrinnet 206, blir endepunktsvideobildene romlig mikset til et antall CP-bilder sammensatt av regioner respektivt assosiert med hvert av endepunktsvideobildene.
Videre, i kodingstrinnet 208, blir CP-bildene respektivt kodet til et antall kodede CP-bilder. Dette trinnet etablerer de definerte rekkefølger av makroblokker som korresponderer med videokodingsstandarden og en sammensetning av regionsgrenser og makroblokkgrenser.
Etterfølgende de tre forberedende trinn 204, 206 og 208 ovenfor, utføres dannelsestrinnet (eng.: the creating step) 210.1 dannelsestrinnet 210 dannes det kodede mål-CP-bildet for å rearrangere nevnte rekkefølge av makroblokker på en forhåndsbestemt eller kontrollert måte.
Fordelaktig omfatter dannelsestrinnet 210 å erstatte et første antall m makroblokker som representerer en regionsbredde i m antall påfølgende GOB'er som representerer en regionshøyde i en første av antallet av kodede CP-bilder med m antall makroblokker i n antall påfølgende GOB<*>er fra en andre av antallet kodede CP-bilder.
Fremgangsmåten slutter ved trinn 212.
Som et alternativ kan de tre forberedende trinn for prosessen beskrevet med henvisning til fig. 10, dvs. dekodingstrinnet 204, miksetrinnet 206 og kodingstrinnet 210, erstattes med et enkelt forespørseltrinn (ikke illustrert). I dette forespørselstrinnet blir endepunktene forespurt om å kode de respektive endepunktsvideobildene i samsvar med videostandarden og en bestemt oppløsning, bitrate og skalering.
I sin mest grunnleggende form innbefatter fremgangsmåten i samsvar med oppfinnelsen bare dannelsestrinnet 210.
Utførelsesform ene beskrevet så langt har blitt begrenset til dannelsen av CP4-bilder av CIF-format i samsvar med H.263-standarden. Imidlertid vil fagfolk innse at de grunnleggende prinsipper ved den foreliggende oppfinnelsen også er anvendelige på andre CP-bilder av andre formater. Som et eksempel kan den foreliggende oppfinnelsen også benyttes ved dannelse av CP-9-bilder. Da bestemmes bildegrensene innenfor hver GOB (i tilfelle av CIF, H.263) etter den sjuende og fjortende makroblokken (alternativt etter den åttende og femtende eller sjuende og femtende).
I ethvert tilfelle skal det være en repakker (eller i det minste en repakkerpfosedyre) for hver MCU-utgang. Antallet kodere avhenger av forholdet mellom antall regioner i CP-bildene og antallet steder som skal fylle regionene for CP-bildene. Det må være nok kodere til å generere én region for hvert sted. I tilfelle av CP 4 og åtte steder, vil to kodere være tilstrekkelig for å plassere én region for hvert sted i hver av de totalt åtte kvadrantene. Imidlertid vil økning av antallet steder til 9 kreve ytterligere én koder for å danne et tredje CP-4-biIde hvori den niende region kunne ta opphold.
I en mer generell utførelsesform av oppfinnelsen utføres ingen dekoding og skalering/miksing i MCU'en. I stedet forespørres endepunktene om å transmittere et kodet bilde i samsvar med en viss standard, oppløsning, bitrate og skalering. Makroblokkene for de innkommende datastrømmer lastes da direkte inn i bufferne (fortrinnsvis én for hver datastrøm), og repakkerne rearrangerer makroblokkene i samsvar med forhåndsprogrammerte eller kontrollerte prosedyrer, hvilket danner CP-bilder uten egenbetraktning som kan transmitteres til de respektive konferansesteder. Som et eksempel, betrakt fem steder som deltar i en konferanse. En CP-4-betraktning krever da at endepunktene plasserer deres respektive bilder i én av kvadrantene i et helt bilde før det kodes. Dette forespørres til endepunktene sammen med kodingsinformasjon slik som standard, oppløsning, bitrate og skalering. Repakkerne kan da enkelt rearrangere makroblokkene for de innkommende datastrømmer når de er tilstede i de respektive bufferne slik det er beskrevet tidligere.

Claims (12)

1. Fremgangsmåte for å danne et andre antall kodet mål-kontinuerlig-tilstedeværelsesbilder (CP-bilder) i samsvar med en videokodingsstandard fra et antall kodede videosignaler innbefattende definerte rekkefølger av makroblokker, hver omfattende kodede videosignaler korresponderende med et respektivt endepunktsvideobilde, mottatt fra endepunkter som deltar i en multipunktsvideokonferanse, karakterisert ved å mikse råpikseldata dekodet fra videosignalene til ét første antall ukodede CP-bilder, å kode nevnte første antall ukodede CP-bilder til et første antall kodede CP-bilder i samsvar med de definerte rekkefølger av makroblokker, å danne det andre antall kodet mål-CP-bilder ved å rearrangere nevnte rekkefølge av makroblokker på en forhåndsdefinert eller kontrollert måte.
2. Fremgangsmåte i samsvar med krav 1, karakterisert ved det følgende tilleggstrinn, som utføres før trinnet med å danne det kodede mål-CP-bildet: å forespørre endepunktene om å kode de respektive endepunktsvideobildene i samsvar med videostandarden og en bestemt oppløsning, bitrate og skalering.
3. Fremgangsmåte i samsvar med krav 1, karakterisert ved de følgende tilleggstrinn, før trinnet med å danne det kodede mål-CP-bildet: å dekode videosignalene til de korresponderende endepunktsvideobildene, romlig å mikse endepunktsvideobildene til et antall CP-bilder sammensatt av regioner respektivt assosiert med hver av endepunktsvideobildene, å kode nevnte antall CP-bilder til et antall kodede CP-bilder respektivt resulterende i de definerte rekkefølger av makroblokker korresponderende til videokodingsstandarden og en sammensetning av regionsgrenser og makroblokkgrenser.
4. Fremgangsmåte i samsvar med krav 3, karakterisert ved at de kodede CP-bilder og det kodede mål-CP-bildet hvert er av et CIF-format med 18 blokkgrupper (GOB'er), hver innbefattende 22 makroblokker, anordnet i en stackformasjon slik at de første ni GOB'er representerer øvre regioner og de siste ni GOB'er representerer nedre regioner.
5. Fremgangsmåte i samsvar med krav 4, karakterisert ved at trinnet med å danne det kodede mål-CP-bildet innbefatter: å erstatte m antall makroblokker som representerer en regionsbredde i n antall påfølgende GOB'er som representerer en regionshøyde i et første av antallet kodede CP-bilder med m antall makroblokker i n antall påfølgende GOB'er fra et andre av antallet kodede CP-bilder.
6. Fremgangsmåte i samsvar med krav 5, karakterisert ved at m=l 1, n=9, og at nevnte regioner hver representerer én kvadrant i et CP-bilde.
7. Fremgangsmåte i samsvar med krav 5, karakterisert ved at m=7 eller m=8, n=6 og at nevnte regioner hver representerer en åttendedel av et CP-bilde.
8. Anordning i en multipunktskontrollenhet (MCU) for å danne et kodet mål-CP-bilde i samsvar med en videokodingsstandard fra et antall kodede videoinngangssignaler, hvert korresponderende med et respektivt endepunktsvideobilde, mottatt fra endepunkter som deltar i en multipunktvideokonferanse, karakterisert ved en dekoder for hvert kodet videoinngangssignal, konfigurert til å dekode videosignalene til de korresponderende endepunktsvideobilder, en mikse- og skaleringsenhet, konfigurert til romlig å mikse endepunktsidebildene til et antall CP-bilder sammensatt av regioner respektivt assosiert med hver av endepunktsvideobildene, et antall kodere, konfigurert til å kode nevnte antall CP-bilder til et antall kodede CP-bilder, én databuffer for hver av nevnte kodere, som CP-bilder respektivt innsettes i, med en makroblokk-rekkefølge korresponderende med videokodingsstandarden og en sammensetning av regionsgrenser og makroblokkgrenser, én repakker for hver MCU-utgang konfigurert til å danne det kodede mål-CP-bildet ved å hente nevnte makroblokker i en forhåndsbestemt eller kontrollert rekkefølge.
9. Anordning i samsvar med krav 8, karakterisert ved at de kodede CP-bilder og det kodede mål-CP-bildet hvert er av et CIF-format med 18 blokkgrupper (GOB'er), hver innbefattende 22 makroblokker, anordnet i en stackformasjon slik at de første 9 GOB'er representerer øvre regioner, og de siste 9 GOB'er representerer nedre regioner.
10. Anordning i samsvar med krav 9, karakterisert ved at repakkeren videre er konfigurert til å erstatte m antall makroblokker som representerer en regionsbredde i n antall påfølgende GOB'er som representerer en regionshøyde i et første av antallet kodede CP-bilder med m antall makroblokker i n antall påfølgende GOB'er fra et andre av antallet kodede CP-bilder.
11. Anordning i samsvar med krav 10, karakterisert ved at m=l 1, n=9, og nevnte regioner hver representerer én kvadrant av et CP-bilde.
12. Anordning i samsvar med krav 10, karakterisert ved at m=7 eller m=8, n=6 og at nevnte regioner hver representerer en åttendedel av et CP-bilde.
NO20040661A 2004-02-13 2004-02-13 Anordning og fremgangsmate for a generere CP-bilder. NO320115B1 (no)

Priority Applications (9)

Application Number Priority Date Filing Date Title
NO20040661A NO320115B1 (no) 2004-02-13 2004-02-13 Anordning og fremgangsmate for a generere CP-bilder.
US11/055,176 US7720157B2 (en) 2004-02-13 2005-02-11 Arrangement and method for generating CP images
ES05710946T ES2345893T3 (es) 2004-02-13 2005-02-11 Disposicion y procedimiento para generar imagenes de presencia continua.
AT05710946T ATE471631T1 (de) 2004-02-13 2005-02-11 Anordnung und verfahren zum erzeugen von kontinuierlichen präsenzbildern
JP2006553078A JP4582659B2 (ja) 2004-02-13 2005-02-11 コンティニュアス・プレゼンス・イメージを生成する方法と装置
CNB2005800047469A CN100559865C (zh) 2004-02-13 2005-02-11 用于产生连续呈现图像的装置和方法
PCT/NO2005/000050 WO2005079068A1 (en) 2004-02-13 2005-02-11 Arrangement and method for generating continuous presence images
DE602005021859T DE602005021859D1 (de) 2004-02-13 2005-02-11 Anordnung und verfahren zum erzeugen von kontinuierlichen präsenzbildern
EP05710946A EP1721462B1 (en) 2004-02-13 2005-02-11 Arrangement and method for generating continuous presence images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
NO20040661A NO320115B1 (no) 2004-02-13 2004-02-13 Anordning og fremgangsmate for a generere CP-bilder.

Publications (2)

Publication Number Publication Date
NO20040661D0 NO20040661D0 (no) 2004-02-13
NO320115B1 true NO320115B1 (no) 2005-10-24

Family

ID=34793425

Family Applications (1)

Application Number Title Priority Date Filing Date
NO20040661A NO320115B1 (no) 2004-02-13 2004-02-13 Anordning og fremgangsmate for a generere CP-bilder.

Country Status (9)

Country Link
US (1) US7720157B2 (no)
EP (1) EP1721462B1 (no)
JP (1) JP4582659B2 (no)
CN (1) CN100559865C (no)
AT (1) ATE471631T1 (no)
DE (1) DE602005021859D1 (no)
ES (1) ES2345893T3 (no)
NO (1) NO320115B1 (no)
WO (1) WO2005079068A1 (no)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8542266B2 (en) 2007-05-21 2013-09-24 Polycom, Inc. Method and system for adapting a CP layout according to interaction between conferees
US8446454B2 (en) * 2007-05-21 2013-05-21 Polycom, Inc. Dynamic adaption of a continuous presence videoconferencing layout based on video content
US8116372B1 (en) * 2007-10-26 2012-02-14 Xilinx, Inc. Data structure and method using same for encoding video information
US8319820B2 (en) * 2008-06-23 2012-11-27 Radvision, Ltd. Systems, methods, and media for providing cascaded multi-point video conferencing units
DE102009011251A1 (de) * 2009-03-02 2010-09-09 Siemens Enterprise Communications Gmbh & Co. Kg Multiplexverfahren und zugehörige funktionelle Datenstruktur zum Zusammenfassen digitaler Videosignale
US9516272B2 (en) 2010-03-31 2016-12-06 Polycom, Inc. Adapting a continuous presence layout to a discussion situation
DE102010023954A1 (de) * 2010-06-16 2011-12-22 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Vorrichtung zum Mischen von Videoströmen auf der Makroblock-Ebene
JP2012074981A (ja) * 2010-09-29 2012-04-12 Nec Corp 多地点会議接続装置、多地点会議システム、多地点会議接続方法およびプログラム
US8537195B2 (en) * 2011-02-09 2013-09-17 Polycom, Inc. Automatic video layouts for multi-stream multi-site telepresence conferencing system
US20140028788A1 (en) * 2012-07-30 2014-01-30 Polycom, Inc. Method and system for conducting video conferences of diverse participating devices
US9118807B2 (en) 2013-03-15 2015-08-25 Cisco Technology, Inc. Split frame multistream encode
WO2014145481A1 (en) * 2013-03-15 2014-09-18 Cisco Technology, Inc. Split frame multistream encode
US9215413B2 (en) 2013-03-15 2015-12-15 Cisco Technology, Inc. Split frame multistream encode
CN105635636B (zh) * 2015-12-30 2019-05-03 随锐科技股份有限公司 一种视频会议系统及其实现视频图像传输控制的方法
AU2020208640A1 (en) * 2019-01-17 2021-08-05 Brightcove Inc. Optimal multi-codec ABR ladder design

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0795553A (ja) * 1993-09-22 1995-04-07 Nippon Telegr & Teleph Corp <Ntt> 多地点間画像通信システム
JP3586484B2 (ja) * 1993-12-10 2004-11-10 日本電気エンジニアリング株式会社 多地点会議用画面合成システムおよび方法
US5446491A (en) * 1993-12-21 1995-08-29 Hitachi, Ltd. Multi-point video conference system wherein each terminal comprises a shared frame memory to store information from other terminals
JPH08251567A (ja) * 1995-03-15 1996-09-27 Toshiba Corp テレビ会議装置
JPH1066088A (ja) * 1996-08-16 1998-03-06 Ricoh Co Ltd 多地点テレビ会議制御装置
WO1998023080A2 (en) 1996-11-18 1998-05-28 Mci Worldcom, Inc. A communication system architecture
US6335927B1 (en) * 1996-11-18 2002-01-01 Mci Communications Corporation System and method for providing requested quality of service in a hybrid network
US6731625B1 (en) * 1997-02-10 2004-05-04 Mci Communications Corporation System, method and article of manufacture for a call back architecture in a hybrid network with support for internet telephony
JPH10262228A (ja) * 1997-03-18 1998-09-29 Toshiba Corp 通信システム、多地点制御装置、映像情報表示方法
JPH11239331A (ja) 1998-02-23 1999-08-31 Kyocera Corp 多地点通信システム
US6288740B1 (en) * 1998-06-11 2001-09-11 Ezenia! Inc. Method and apparatus for continuous presence conferencing with voice-activated quadrant selection
EP1024643A1 (en) 1999-01-29 2000-08-02 International Business Machines Corporation Method, apparatus and communication system for setting up a communication session
US6606112B1 (en) * 2000-03-16 2003-08-12 Tandberg Telecom As Composite-video generation from different-rate constituents
US6535240B2 (en) * 2001-07-16 2003-03-18 Chih-Lung Yang Method and apparatus for continuously receiving frames from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
JP4578806B2 (ja) 2002-01-30 2010-11-10 インタラクティブ・アイディアズ・エルエルシー マルチポイントオーディオビジュアル会議システム
US7352809B2 (en) * 2003-02-21 2008-04-01 Polycom, Inc. System and method for optimal transmission of a multitude of video pictures to one or more destinations
US20050008240A1 (en) * 2003-05-02 2005-01-13 Ashish Banerji Stitching of video for continuous presence multipoint video conferencing

Also Published As

Publication number Publication date
ATE471631T1 (de) 2010-07-15
US20050195275A1 (en) 2005-09-08
WO2005079068A1 (en) 2005-08-25
JP4582659B2 (ja) 2010-11-17
US7720157B2 (en) 2010-05-18
CN1918912A (zh) 2007-02-21
ES2345893T3 (es) 2010-10-05
NO20040661D0 (no) 2004-02-13
CN100559865C (zh) 2009-11-11
DE602005021859D1 (de) 2010-07-29
EP1721462B1 (en) 2010-06-16
JP2007522761A (ja) 2007-08-09
EP1721462A1 (en) 2006-11-15

Similar Documents

Publication Publication Date Title
EP1721462B1 (en) Arrangement and method for generating continuous presence images
US6535240B2 (en) Method and apparatus for continuously receiving frames from a plurality of video channels and for alternately continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
US7616591B2 (en) Video conferencing system
US7932920B2 (en) Method and apparatus for video conferencing having dynamic picture layout
EP2214410B1 (en) Method and system for conducting continuous presence conferences
JP4295441B2 (ja) ビデオ通信システム、デコーダ回路、ビデオディスプレイシステム、エンコーダ回路、及びビデオデータ受信方法
AU2002355089A1 (en) Method and apparatus for continuously receiving frames from a pluarlity of video channels and for alternatively continuously transmitting to each of a plurality of participants in a video conference individual frames containing information concerning each of said video channels
US8184142B2 (en) Method and system for composing video images from a plurality of endpoints
US20010019354A1 (en) Method and an apparatus for video mixing of bit streams
US6560280B1 (en) Video transmission system
JPH09219749A (ja) 多地点制御装置
JPH0846973A (ja) 画像通信装置及びシステム
JPH0846928A (ja) 画像符号化前処理装置
JPH025690A (ja) 多地点間テレビ会議制御装置
JPH0294886A (ja) 映像信号の符号化・復号化方法およびその装置
KR19990070821A (ko) 화상회의 시스템에서 참가자 4명까지의 비디오를 단일 비디오 스트림으로 변환하는 서버
JPH09247644A (ja) 多地点制御装置およびテレビ会議通信端末装置
JPH0846792A (ja) 画像通信装置及びシステム
JPH09331510A (ja) 多地点制御装置およびテレビ会議通信端末装置
JPH0399593A (ja) 多地点間テレビ会議システムの画像データ伝送方式
JPH0946703A (ja) 画像通信システムおよび画像通信装置
JPH05111019A (ja) 画像信号多地点接続装置

Legal Events

Date Code Title Description
MM1K Lapsed by not paying the annual fees