NO332170B1 - Anordning og fremgangsmate for kamerakontroll - Google Patents
Anordning og fremgangsmate for kamerakontroll Download PDFInfo
- Publication number
- NO332170B1 NO332170B1 NO20093142A NO20093142A NO332170B1 NO 332170 B1 NO332170 B1 NO 332170B1 NO 20093142 A NO20093142 A NO 20093142A NO 20093142 A NO20093142 A NO 20093142A NO 332170 B1 NO332170 B1 NO 332170B1
- Authority
- NO
- Norway
- Prior art keywords
- touch
- video
- computer
- camera control
- camera
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000004091 panning Methods 0.000 claims abstract description 8
- 238000004891 communication Methods 0.000 claims description 49
- 238000013461 design Methods 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 230000026058 directional locomotion Effects 0.000 claims 2
- 238000003825 pressing Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000009471 action Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 239000004020 conductor Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003068 static effect Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
- H04N7/152—Multipoint control units therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
- H04N23/632—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/695—Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Telephonic Communication Services (AREA)
Abstract
Den foreliggende oppfinnelsen omhandler et system og en metode for å styre opereringen av ett eller flere kameraer assosiert med et videokonferanseendepunkt i en videokonferansesamtale. Kamerakontrollenhet (fjernkontroll) i henhold til den foreliggende oppfinnelsen er en berøringsfølsom eller berøringsmuliggjort sluttbrukerkomponent som presenterer for brukeren et grafisk objekt som representerer videokonferanseendepunkter som for tiden er forbundet i konferansesamtalen, og/eller en eller flere levende videostrømmer som for tiden blir fanget inn av videokonferanseendepunktenes kameraer, og som gjør at brukeren kan manipulere kameraets panorering, tilting og zooming ved å bruke et berøringsfølsomt skjermdisplay innlemmet i nevnte kamerakontrollenhet.
Description
Introduksjon
Oppfinnelsen omhandler et berøringsfølsomt skjermfjernkontrollsystem for et videokonferansesystem og mer spesifikt en metode og innretning for å styre et kamera og et videokonferansesystem.
Bakgrunn
Konvensjonelle videokonferansesystemer omfatter et antall endepunkter som kommuniserer sanntids video, lyd og/eller data (ofte referert til som duovideo) strømmer over og mellom ulike nettverk slik som WAN, LAN og linjesvitsjede nettverk.
I de fleste høykvalitetskonferansesystemer blir høykvalitetskameraer med panorering, tilting og zoom-muligheter brukt til å fange inn en scene av et møterom og deltakerne i en konferanse. Kameraet har typisk en vidvinkel (wide field-of-view, FOV), og høymekanisk zoomingsevne. Dette tillater både god oversikt av et møterom og muligheten for å fange inn nærbilder av deltakerne. Videostrømmer fra kameraet blir komprimert og sendt til én eller flere mottakende steder (siter) i videokonferansen. Alle sitene i konferansen mottar levende video og lyd fra andre siter i konferansen, for dermed å muliggjøre sanntidskommunikasjon med både visuell og akustisk informasjon.
Videokonferanser varierer i stor grad hva angår formål, antall deltakere, layout av konferanserom, etc. Hver møtekonfigurasjon krever typisk en individuell justering av kameraet for å presentere en optimal fremvisning. Justering av kameraet kan bli krevet både før og under videokonferansen. F.eks. i et videokonferanseoppsett med opptil 16 personer vil det være det naturlig at videokameraet blir forhåndssatt til å fange inn alle seksten tilgjengelige setelokasjonene. Imidlertid vil, dersom kun 2 eller 3 deltakere er tilstede, vidvinkelen til fremvisningskameraet gi den mottakende enden en dårlig visuell representasjon.
Justeringer til kameraet blir typisk gjort ved å bruke en standard inputinnretning, slik som et tastatur eller en fjernkontroll eller en mus, enten ved manuelt å kontrollere kamerapanorering, tilting og zooming, eller ved å velge mellom et sett av forhåndsdefinerte kameraposisjoner. Typisk blir en tradisjonell IR-fjernkontroll med standard trykknapper brukt for å justere kameraet. Et standard oppsett er et sett av fire piltaster som kontrollerer panorering og tilting, og zoom-inn- og zoom-ut-knapper for å kontrollere zoomen.
Det å finne optimal kamerajustering på kjente systemer krever ofte flere iterasjoner med trykking av knapper på en fjernkontroll eller på et skjermmenysystem som gjør det tungvint og distraherende og ikke særlig intuitivt.
Selv om kameraets panorerings-/tiltemekanisme innbefatter små steppmotorer (som tillater "høyoppløselig" bevegelse), er videokonferansesystemet ofte programmert til å bevege kameraet i trinn for å spare brukeren for mye tastetrykking. Dette arbeidet er tiltenkt når kameraet er i en vid FOV, imidlertid kan det forårsake problemer når kameraet blir zoomet inn, siden trinnene da blir forholdsvis store.
I tillegg, dersom en bruker ønsker kontroll av kameraet fra et fjerntliggende endepunkt, trenger brukeren å navigere gjennom et antall skjermmenyer for å aksessere fjerntliggende kamerakontrollsettinger og så dersom flere enn ett fjerntliggende endepunkt blir forbundet til konferansen, å velge korrekt fjerntliggende endepunkt fra en liste av forbundne endepunkter. Denne prosessen er tungvint, og for uerfarne brukere kan den være vanskelig å få til på vellykket måte.
WO-2008150351 Al beskriver et videokonferansesystem styrt av en codec og hvor en berøringsskjerm brukes.
US-20070171273 Al beskriver et system og en fremgangsmåte for å styre en videokonferanse med et berøringsskjermgrensesnitt.
WO-2006020305 A3 beskriver en bærbar elektronisk anordning for behandling av bilder med en berøringsskjermanordning.
Tidligere kjente metoder for å kontrollere et kamera i en videokonferanse tungvint og forvirrende. Kameraet blir ofte ikke justert optimalt i en videokonferanse, noe som resulterer i en degradert videoopplevelse.
I dag er brukere av en teknisk installasjon kjent med og krever systemer som er enkle å bruke og tilveiebringer fleksibilitet når det gjelder måter for tilpasning av grafiske omgivelser og samarbeid mellom innretninger.
Tradisjonelle videokonferansesystemer er ikke svært fleksible. Videre er tradisjonelle videokonferansesystemer operert ved å bruke skjermene i systemer kontrollert av et tastatur på en IR-fjernkontrollinnretning, noe som gir begrenset fleksibilitet og tungvint brukeropplevelse.
Sammendrag av oppfinnelsen
Det er en hensikt med den foreliggende oppfinnelsen å tilveiebringe en innretning og metode som eliminerer ulempene beskrevet over. Innretningen er en berøringsfølsom skjermfjernkontroll med oppfinneriske trekk som definert i det selvstendige innretningskravet. Den oppfinneriske metoden er definert i det selvstendige metodekravet.
Den foreliggende oppfinnelsen fremviser en innretning og en metode for å kontrollere ett eller flere kameraer assosiert med ett eller flere videokonferanseendepunkter, ved å tilveiebringe på nevnte berøringsfølsomme skjerm et grafisk overblikk av kameraer forbundet i en konferansesamtale, og hvor kontrolleringen omfatter modifisering av kameraets panorering, tilting og/eller zooming ved å bruke nevnte berøringsfølsomme skjerm.
Kort beskrivelse av tegningene
Det nevnte og andre aspekter, trekk og fordeler ved oppfinnelsen vil bli åpenbare fra den følgende mer spesifikke beskrivelsen av foretrukne utførelser av oppfinnelsen som illustrert i vedlagte tegninger, hvor like referanser refererer til samme deler gjennom de ulike snittene. Tegningene er ikke nødvendigvis i skala. Det er lagt vekt på å illustrere prinsippene ved oppfinnelsen. Fig. 1 er en skjematisk oversikt over eksempelvise kommunikasjonsnettverk hvor den foreliggende oppfinnelsen kan bli anvendt,
Fig. 2 er en skjematisk oversikt for en tidligere kjent fjernkontroll,
Fig. 3 er en skjematisk oversikt over et berøringsfølsomt skjermkontrollsystem i henhold til den foreliggende oppfinnelsen,
Fig. 4 er et blokkskjema av den foreliggende oppfinnelsen,
Fig. 5 er en skjematisk oversikt over eksempelvis utførelse av den foreliggende oppfinnelsen, Fig. 6 er en skjematisk oversikt over en annen eksempelvis utførelse av den foreliggende oppfinnelsen, Fig. 7 er en skjematisk oversikt over en annen eksempelvis utførelse av den foreliggende oppfinnelsen, Fig. 8 er en skjematisk oversikt over en annen eksempelvis utførelse av den foreliggende oppfinnelsen, Fig. 9 er en skjematisk oversikt over en annen eksempelvis utførelse av den foreliggende oppfinnelsen, Fig. 10 er et flytskjema som illustrerer metoden i henhold til den foreliggende oppfinnelsen, og Fig. 11 illustrerer et datamaskinsystem hvor en utførelse av den foreliggende oppfinnelsen har blitt implementert.
Detaljert beskrivelse
I det følgende vil den foreliggende oppfinnelsen bli beskrevet med ulike utførelser, og ved å referere til de vedlagte tegningene. Imidlertid vil en fagperson på området innse andre applikasjoner og modifikasjoner innenfor omfanget av oppfinnelsen som beskrevet i de vedlagte selvstendige kravene.
Den presenterte oppfinnelsen relaterer seg til et system og en metode for å kontrollere operasjoner i ett eller flere kameraer assosiert med et videokonferanseendepunkt i en videokonferansesamtale. En kamerakontrollenhet
(fjernkontroll) i henhold til den foreliggende oppfinnelsen er et berøringsmuliggjort komponent for en sluttbruker som presenterer for brukeren et grafisk objekt som representerer videokonferanseendepunktene som for tiden er forbundet til konferansesamtalen, og/eller én eller flere live videostrømmer (video feeds) som for tiden er fanget inn av videokonferanseendepunktenes kameraer, og som tillater at brukeren kan manipulere panorering, tilting og zooming til et kamera ved å bruke en berøringsfølsom skjerm som er innlemmet i nevnte kamerakontrollenhet.
Nettverksoversikt
Illustrert i fig. 1 er et eksempel på et kommunikasjonsnettverk 10 ved hvilket foreliggende oppfinnelse kan bli anvendt. Hver bruker er forbundet til kommunikasjonsnettverket gjennom en endepunktinnretning 12. Endepunktinnretningen er beskrevet i mer detaljert under. Fortrinnsvis er kommunikasjonens nettverk et internettprotokoll (IP)-nettverk 14. Imidlertid kan brukere også bli forbundet til ulike kommunikasjonsnettverk slik som Integrated Digital Services Network (ISDN) 16. En MCU (Multipoint Control Unit) 18 kan også bli forbundet til et kommunikasjonsnettverk 14, 16, over hvilket videokonferansesamtalen kan bli tilveiebrakt. Alternativt kan én av nevnte endepunktinnretninger 12 omfatte en innlemmet MCU for å tilveiebringe multipunktstjenester. Et antall endepunktapparaturer 12 som er på ulike siter kan delta i samme konferanse gjennom én eller flere MCU'er, utføre f. eks. svitsjing og miksings funksjoner for å tillate audiovisuelle terminaler å samkommunisere på riktig måte. Hvert endepunkt og dermed hver audiovisuelle strøm blir tilveiebrakt med sin egen unike endepunktsidentifikator (ID).
Dersom brukere fra én eller flere typer av kommunikasjonsnettverk ønsker å delta i en videokonferansesamtale må de to kommunikasjonsnettverkene bli linket ved å bruke en gateway 20. Gatewayen tillater oversetting av data sendt ved å bruke ulike protokoller til protokoller som er passende for sending av data over hver type nettverk.
Endepunktinnretning
Endepunktinnretningen 12 er en innretning forbundet til et kommunikasjonsnettverk til en video og/eller audiokonferanse som muliggjør en bruker å sende informasjon over og motta informasjon fra kommunikasjonsnettverket. For en videokonferanse kan endepunktinnretningen være et tradisjonelt telefonhåndsett dersom brukeren kun er forbundet til å motta lyddata. Imidlertid, og mer vanlig, vil endepunktinnretningen muliggjøre videodata til å bli mottatt fra, og sendt over, kommunikasjonsnettverket også bli fremvist for brukeren, og blir heretter referert til som et videokonferanseendepunkt.
Det refereres nå til fig. 3 og 4. Hvor spesifikt referanse til fig. 3 typisk er et videokonferanseendepunkt kjent på fagområdet generelt designet med henvisning til referansenummer 20. Endepunkt 20 innbefatter et kamera 21 og en mikrofon 26 som forsyner video og lydsignaler til en CODEC 23 som forsyner lyd-videosignaler til én eller flere monitorer 24. CODEC 23 kan også bli forsynt med signaler fra eksterne multimediakilder 25, f.eks. VCR, DVD-spillere, dokumentkameraer, personlige datamaskiner, etc. Som det forstås av den dobbelhodede pilen mellom CODEC 23 og den eksterne kilden 25, kan CODEC 23 motta datasignaler (f.eks. video, lyd, stillbilder, etc.) fra eksterne kilder for å bli fremvist på monitorene 24, og/eller signaler fra eksterne kilder kan bli sendt til andre videoendepunkter forbundet til videoendepunktet 20 via et nettverk 14, 16.
Videokonferanseendepunktet er fortrinnsvis et H.323- eller SIP-endepunkt dersom den er forbundet til et IP-nettverk eller et H.320-endepunkt dersom den er forbundet til et ISDN-nettverk. H.323 og H.320 er standarder definert av International Telecommunications Union.
Videoendepunktet kan også bli tilveiebrakt med fjerntliggende endekamerakontroll (FECC) mulighet. FECC-mulighet blir tradisjonelt aksessert ved å velge knappene 24-36 på brukerinputinnretningen 22 slik som en IR-fjernkontroll illustrert i fig. 2 og vist i fig. 3. FECC-kommandoer går ned langs samme kommunikasjons link som lyd og videodata og opptrer for å kontrollere et annet videoendepunkt. F.eks. tillater de at en bruker kan sørge for at et annet kamera, annet enn deres eget, panorerer, zoomer, tilter og fokuserer. Kommandoer kan bli sendt fra kontrollvideokonferanse-endepunktet til det andre videokonferanseendepunktet ved å bruke en signaleringsprotokollmelding slik som en ITU-T H.281 eller H.323 Annex Q.
CODEC 23 har en API som tillater brukere å på programmessig vis endre panorering, tilt og/eller zoom av et endepunkts kamera ved å bruke kamerakontrollenhet 40. "API" er en forkortelse for "Application Programing Interface". Med videre henvisning til fig. 3, utveksles API-kommunikasjoner mellom kamerakontrollenheten 40 (eller fjernkontrollen) og CODEC 23 via en port 28 i CODEC 23 og en port 47 i kamerakontrollenhet 40. Dette grensesnittet aksesseres via porten 28 og tillater den foreliggende oppfinnelsen å kommunisere med CODEC 23, slik at kamerakontrollenheten 40 i henhold til den foreliggende oppfinnelsen kan tilveiebringe CODEC 23 med en ønsket serie av kommandoer og motta responser fra CODEC 23.
Med henvisning til fig. 4 er komponentene i den foreliggende oppfinnelsen generelt betegnet med referansenummer 40 og ses å omfatte en berøringsfølsom skjermenhet 41, en personlig datamaskin 43 og en grafisk generator 45. Som det ses har den personlige datamaskinen 43 en port 47, som er koblet til en kommunikasjonslink 56 koblet til en API-kommunikasjonsport 28 og en CODEC 23.
Den berøringsfølsomme skjermen 41 omfatter en LCD-skjerm eller annen videoskjermteknologi (CRT, OLED, Plasma, etc.) som kan være av varierende størrelse. I tillegg til skjermen omfatter den berøringsfølsomme skjermen 41 hardware som ligger over display/skjerm med en matrise på x'- og y'-koordinat detektorer. Med et objekt (finger, penn, etc.) som anvender berøring (touch) til den berøringsfølsomme skjermen, sender kommandoer til datamaskinen 43, hvor nevnte kommandoer i det minste omfatter x'- og y'-koordinater til et punkt hvor berøring skal anvendes.
Kamerakontrollenheten 40 kommuniserer med CODEC 23 som bruker tidligere nevnte API. Kommunikasjonen mellom CODEC 23 og kamerakontrollenheten 40 omfatter informasjon fra CODEC 23 og kommandoer til CODEC 23. Når videokonferansesamtalen har startet, sender CODEC 23 informasjon til kamerakontrollenheten som i det minste identifiserer antall deltakere, og endepunktidentifikator for hver deltaker.
I henhold til en eksempelvis utførelse av den foreliggende oppfinnelsen omfatter CODEC 23 en videokonverter 49. Videokonverteren 49 mottar videostrømmer/videokonferansestrømmer fra nærende-kamera/endepunkt og/eller én eller flere konferanse strømmer fra et fjerntliggende videokonferanseendepunkt, prosesserer videostrøm/videokonferansestrømmer, og mater ut korresponderende sett av videostrømmer med redusert oppløsning og/eller bitrate. I henhold til en eksempelvis utførelse av oppfinnelsen, genererer videokonverter 49 én eller flere videostrømmer ved å kode de mottatte videostrømmene i henhold til én av et antall av standarder for å kode videoer i sanntidsapplikasjoner, slik som ITU-I H.261, H.262, H.263, H.264 eller lignende videokodingsstandarder. I henhold til en annen eksempelvis utførelse av den foreliggende oppfinnelsen tar videokonverteren snapshots av mottatte videostrømmer med forhåndsdefinerte intervaller, og omgjør størrelsen på snapshotene før den mater ut en serie av snapshots som en videostrøm. Videostrømmer blir omgjort i størrelse fordi den berøringsfølsomme skjermen normalt er mye mindre i størrelse enn størrelsen på videokonferanseendepunktets skjerm 24, som de mottatte videostrømmene er tiltenkt for. Typiske intervaller til slike utførelser kan være i området 30 snapshots pr. sekund til 1 snapshot hvert femte sekund.
I respons til å motta informasjon fra CODEC 26, genererer datamaskinen et grafisk brukergrensesnitt (GUI) til å bli fremvist på den berøringsfølsomme skjermen 41. GUI blir brukt for å kontrollere operasjonen til ett eller flere kameraer, slik som nærendekameraer og fjerntliggende endekameraer. Det grafiske brukergrensesnittet kan også innbefatte et antall trykkontroller, menyer, og dialoger som fremvist på den berøringsfølsomme skjermen 41 for bruker for å operere og kontrollere endepunktet X. F.eks. kan GUI tillate at en bruker oppretter eller svarer videokonferansesamtale; kobler fra én eller flere videokonferansesamtaler, kontrollerer nærendekameraer; kontrollerer fjerntliggende endekameraer og andre typer videokonferansehandlinger.
I henhold til én utførelse av oppfinnelsen, når videokonferansesamtalen har startet, sender CODEC 26 et signal til kamerakontrollenheten som indikerer at konferansen har startet og identifiserer i det minste en unik konferanse ID til videokonferanseendepunktet som deltar i konferansesamtalen. I respons til mottatt signal fra CODEC 26, genererer og tilveiebringer en grafisk generator 45, under kontroll av en personlig datamaskin 43, til den berøringsfølsomme skjermen via en port 42 et grafisk brukergrensesnitt som tillater operering av ett eller flere kameraer assosiert med ett eller flere av videokonferanseendepunktene forbundet til videokonferansesamtalen. Alternativt blir det grafiske brukergrensesnittet som tillater operasjon av ett eller flere kameraer kun generert og tilveiebrakt til den berøringsfølsomme skjermen 41 ved en forespørsel fra brukeren. Som illustrert i fig. 5 oppfatter det grafiske brukergrensesnittet en scene 51 hvor scenen er et definert område som omfatter et grafisk objekt 52. Scenen 51 kan eller kan ikke være uthevet med en distinktiv kant, og dersom scenen ikke er uthevet vil scenen fremtre som en del av bakgrunnen. Hvert grafiske objekt 52 representerer ett av videokonferanseendepunktene forbundet til en pågående konferansesamtale. I henhold til en annen eksempelvis utførelse kan det grafiske brukergrensesnittet også innbefatte et menyområde 53 i tillegg til scenen.
Scenen 51 er en grafisk representasjon av en konferansesamtale og visualiserer til brukeren ulike deltakere i samtalen. Scenen 51 kan eller kan ikke innbefatte et grafisk objekt 52 som representerer lokale videokonferanseendepunkter til hvilket kamerakontrollenheten 40 er forbundet.
I henhold til én utførelse av den foreliggende oppfinnelsen er de grafiske objektene 52 bilder som identifiserer videokonferanseendepunkter som de grafiske objektene representerer respektivt. Nevnte bilde kan være en utheving av én eller flere personer (avatarer), et datamaskingenerert bilde, et fotografi, tekst som beskriver videokonferanseendepunktet (f.eks. navn på deltaker, navn på videokonferansesystem (f.eks. endepunkt-ID), navn på lokasjon hvor videokonferansesystemet er lokalisert, etc), eller en kombinasjon av to eller flere av de ovenfor nevnte.
I henhold til en annen utførelse av den foreliggende oppfinnelsen av de grafiske objektene er levende video matet fra forbundne videokonferanseendepunkter. Levende videofeeds er tilveiebrakt av videokonverteren beskrevet over.
Som illustrert i fig. 6 blir, når en bruker berører (symbolet 62 representerer en berøring registrert av et berøringsskjermsystem 41) skjermen til det berøringsfølsomme skjermsystemet med et objekt (f.eks. finger eller penn), x- og y-koordinater korresponderende til lokasjonen til det trykte punktet 62 sendt til datamaskinen 43 via porten 53, lederen 55 og en port 57 på datamaskinen 43. Dersom en bruker berører en koordinat innenfor området av skjermen som fremviser ett eller flere grafiske objekter 52 (som vist i fig. 6), sammenligner datamaskinen de trykte x- og y-koordinatene med innholdet til GUI, og tolker brukerens handling som et valg av trykte grafiske objekter 61, og dermed et valg av videokonferansesystem assosiert med det grafiske objektet. Brukeren kan så operere kameraet assosiert med videokonferanseendepunktet som representerer det valgte grafiske objektet. Det valgte grafiske objektet 61 kan bli uthevet for å illustrere til brukeren at kamerakontrollenheten (fjernkontrollen) har registrert brukerens valg. Alternativt kan det valgte objektet bli forstørret. I henhold til én utførelse blir det valgte grafiske objektet forstørret, mens de andre objektene blir redusert i størrelse. I henhold til en annen utførelse blir det valgte objektet forstørret for så å dekke hele scenen.
Operasjonen av nevnte kamera blir utført ved å bruke en berøringsfølsom skjerm. Kamerakontrollenheten vil tilveiebringe for brukeren visuell, audio og/eller taktil feedback når brukeren opererer kamerakontrollen. Feedbacken gir brukeren tilbakemelding om at kamerakontrollenheten har registrert brukerens kommando. Eksempler på visuell feedback er at piltastene endrer form, størrelse eller farge når de trykkes. Et annet eksempel på taktil feedback er at kamerakontrollenheten 40 omfatter en vibrasjonsinnretning, og at vibrasjonsinnretningen blir aktivert når kamerakontrollen (f.eks. piltastene) blir trykket. Et annet eksempel på lydfeedback er at kamerakontrollenheten 40 omfatter en høyttaler og at kamerakontrollenheten sender ut lyd via nevnte høyttaler når kamerakontrollenheten blir trykket eller kamerakontrollgester blir utført.
I henhold til én utførelse av den foreliggende oppfinnelsen involverer operasjonen med kamerafremvisning av kamerakontroller på den berøringsfølsomme skjermen og å motta touchdata fra en bruker med hensyn til disse kamerakontrollene for å kontrollere operasjonen til kameraet. Når en genererer GUI designerer datamaskinen ved ett område på GUI for hver berøringsfølsomme kontroll (opp, ned, venstre, høyre, zoom inn, zoom ut, etc). Når datamaskinen mottar touchdata (koordinater) fra det berøringsfølsomme skjermdisplayet 41, sammenligner datamaskinen koordinatene med designerte områder og assosierer de mottatte touchdata med kamerakontrollinstruksjoner designert for det trykte området.
I henhold til en eksempelvis utførelse av oppfinnelsen omfatter de fremviste kamerakontrollene et sett med piltaster, eller lignende knapper som indikerer retning, kontrollere opp, ned, venstre og høyre bevegelse til kameraet. Kamerakontroller for å operere kameraets zoomfunksjon omfatter en glidebryter eller alternativt to knapper som representerer zoom inn og zoom ut respektivt. Brukeren kan operere kameraet ved å trykke de ønskede piltastene (eller zoomtastene) gjentatte ganger, eller ved å trykke ned og holde, inntil kameraet har beveget seg til ønsket posisjon. En eksempelvis kamerakontroll som beskrevet over er illustrert i fig. 5.
I henhold til én utførelse av den foreliggende oppfinnelsen involverer opereringen av kameraet det å anvende fingergester generelt eller til visse områder på GUI. Datamaskinen mottar en fingergest som en serie av etterfølgende berøringsoordinater. Datamaskinen designerer en fingerfest for hver berøringsontroll (opp, ned, venstre, høyre, zoom inn, zoom ut, etc), enten som en gest utført på ethvert sted på skjermen eller som en gest utført i forbindelse med et visst område. Når datamaskinen mottar touchdata (koordinater) fra det berøringsfølsomme skjermdisplayet 41, og en serie av etterfølgende koordinater betyr dette en gest, datamaskinen sammenligner koordinatene designerte gester og assosierer de mottatte touchdata med kameraets kontrollinstruksjoner designert for utført gest.
I henhold til en eksempelvis utførelse av den foreliggende oppfinnelsen omfatter de fremviste kamerakontrollene en virtuell joystick, som er illustrert i fig. 6, og fig. 7. Den virtuelle joysticken 63 kan f.eks. omfatte et sett med piltaster 631 og et sentralt legeme 632 (eller joystickikon). Ved å trekke det sentrale legemet 632 i ønsket retning, kan brukeren være i stand til å kontrollere panorering-tilte kamera mer fritt og intuitivt, uten restriksjoner eller trinnvise bevegelser av fire retninger. I denne utførelsen kan kameraet bli beveget i enhver retning med én bevegelse eller berøring (touch). I tillegg kan hastigheten til kameraets panorering/tilting bli bestemt av avstanden mellom foreliggende posisjon 702 og den initielle posisjonen 701 til legemet. Når brukeren slipper opp det sentrale legemet 631, stopper kameraet å bevege seg.
I henhold til enda en utførelse av den foreliggende oppfinnelsen kan, når det grafiske objektet er levende videofeeds, kameraet bli operert ved å samhandle med det grafiske objektet direkte. Siden brukeren nå kan se det faktiske bildet fanget inn av kameraet på den berøringsfølsomme skjermen (i GUI), kan brukeren operere kameraets panorering, tilting og zoombevegelse ved å utføre fingergester på den levende videostrømmen i GUI, som illustrert i fig. 8. Brukeren kan kontrollere et kameras panorering/tilting ved å utføre en dra- og slippfingergest på videostrømmen, som vist i fig. 8a. I denne utførelsen er videostrømmen fra det for tiden kontrollerte kameraet konstant oppdatert under dra- og slipprosedyren. På denne måten tillater GUI brukeren å dra bildet rundt på det berøringsfølsomme skjermdisplayet inntil en ønsket visning blir funnet, slik som et fysisk objekt kan bli beveget på en pult eller bordoverflate. Videre kan brukeren zoome ved å utføre visse forhåndsdefinerte gester på den fremviste videostrømmen, f.eks. å utføre pinchebevegelser av to eller flere fingre, mens det kontinuerlig anvendes trykk på berøringsskjermen for å zoome inn og zoome ut, som illustrert i fig. 8b. Alternativt kan zoomfunksjonen bli aktivert ved å trykke og holde i en forhåndsdefinert tidsperiode (f.eks. 0,5-2 sek.). Etter forhåndsdefinert periode, kan et zoomeikon og/eller en glidebryter opptre for å illustrere at zoomfunksjonen har blitt aktivert. Zoomen kan så bli operert ved å gli fingeren i en horisontal eller vertikal retning som vist i fig. 8c-d.
I henhold til enda en annen utførelse av den foreliggende oppfinnelsen kan, når det grafiske objektet fremvises fremvise live videostrømmer, brukeren zoome inn på en valgt deltaker ved å trykke på eller dobbeltrykke, eller enhver annen passende gest på en deltaker i den live videofeeden, som illustrert i fig. 9a. Når det dobbelttrykkes på en deltaker vil kamerakontrollenheten instruere kameraet assosiert med relevant videostrøm (via lokale CODEC 26) til å zoome inn på den personen. For faste installasjoner, f.eks. konferanserom med faste plasser og konstant avstand mellom kamera og deltakere, kan dette enkelt bli utført ved å panorere, tilte og zoome inn på en forhåndsdefinert kameraposisjon (preset). Dersom assosiert konferanserom ikke er en fast installasjon, kan ansiktsdeteksjonsalgoritmer bli anvendt for å bestemme posisjonen og størrelsen til ansiktet nærmest de trykte x'- og y'-koordinatene. Dersom et ansikt blir detektert, og posisjon og størrelse til ansiktet blir tilegnet, beregner kamerakontrollenheten en passende panorering, tilting og zoomingsposisjon for å ramme inn den valgte deltakeren, og sende kamerakontrollinstruksjoner til CODEC, som i tur instruerer relevant videoendepunkt og kamera ved å bruke Far End Camera Control (FECC) protokollen.
I henhold til enda en utførelse av den foreliggende oppfinnelsen kan, når det grafiske objektet er live videofeeds, brukeren zoome inn på én eller flere deltakere eller ethvert annet område til live videofeeds ved å ramme inn området av interesse ved å bruke gester som gjenkjennes av datamaskinen 43. Som illustrert i fig. 9b, kan området av interesse bli definert ved å navigere en finger eller objekt på den berøringsfølsomme skjermen rundt området av interesse, eller ved å definere i det miste to av hjørnene i et område av interesse ved å trykke eller dobbelttrykke to eller flere fingre på den berøringsfølsomme skjermen som vist i fig. 9c.
Deretter, når brukeren har trykket på ønsket kamerakontrollknapp i det grafiske brukergrensesnittet fremvist på den berøringsfølsomme skjermen eller anvendt en fingergest assosiert med kamerakontrollen i henhold til én eller flere av utførelsene over, datamaskinen 43 motta berøringsdata fra det berøringsfølsomme skjermdisplayet, og assosiert med kamerakontrollinstruksjoner forstått av CODEC.
Datamaskinen sender så en kommando (eller signal) omfattende endepunktets ID eller valgt videokonferanseendepunkt og kamerakontrollinstruksjoner. Relevant endepunkt ID identifiserer hvilken av de forbundne videokonferansessystemer de valgte videostrømmene opprinnelig kommer fra, og derav til hvilket videokonferansesytem FECC instruksjoner skal bli sendt, eller dersom kamerakontrollinstruksjonene skal bli sendt til sitt eget kamera. Kommandoen blir sendt til CODEC 26 via porten 47, kommunikasjonslinken 56 og en port 28 på CODEC 26. Dersom mottatt endepunkt ID er ID til den mottatte CODEC 26, sender CODEC kontrollinstruksjoner til kameraet forbundet til CODEC 26. Dersom mottatte endepunkt ID er ID til ett av de fjerntliggende videokonferansesystemene forbundet til CODEC, genererer CODEC FECC instruksjoner basert på den mottatte kommandoen og sender til identifisert videokonferansesystem, som i sin tur sender kontrollinstruksjoner til sitt kamera.
I henhold til én utførelse av den foreliggende oppfinnelsen, er kamerakontrollenheten en dedikert innretning. Den dedikerte innretningen kan som default være en del av videokonferansesystemet eller en tilleggsinnretning tilegnet separat.
I henhold til en annen utførelse av den foreliggende oppfinnelsen kan, en bærbar datamaskininnretning, slik som en personlig digital assistent, mobiltelefon, laptop datamaskin eller lignende bærbar datamaskininnretning ha et berøringsfølsomt skjermgrensesnitt og et kommunikasjonsgrensesnitt understøttet av videokomponerende server 26 (f.eks. TCP/IP), bli utnyttet som en kamerakontrollenhet. En klientsoftware (kamerakontrollklient) kan bli lastet ned og/eller installert på en slik bærbar datamaskininnretning som muliggjør den portable datamaskininnretningen som en kamerakontrollenhet i henhold til den foreliggende oppfinnelsen.
Datamaskinen 43 i en kamerakontroll 40 kan i tillegg til en prosessor innbefatte et minnemedie på hvilket ett eller flere datamaskinprogrammer eller softwarekomponenter i henhold til én utførelse av den foreliggende oppfinnelsen kan bli lagret. F.eks. kan den grafiske generatoren som skal bli brukt lagre på minnemediet til datamaskinen 43.1 tillegg kan minnemediet også lagre en grafisk programmeringsutviklingsapplikasjon brukt for å lagre den grafiske generatoren så vel som software som er opererbar for å oppvarme og/eller utnytte den grafiske generatoren på den bærbare datamaskininnretningen. Minnemediet kan også lagre operasjonssystemprogramvare, så vel som annen software for å operere datamaskinsystemet.
Fig. 4 er lignende til fig. 3, men konsentrerer seg på komponenter til den foreliggende oppfinnelsen som beskrevet over. Like referansenumre i fig. 4
refererer til like komponenter i fig. 3. Det oppfinneriske systemet 40 tillater kontroll av CODEC 26 gjennom bruk av en berøringsfølsom skjerm 41 som er enkel å bruke, som er kontrollert av den personlige datamaskinen 43, en intelligent innretning som sørger for logisk operering, kan gi brukerne en ny mulighet gjennom displayet til en forespørsel for å verifisere at korrekt valg har blitt utført, og sikre at ikke feilaktige operasjoner utføres.
I mer detalj er datamaskinen 43 i stand til å eksekvere logiske instruksjoner skrevet i et datamaskinprogrammerbart språk. Datamaskinen 43 kontrollerer operasjoner til CODEC via en PCI eller annen passende buss fysisk installert i datamaskinen 43; med CODEC 26 via en kommunikasjons link 56 automatisk representert i fig. 4.1 henhold til en eksempelvis utførelse av den foreliggende oppfinnelsen blir kommunikasjonen mellom datamaskinen 43 og CODEC 26 utvekslet ved å bruke TCP/IP over kommunikasjonslinken 56. Kommunikasjonslinken 56 kan være kablet eller trådløs link, slik som PAN, CAN, MAN, LAN, WLAN, WAN, etc. Kommunikasjonen mellom CODEC 26 og datamaskinen er kommandoer som går frem og tilbake mellom port 47 og datamaskinen 43 og porten 28 til CODEC 26. Som det forstås tilpasses disse kommunikasjonene til fabrikantens Application Programming Interface (API) til videokomponerende server 26.
Kommunikasjonen foregår også ved å bruke en berøringsfølsom skjerm 41 via kommunikasjons link vist i fig. 4, og henvist til med referansetall 55 for lederen og 53 og 57 for portene. Bildene fra datamaskinen/grafikkgeneratoren blir overført til og fremvist på det berøringsfølsomme skjermdisplayet via port 42, lederen 51 og port 44.
Med henvisning til fig. 3 følger alle kommunikasjonene mellom CODEC 26 og datamaskinen 43 en lignende prosedyre. Med henvisning til fig. 10, når
forhåndsdefinerte hendelser opptrer i trinn 1000, sender CODEC 26 i trinn 1010 en kommando/signal til datamaskinen 43, i det minste omfattende et sett av endepunkt ID'er som identifiserer videokonferanseendepunktene som for tiden er forbundet til CODEC 26 (direkte eller via en MCU) i konferansesamtalen. Nevnte forhåndsdefinerte hendelse kan innbefatte: når en videokonferanse har startet, når et nytt videokonferanseendepunkt forbindes til en pågående konferanse, når en kamerakontrollenhet forbindes til CODEC 26 under en konferanse, på forespørsel fra kamerakontrollenhet, etc. F.eks. ved å bruke et videokonferanseendepunkt C som illustrert i fig. 2, kan en bruker C ringe opp deltaker A på et videokonferanseendepunkt A' og en deltaker B på et videokonferanseendepunkt B'. Videokonferanseendepunktet C er allerede forbundet til en kamerakontrollenhet i henhold til den foreliggende oppfinnelsen, og når konferansen starter (alle endepunktene er forbundet) sender CODEC 26 til videokonferanseendepunktet C en kommando til kamerakontrollenhetenes datamaskin 43, som indikerer at konferansen er pågående, og identifiserer i det minste endepunktets ID til hvert av videokonferanseendepunktene i den foreliggende samtalen (i dette tilfellet endepunkt ID til videokonferansesystemene A', B' og C).
Deretter, i trinn 1020, lager datamaskinen (grafikkgenerator) et grafisk brukergrensesnitt (GUI) omfattende i det minste en scene 51. Scenen 51 er et dedikert område på GUI dedikert for å illustrere de for tiden forbundne endepunkter i den pågående videokonferansen. Basert på mottatte endepunkter ID'er genererer datamaskinen et sett med grafiske objekter, ett for hvert mottatte endepunkt ID. De grafiske objektene okkuperer deler av eller hele det dedikerte området til scenen. Selv om et grafisk objekt blir generert for hvert videokonferanseendepunkt, kan brukeren kontrollere oppsettet til scenen, f.eks. det grafiske objektet som representerer lokalt videokonferanseendepunkt kan bli utelatt. I den enkleste form omfatter det grafiske objektet én eller flere avatarer og et tekstfelt som inneholder informasjon assosiert med det relevante videokonferansesystemet. Teksten i tekstfeltet kan være endepunkt ID'en i seg selv, eller informasjon assosiert med endepunkt ID'en lagret i minnet eller nettverksinnretningen som er aksesserbar for datamaskinen, slik at navnet til deltakeren, navnet eller adressen til videokonferansesystemet, endepunkt ID, etc. I en annen eksempelvis utførelse omfatter det grafiske objektet live videofeed fra respektive videokonferansesystemer. Datamaskinen sender GUI (bilde) til det berøringsfølsomme skjermdisplayet 41 via porten 42, kommunikasjonslink 51 og port 44 på det berøringsfølsomme skjermdisplayet 41.
En bruker har nå en svært forståelig grafisk representasjon av alle deltakerne i videokonferansesamtalen. I neste trinn 1030, for å kontrollere et kamera, må brukeren velge et kamera (eller videokonferanseendepunkt) for å kontrollere ved berøring av ett av nevnte grafiske objekter 52 i scenen 51.1 respons til brukerens valg (touch), sender den berøringsfølsomme skjermen 41 x- og y-koordinatene til det trykkede området eller områder til datamaskinen 41 via port 53, kommunikasjonslink 55 og port 57. Datamaskinen 43 registrerer brukernes valg av kamera (videokonferanseendepunkt) til å styre og datamaskinen og den grafiske generatoren prosesserer informasjonen fra den berøringsfølsomme skjermen og oppdaterer GUI (scenen) med f.eks. å utheve eller forstørre det valgte grafiske objektet, og derav bildet fremvist på den berøringsfølsomme skjermen live.
I trinn 1040 styrer en bruker et valgt endepunkt sitt videokonferansekamera ved å manipulere GUI (f.eks. grafisk objekt, kontrollmenyer, knapper, gester) ved å trykke på den berøringsfølsomme skjermen 41 og/eller utføre fingergester på den berøringsfølsomme skjermen 41 som beskrevet i mer detalj over. Brukerens berøringsdata blir sendt til datamaskinen 43 via link 55 i form av x- og y-koordinater.
Deretter, i trinn 1050, ved mottak av berøringskoordinater, eller sett av etterfølgende berøringskoordinater (gester), sammenligner datamaskinen 43 berøringskoordinatene med sett av områder til GUI og/eller fingergester designert som kamerakontrollinstruksjoner. Designeringen til i det minste ett område av GUI og/eller i det minste én fingergest som i det minste en kamerakontrollinstruksjon blir utført enten som en forhåndskonfigurert designering lagret i minnet tilgjengelig for datamaskinen 43, eller designeringen blir utført når en genererer GUI og temporært lagret i minnet tilgjengelig for datamaskinen 43. Dersom en positiv match blir funnet, assosierer datamaskinen de mottatte berøringskoordinatene med kamerakontrollkommandoer.
Deretter, i trinn 1060, sender, dersom datamaskinen assosiert med mottatte berøringskoordinater med en berøringsfølsom kommando, datamaskinen 43 kommandoer til CODEC 26, i det minste omfattende en endepunkt ID og assosiert kontrollkommando. CODEC 26 analyserer endepunkt ID og assosiert kontrollkommando, og enten genererer en FECC-kommando og sender den til relevant videokonferanseendepunkt, eller sender kamerakontrollkommandoer til sitt lokale kamera dersom endepunkt ID identifiserer nevnte lokale videokonferanseendepunkt 20.
I et sluttrinn 1070, sendes så CODEC 26 et handling avsluttet signal til datamaskinen 43 via port 28, kommunikasjonslink 56 og port 47. Straks handlingen har blitt utført på en måte beskrevet over, venter datamaskinen 43 på indikasjon på den neste touch av skjermen 41 av brukeren, enten i form av en ny kamerakontrollinstruksjon, eller et nytt kameravalg eller en endring i antall forbundne videokonferanseendepunkter i konferansesamtalen.
Fig. 11 illustrerer en datamaskin 1201 på hvilket en utførelse av den foreliggende oppfinnelsen kan bli implementert. Datamaskinsystemet 1201 innbefatter en buss 1202 eller annen kommunikasjonsmekanisme for å kommunisere informasjon, og en prosessor 1203 forbundet til bussen 1202 for å prosessere informasjonen. Datamaskinsystemet 1201 innbefatter også et hovedminne 1204, slik som random access memory (RAM) eller annen dynamisk lagringsinnretning (f.eks. dynamisk RAM (DRAM), statisk RAM (SRAM), og synkron DRAM (SDRAM)), koblet til bussen 1202 for å lagre informasjon og instruksjoner som skal eksekveres av prosessoren 1203.1 tillegg kan hovedminnet 1204 bli lagret for temporære lagringsvariable eller annen mellomliggende informasjon eller eksekvering av instruksjonene av prosessoren 1203. Datamaskinsystemet 1201 innbefatter videre en read only memory (ROM) 1205 eller annen statisk lagringsinnretning (f.eks. programmerbar ROM (PROM), erasable PROM (EPROM), og elektrisk erasable PROM (EEPROM)) koblet til bussen 1202 for å lagre statisk informasjon og instruksjoner for prosessoren 1203.
Datamaskinsystemet 1201 innbefatter en diskkontroller 1206 koblet til bussen 1202 for å kontrollere én eller flere lagringsinnretninger for å lagre informasjon og instruksjoner slik som magnetisk harddisk 1207, og et fjernbart mediadrev 1208 (f.eks. floppy disk drive, read-only compact dise drive, read/write compact dise drive, compact dise jukebox, tape drive, og removable magneto-optical drive). Lagringsinnretningene kan bli lagt til datamaskinsystem 1201 ved å bruke et passende innretningsgrensesnitt (f.eks. small computer system interface (SCSI), integrated device electronics (IDE), enhanced-IDE (E-IDE), direct memory access (DMA), eller ultra-DMA).
Datamaskinsystemet 1201 kan også innbefatte spesielt formålslogiske innretninger (f.eks. applikasjonsspesifikke integrerte kretser (ASIC)) eller konfigurerbare logiske innretninger (f.eks. enkle programmeringslogiske innretninger (SPLDs), komplekse programmerbare logiske innretninger (CPLDs), og feltprogrammerbare gate arrays (FPGAs)).
Datamaskinsystemet 1201 kan også innbefatte en displaykontroller 1209 koblet til bussen 1202, for å kontrollere et display 1210 slik som et katodestålrør (CRT) eller LCD-display for å fremvise informasjon til en datamaskinbruker. Datamaskinsystemet innbefatter inputinnretninger slik som et tastatur 1211 og en pekeinnretning 1212, for å samhandle med datamaskinbrukeren og tilveiebringe informasjon til prosessoren 1203. Peke innretningen 1212 kan f.eks. være en mus, en trackball, eller pekestokk for å kommunisere retnings informasjon og kommandovalg til prosessoren 1203, og for å kontrollere markørbevegelser (cursor) på skjermen 1210.1 tillegg kan en printer tilveiebringe utskriftslistinger av data lagret og/eller generert av datamaskinsystemet 1201.
Datamaskinsystemet 1201 utfører en del eller alle prosesseringstrinnene i en utførelse av oppfinnelsen som respons til prosessor 1203 ved å eksekvere én eller flere sekvenser av én eller flere instruksjoner inneholdt i et minne, slik som et hovedminne 1204. Slike instruksjoner kan bli lest inn i hovedminnet 1204 fra et annet datamaskinlesbart medium, slik som en harddisk 1207 eller et fjernbart fjernbart mediadrev 1208. En eller flere prosessorer i et multiprosesseringsarrangement kan f.eks. bli anvendt for å eksekvere sekvenser av instruksjoner inneholdt i hovedminnet 1204.1 alternative utførelser kan hardwarekretser bli brukt istedenfor eller i kombinasjon med softwareinstruksjoner. Dermed er ikke utførelser begrenset til noen spesifikke kombinasjoner av hardwarekretser og software.
Som nevnt over innbefatter datamaskinsystemet 1201 i det minste ett datamaskinlesbart medium eller minne for å holde instruksjoner programmert til lærdommen av oppfinnelsen og for å inneholde datastrukturer, tabeller, registreringer eller andre data beskrevet her. Eksempler på datamaskinlesbart lagringsmedium er kompaktdisker, harddisker, floppy disker, tape, magnetooptiske disker, PROM (EPROM, EEPROM, flash EPROM), DRAM, SRAM, SDRAM, eller ethvert annet magnetisk medium, kompaktdisk (f.eks. CD-ROM), eller ethvert annet optisk medium, trykte kort, papirtape eller annet fysisk medium med mønster av hull. Instruksjoner kan også bli lagret på en bærebølge (eller signal) og lest fra dette.
Lagret på ethvert eller én i kombinasjon av datamaskinlesbare lagringsmedier, innbefatter utførelsene av den foreliggende oppfinnelsen software for å kontrollere datamaskinsystemet 1201, for å drive en innretning eller innretninger for å implementere oppfinnelsen, og for å muliggjøre datamaskinsystemet 1201 for å samhandle med en menneskelig bruker. Slik software kan innbefatte, men er ikke begrenset til, innretningsdrivere, operasjonssystemer, utviklingsverktøy og applikasjonssoftware.
Datamaskinkodeinnretningene til den foreliggende oppfinnelsen kan være enhver tolkbare eller eksekverbar kodingsmekanisme, innbefattende men ikke begrenset til skript, tolkbare programmer, dynamiske linkbiblioteker (DLL), Java-klasser, og komplett eksekverbare programmer. Videre kan deler av prosesseringen til den foreliggende oppfinnelsen bli fordelt for bedre ytelse, pålitelighet og/eller kostnad.
Uttrykket "datamaskinlesbart lagringsmedium" som blir brukt her refererer til ethvert fysisk medium som deltar i å tilveiebringe instruksjoner til prosessoren 1203 for eksekvering. Et datamaskinlesbart lagringsmedium kan ta mange former, innbefattende, men ikke begrenset til, non-volatile media og volatile media. Non-volatile media innbefatter, f.eks. optisk, magnetiske disker, og magnetooptiske disker, slik en harddisk 1207 eller fjernbart mediadrev 1208. Volatile media innbefatter dynamisk minne, slik som hovedminnet 1204.
Ulike former for datamaskinlesbart lagringsmedie kan være involvert i å utføre én eller flere sekvenser av én eller flere instruksjoner til prosessoren 1203 for eksekvering, f.eks. kan instruksjonene initielt bli utført på en magnetisk disk til en fjerntliggende datamaskin. Den fjerntliggende datamaskinen kan laste instruksjonene for implementering av alle eller deler av den foreliggende oppfinnelsen fjernt inn i et dynamisk minne og sende instruksjonene over en telefonlinje ved å bruke et modem. Et modem lokalt for datamaskinsystemet 1201 kan mota data på telefonlinjen og bruke en infrarød sender til å konvertere data til et infrarødt signal. En infrarød detektor koblet til bussen 1202, motta dataene utført av det infrarøde signalet og plassere data på bussen 1202. Bussen 1202 fører dataene til hovedminnet 1204, fra hvilken prosessor 1203 henter og eksekverer instruksjoner. Instruksjonene mottatt av hovedminnet 1204 kan i tillegg bli lagret på lagringsinnretningen 1207 eller 1208 enten før eller etter eksekvering av prosessoren 1203.
Datamaskinsystemet 1201 innbefatter også et kommunikasjonsgrensesnitt 1213 koblet til bussen 1202. Kommunikasjonsgrensesnittet 1213 tilveiebringer toveis datakommunikasjon koblet til nettverkslinken 1214 som er forbundet til, f.eks. et lokalt områdenettverk (LAN) 1215, eller til et annet kommunikasjonsnettverk 1216 slik som internett. F.eks. kan kommunikasjonsgrensesnittet 1213 være et nettverksgrensesnittskort forbundet til enhver pakkesvitsjet LAN. Som et annet eksempel kan kommunikasjonsgrensesnittet 1213 være et asymmetrisk digital abonnementslinje (ADSL)-kort, et integrert tjenestedigitalt nettverk (ISDN)-kort eller modem for å tilveiebringe en datakommunikasjon forbundet til korresponderende type av kommunikasjonslinjer. Trådløse lenker kan også bli implementert. I enhver slik implementering, sender kommunikasjonsgrensesnittet 1213 og mottar elektrisk, elektromagnetisk eller optiske signaler for å utføre digitale datastrømmer som representerer ulike typer av informasjon.
Nettverkslinken 1214 tilveiebringer typisk datakommunikasjon gjennom ett eller flere nettverk til andre datainnretninger. F.eks. kan nettverkslinken 1214 tilveiebringe en forbindelse til en annen datamaskin gjennom et lokalt nettverk 1215
(f.eks. en LAN) eller gjennom utstyr operert av en tjenestetilveiebringer, som tilveiebringer kommunikasjonstjenester gjennom et kommunikasjonsnettverk 1216.
Det lokale nettverket 1214, og kommunikasjonsnettverket 1216 bruker, f.eks., elektriske, elektromagnetiske eller optiske signaler for å utføre digitaldatastrømmer, og de assosierte fysiske lagene (f.eks. CAT 5 kabel, koaksialkabel, optisk fiber, etc.). Signalene gjennom de ulike nettverkene og signalene på nettverkslinjen 1214 og gjennom kommunikasjonsgrensesnittet 1213, som bærer de digitale data til og fra datamaskinsystemet 1201 kan være implementert i basebåndsignaler, eller bærebølgebaserte signaler. Basebåndsignalene bærer de digitale dataene som umodulerte elektriske pulser som er deskriptive til en strøm av digitale databits, hvor uttrykket "bits" skal bli forstått bredt til å bety et symbol, hvor hvert symbol bærer i det minste én eller flere informasjonsbits. Digitale data kan f.eks. bli brukt for å modulere en bærebølge, slik som en amplitude, fase og/eller frekvensskiftsignal som utbrer seg over et ledende medium, eller sendt som elektromagnetiske bølger gjennom et propageringsmedium. Dermed kan de digitale data bli sendt som umodulerte basebåndsdata gjennom en "kablet" kommunikasjonskanal og/eller innenfor forhåndsdefinerte frekvensbånd, forskjellig fra basebånd, ved å modulere en bærebølge. Datamaskinsystemet 1201 kan sende og motta data, innbefattet programkode, gjennom nettverkene 1215 og 1216, nettverkslinken 1214 og kommunikasjonsgrensesnittet 1213. Videre kan nettverkslinken 1214 tilveiebringe en forbindelse gjennom en LAN 1215 til en mobil innretning 1217 slik som en personlig digital assistent (PDA) laptop datamaskin, eller mobiltelefon.
Ulike modifikasjoner og variasjoner av den foreliggende oppfinnelsen er mulig i lys av det ovenfor beskrevne. Det skal derfor forstås at innenfor omfanget av de vedlagte kravene kan oppfinnelsen bli praktisert på en annen måte enn spesifikt beskrevet her.
Claims (16)
1. Berøringsfølsom skjermfjernkontroll (40) for å kontrollere operasjoner i ett eller flere kameraer (21) assosiert med et videokonferanseendepunkt (20) i en videokonferansesamtale mellom et lokalt videokonferanseendepunkt og ett eller flere fjerntliggende video konferanse endepunkt, hvor nevnte lokale videokonferanseendepunkt omfatter: - en codec (26) med midler for å kommunisere med den berøringsfølsomme skjermfjernkontrollen (40), - den berøringsfølsomme skjermfjernkontrollen (40) omfatter et berøringsfølsomt skjermdisplay (41) og en datamaskin (43),
karakterisert vedat datamaskinen (43) er konfigurert til: å motta fra den lokale codec'en (26) i det minste én eller flere endepunkts ID'er som identifiserer endepunktene i videokonferansen; å generere et grafisk brukergrensesnitt (GUI) som i det minste omfatter ett grafisk objekt (52) for hver ID; å fremvise nevnte GUI på det berøringsfølsomme skjermdisplayet (41); å motta berøringsdata fra det berøringsfølsomme skjermdisplayet (41) og identifisere et valgt endepunkt ID; å designere i det minste ett område av GUFen eller i det minste én fingergest som i det minste én kamerakontrollinstruksjon; å motta berøringsdata fra det berøringsfølsomme skjermdisplayet (41) og assosiere mottatte berøringsdata med den i det minste ene kamerakontroll-instruksjonen, og å sende kamerakontrollinstruksjoner og valgt endepunkt ID til den lokale codec'en.
2. Innretning i henhold til krav 1, hvor nevnte grafiske objekt (52) omfatter videostrømmer fra de respektive videokonferanseendepunktene.
3. Innretning i henhold til krav 2, hvor
nevnte codec (26) omfatter en videokonverter enhet (49) konfigurert til å motta strømmer med videokonferansevideo fra de to eller flere endepunktene, prosessering av nevnte strømmer, og utmating av korresponderende sett av videostrømmer med redusert oppløsning og/eller rammerate; og
hvor nevnte datamaskin (43) er konfigurert til å motta nevnte sett med videostrømmer og fremvise nevnte én eller flere av nevnte videostrømmer i nevnte GUI.
4. Innretning i henhold til krav 1, hvor nevnte datamaskin (43) videre er konfigurert til
å generere et separat kontrollområde på GUI, hvor nevnte kontrollområde omfatter et joystickikon,
å designere kamerakontrollinstruksjoner basert på en posisjon og en avstand til et grafisk objekt relativt til en initiell defaultposisjon på det berøringsfølsomme skjermdisplayet (41).
5. Innretning i henhold til krav 1, hvor nevnte datamaskin (43) videre er konfigurert til å designere kamerakontrollinstruksjonene basert på fingergester anvendt over ett av nevnte grafiske objekter.
6. Innretning i henhold til krav 1, hvor nevnte datamaskin (43) videre er konfigurert til å designere en zoom inn og zoom ut kamerakontrollinstruksj on for en pinch inn eller ut gest.
7. Innretning i henhold til krav 1, hvor nevnte datamaskin (43) videre er konfigurert til å designere en retningsbevegelseskamerakontrollinstruksjon for en korresponderende retningsberørings- og å dra gest på det berøringsfølsomme skjermedisplayet (41).
8. Innretning i henhold til krav 1, hvor
nevnte datamaskin (43) eller codec omfatter en ansiktsgjenkjenningsenhet for å lokalisere ansikt til nevnte videokonferansestrømmer eller nevnte videostrømmer; og
hvor nevnte datamaskin (43) videre er konfigurert til å generere kamerakontrollinstruksjoner for å zoome inn på en deltaker identifisert av en bruker via nevnte GUI og berøringsfølsomme skjermdisplay (41), basert på brukerberøringsfølsomme data og nevnte lokaliserte ansikt.
9. Metode for å styre operasjonen av ett eller flere kameraer assosiert med et videokonferanseendepunkt (20) under en videokonferanse mellom et antall av videokonferanseendepunkter, hvor nevnte videokonferanseendepunkter omfatter en codec (26), en monitor (24) og i det minste ett kamera (21) som er i stand til i det minste én av å panorere, tilte eller zoome, hvor nevnte metode omfatter trinnene med å
tilveiebringe en berøringsfølsom skjermfjernkontroll (40) og en kommunikasjonslink mellom nevnte fjernkontroll og lokale codec (26),karakterisert vedat ved nevnte fjernkontroll: å motta fra den lokale codec i det minste én eller flere endepunkts ID'er som identifiserer endepunktene i videokonferansen; å generere et grafisk brukergrensesnitt (GUI) som i det minste omfatter et grafisk objekt for hver endepunkt ID; å fremvise nevnte GUI på et berøringsfølsomt skjermdisplay (41); å motta berøringsdata fra det berøringsfølsomme skjermdisplayet (41) og identifisere et valgt endepunkt ID; å designere i det minste ett område på GUI og/eller i det minste én fingergest som i det minste én kamerakontrollinstruksj on; å motta berøringsdata fra det berøringsfølsomme skjermdisplayet (41) som assosierer mottatte berøringsdata med i det minste én kamerakontrollinstruksj on; å sende kamerakontrollinstruksjoner til den lokale codec'en (26).
10. Metode i henhold til krav 9, hvor nevnte grafiske objekter omfatter videostrømmer fra respektive videokonferanseendepunkter (20).
11. Metode i henhold til krav 10, som videre omfatter: å motta i nevnte lokale codec (26), strømmer med videokonferansevideo fra ett eller flere av nevnte endepunkter (20), prosessere nevnte strømmer, og mate ut et korresponderende sett av videostrømmer med redusert oppløsning og/eller rammerate; og å sende nevnte sett med nevnte videostrømmer til nevnte berøringsfølsomme skjermfjernkontroll (40) og å fremvise videostrømmene i nevnte GUI.
12. Metode i henhold til krav 9, hvor trinnet med å generere et GUI videre omfatter: å generere et separat kontrollområde hvor nevnte kontrollområde omfatter et joystick ikon, å designere kamerakontrollinstruksjoner basert på posisjon og avstand til et grafisk objekt relativt til en initiell defaultposisjon på det berøringsfølsomme skjermdisplayet (41).
13. Metode i henhold til krav 9, hvor nevnte trinn med å designere omfatter å designere kamerakontrollinstruksjoner basert på fingergester anvendt over ett av nevnte grafiske objekter på det berøringsfølsomme skjermdisplayet (41).
14. Metode i henhold til krav 9, hvor nevnte trinn med å designere omfatter å designere en zoom inn eller ut kamerakontrollinstruksj on for en pinch inn eller ut gest.
15. Metode i henhold til krav 9, hvor nevnte trinn ved å designere omfatter å designere en retningsbevegelseskamerakontrollinstruksjon for en korresponderende retningstouch eller dra gest på det berøringsfølsomme skjermdisplayet (41).
16. Metode i henhold til krav 9, som videre omfatter
å lokalisere ansikter i nevnte videokonferansestrømmer og/eller nevnte videostrømmer; og
å generere kamerakontrollinstruksjoner til zoom inn på en deltaker identifisert av en bruker via nevnte GUI og berøringsfølsomme skjermdisplay (41), basert på nevnte brukerinput og nevnte lokaliserte ansikter.
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NO20093142A NO332170B1 (no) | 2009-10-14 | 2009-10-14 | Anordning og fremgangsmate for kamerakontroll |
US12/894,751 US8619112B2 (en) | 2009-10-14 | 2010-09-30 | Device, computer program product and method for providing touch control of a video conference |
CN201080046857.7A CN102648626B (zh) | 2009-10-14 | 2010-10-14 | 用于摄像机控制的设备和方法 |
PCT/NO2010/000363 WO2011046448A1 (en) | 2009-10-14 | 2010-10-14 | Device and method for camera control |
EP10823662.1A EP2489182B1 (en) | 2009-10-14 | 2010-10-14 | Device and method for camera control |
US14/085,441 US9172911B2 (en) | 2009-10-14 | 2013-11-20 | Touch control of a camera at a remote video device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NO20093142A NO332170B1 (no) | 2009-10-14 | 2009-10-14 | Anordning og fremgangsmate for kamerakontroll |
Publications (2)
Publication Number | Publication Date |
---|---|
NO20093142A1 NO20093142A1 (no) | 2011-04-15 |
NO332170B1 true NO332170B1 (no) | 2012-07-16 |
Family
ID=43854521
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
NO20093142A NO332170B1 (no) | 2009-10-14 | 2009-10-14 | Anordning og fremgangsmate for kamerakontroll |
Country Status (5)
Country | Link |
---|---|
US (2) | US8619112B2 (no) |
EP (1) | EP2489182B1 (no) |
CN (1) | CN102648626B (no) |
NO (1) | NO332170B1 (no) |
WO (1) | WO2011046448A1 (no) |
Families Citing this family (184)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101496387B (zh) | 2006-03-06 | 2012-09-05 | 思科技术公司 | 用于移动无线网络中的接入认证的系统和方法 |
US8355041B2 (en) | 2008-02-14 | 2013-01-15 | Cisco Technology, Inc. | Telepresence system for 360 degree video conferencing |
US8797377B2 (en) | 2008-02-14 | 2014-08-05 | Cisco Technology, Inc. | Method and system for videoconference configuration |
US8319819B2 (en) * | 2008-03-26 | 2012-11-27 | Cisco Technology, Inc. | Virtual round-table videoconference |
US8390667B2 (en) | 2008-04-15 | 2013-03-05 | Cisco Technology, Inc. | Pop-up PIP for people not in picture |
US8694658B2 (en) | 2008-09-19 | 2014-04-08 | Cisco Technology, Inc. | System and method for enabling communication sessions in a network environment |
US8487975B2 (en) | 2009-01-27 | 2013-07-16 | Lifesize Communications, Inc. | Conferencing system utilizing a mobile communication device as an interface |
US8659637B2 (en) | 2009-03-09 | 2014-02-25 | Cisco Technology, Inc. | System and method for providing three dimensional video conferencing in a network environment |
US8659639B2 (en) * | 2009-05-29 | 2014-02-25 | Cisco Technology, Inc. | System and method for extending communications between participants in a conferencing environment |
US9082297B2 (en) | 2009-08-11 | 2015-07-14 | Cisco Technology, Inc. | System and method for verifying parameters in an audiovisual environment |
US20110199517A1 (en) * | 2010-02-12 | 2011-08-18 | Honeywell International Inc. | Method of showing video on a touch-sensitive display |
US20110202603A1 (en) * | 2010-02-12 | 2011-08-18 | Nokia Corporation | Method and apparatus for providing object based media mixing |
US9122320B1 (en) * | 2010-02-16 | 2015-09-01 | VisionQuest Imaging, Inc. | Methods and apparatus for user selectable digital mirror |
US9225916B2 (en) | 2010-03-18 | 2015-12-29 | Cisco Technology, Inc. | System and method for enhancing video images in a conferencing environment |
US9313452B2 (en) | 2010-05-17 | 2016-04-12 | Cisco Technology, Inc. | System and method for providing retracting optics in a video conferencing environment |
US8558868B2 (en) * | 2010-07-01 | 2013-10-15 | Cisco Technology, Inc. | Conference participant visualization |
JP5063749B2 (ja) * | 2010-07-12 | 2012-10-31 | キヤノン株式会社 | 撮影制御システム、撮像装置の制御装置及びその制御方法、並びにプログラム |
US8896655B2 (en) | 2010-08-31 | 2014-11-25 | Cisco Technology, Inc. | System and method for providing depth adaptive video conferencing |
US8599934B2 (en) | 2010-09-08 | 2013-12-03 | Cisco Technology, Inc. | System and method for skip coding during video conferencing in a network environment |
US8599865B2 (en) | 2010-10-26 | 2013-12-03 | Cisco Technology, Inc. | System and method for provisioning flows in a mobile network environment |
US8699457B2 (en) | 2010-11-03 | 2014-04-15 | Cisco Technology, Inc. | System and method for managing flows in a mobile network environment |
US9143725B2 (en) | 2010-11-15 | 2015-09-22 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US8730297B2 (en) * | 2010-11-15 | 2014-05-20 | Cisco Technology, Inc. | System and method for providing camera functions in a video environment |
US8902244B2 (en) | 2010-11-15 | 2014-12-02 | Cisco Technology, Inc. | System and method for providing enhanced graphics in a video environment |
US9338394B2 (en) | 2010-11-15 | 2016-05-10 | Cisco Technology, Inc. | System and method for providing enhanced audio in a video environment |
US8542264B2 (en) | 2010-11-18 | 2013-09-24 | Cisco Technology, Inc. | System and method for managing optics in a video environment |
US8723914B2 (en) | 2010-11-19 | 2014-05-13 | Cisco Technology, Inc. | System and method for providing enhanced video processing in a network environment |
US9111138B2 (en) | 2010-11-30 | 2015-08-18 | Cisco Technology, Inc. | System and method for gesture interface control |
USD682864S1 (en) | 2010-12-16 | 2013-05-21 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682854S1 (en) | 2010-12-16 | 2013-05-21 | Cisco Technology, Inc. | Display screen for graphical user interface |
USD678320S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678307S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682294S1 (en) | 2010-12-16 | 2013-05-14 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD682293S1 (en) | 2010-12-16 | 2013-05-14 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678308S1 (en) | 2010-12-16 | 2013-03-19 | Cisco Technology, Inc. | Display screen with graphical user interface |
USD678894S1 (en) | 2010-12-16 | 2013-03-26 | Cisco Technology, Inc. | Display screen with graphical user interface |
US20120192078A1 (en) * | 2011-01-26 | 2012-07-26 | International Business Machines | Method and system of mobile virtual desktop and virtual trackball therefor |
US20120200659A1 (en) * | 2011-02-03 | 2012-08-09 | Mock Wayne E | Displaying Unseen Participants in a Videoconference |
US8692862B2 (en) | 2011-02-28 | 2014-04-08 | Cisco Technology, Inc. | System and method for selection of video data in a video conference environment |
CN103365589B (zh) * | 2011-04-05 | 2018-03-30 | 霍尼韦尔国际公司 | 在触敏显示器上示出视频的方法 |
US8670019B2 (en) | 2011-04-28 | 2014-03-11 | Cisco Technology, Inc. | System and method for providing enhanced eye gaze in a video conferencing environment |
US8786631B1 (en) | 2011-04-30 | 2014-07-22 | Cisco Technology, Inc. | System and method for transferring transparency information in a video environment |
US8368737B2 (en) * | 2011-05-12 | 2013-02-05 | Tely Labs, Inc. | Smart remote control devices for controlling video call devices |
US8934026B2 (en) | 2011-05-12 | 2015-01-13 | Cisco Technology, Inc. | System and method for video coding in a dynamic environment |
US9379911B2 (en) * | 2011-05-20 | 2016-06-28 | StarLeaf Ltd. | Message storage device and a moving image message processor |
JP5909889B2 (ja) * | 2011-06-17 | 2016-04-27 | ソニー株式会社 | 撮像制御装置、及び、撮像制御方法 |
US9007421B2 (en) * | 2011-06-21 | 2015-04-14 | Mitel Networks Corporation | Conference call user interface and methods thereof |
US8605873B2 (en) | 2011-06-28 | 2013-12-10 | Lifesize Communications, Inc. | Accessing settings of a videoconference using touch-based gestures |
US9204094B2 (en) | 2011-06-28 | 2015-12-01 | Lifesize Communications, Inc. | Adjusting volume of a videoconference using touch-based gestures |
US8605872B2 (en) | 2011-06-28 | 2013-12-10 | Lifesize Communications, Inc. | Muting a videoconference using touch-based gestures |
US9729780B2 (en) | 2011-07-08 | 2017-08-08 | Visual Retailing Holding B.V. | Imaging apparatus and controller for photographing products |
US8713482B2 (en) | 2011-07-28 | 2014-04-29 | National Instruments Corporation | Gestures for presentation of different views of a system diagram |
US8782525B2 (en) | 2011-07-28 | 2014-07-15 | National Insturments Corporation | Displaying physical signal routing in a diagram of a system |
US9047007B2 (en) | 2011-07-28 | 2015-06-02 | National Instruments Corporation | Semantic zoom within a diagram of a system |
US8666847B1 (en) * | 2011-08-01 | 2014-03-04 | Intuit Inc. | Methods systems and computer program products for monitoring inventory and prices |
US9256361B2 (en) * | 2011-08-03 | 2016-02-09 | Ebay Inc. | Control of search results with multipoint pinch gestures |
EP2555097A1 (de) * | 2011-08-05 | 2013-02-06 | prisma - Gesellschaft für Projektmanagement & Informationssysteme mbH | Methode und Vorrichtung zur Bestimmung eines Bildausschnitts und Auslösen einer Bilderfassung mittels einer einzigen berührungsbasierten Geste |
CN102307278A (zh) * | 2011-08-25 | 2012-01-04 | 天津九安医疗电子股份有限公司 | 一种婴儿监护系统及该监护系统的控制方法 |
JP2013084029A (ja) * | 2011-10-06 | 2013-05-09 | Sony Corp | 表示制御装置 |
KR101850302B1 (ko) * | 2011-10-14 | 2018-04-20 | 삼성전자주식회사 | 사용자 단말 장치 및 그 렌더링 장치 제어 방법 |
US9535595B2 (en) | 2011-10-28 | 2017-01-03 | Qualcomm Incorporated | Accessed location of user interface |
US8947493B2 (en) | 2011-11-16 | 2015-02-03 | Cisco Technology, Inc. | System and method for alerting a participant in a video conference |
KR101322465B1 (ko) * | 2011-11-17 | 2013-10-28 | 삼성전자주식회사 | 셀프 카메라 촬영을 위한 방법 및 장치 |
US9363441B2 (en) | 2011-12-06 | 2016-06-07 | Musco Corporation | Apparatus, system and method for tracking subject with still or video camera |
US20130155178A1 (en) * | 2011-12-16 | 2013-06-20 | Wayne E. Mock | Controlling a Camera Using a Touch Interface |
US8885057B2 (en) * | 2011-12-16 | 2014-11-11 | Logitech Europe S.A. | Performing camera control using a remote control device |
US8682087B2 (en) | 2011-12-19 | 2014-03-25 | Cisco Technology, Inc. | System and method for depth-guided image filtering in a video conference environment |
JP5927900B2 (ja) * | 2011-12-22 | 2016-06-01 | 株式会社リコー | 電子機器 |
US9223534B1 (en) | 2011-12-30 | 2015-12-29 | hopTo Inc. | Client side detection of motion vectors for cross-platform display |
US9367931B1 (en) | 2011-12-30 | 2016-06-14 | hopTo Inc. | Motion vectors for cross-platform display |
US9218107B1 (en) | 2011-12-30 | 2015-12-22 | hopTo Inc. | Cloud-based text management for cross-platform display |
US9454617B1 (en) | 2011-12-30 | 2016-09-27 | hopTo Inc. | Client rendering |
CN102612205B (zh) | 2011-12-31 | 2014-12-31 | 华为技术有限公司 | 一种控制可视光源的方法、终端及视频会议系统 |
US20160098169A1 (en) * | 2012-03-15 | 2016-04-07 | Ronaldo Luiz Lisboa Herdy | Apparatus, system, and method for providing social content |
EP3122034B1 (en) * | 2012-03-29 | 2020-03-18 | Axis AB | Method for calibrating a camera |
EP2839366A4 (en) * | 2012-04-18 | 2016-05-11 | Nokia Technologies Oy | DISPLAY DEVICE WITH HAPTIC RETURN |
US8866874B2 (en) * | 2012-04-20 | 2014-10-21 | Logitech Europe S.A. | Adjusting a camera whose video is not currently displayed in a videoconferencing system |
US9423870B2 (en) * | 2012-05-08 | 2016-08-23 | Google Inc. | Input determination method |
US9106612B1 (en) | 2012-05-18 | 2015-08-11 | hopTo Inc. | Decomposition and recomposition for cross-platform display |
US9124562B1 (en) | 2012-05-18 | 2015-09-01 | hopTo Inc. | Cloud-based decomposition and recomposition for cross-platform display |
TW201406143A (zh) * | 2012-07-19 | 2014-02-01 | Hon Hai Prec Ind Co Ltd | 網路攝錄機控制系統及方法 |
JP2014038560A (ja) * | 2012-08-20 | 2014-02-27 | Canon Inc | 情報処理装置、情報処理方法及びプログラム |
DE102012217151A1 (de) * | 2012-09-24 | 2014-03-27 | Robert Bosch Gmbh | Clientvorrichtung, Überwachungssystem, Verfahren zum Anzeigen von Bildern auf einem Bildschirm sowie Computerprogramm |
DE102012217148A1 (de) * | 2012-09-24 | 2014-03-27 | Robert Bosch Gmbh | Clienteinrichtung zur Darstellung von Kamerabildern einer steuerbaren Kamera, Verfahren, Computerprogramm sowie Überwachungssystem mit der Clienteinrichtung |
CN103677613B (zh) * | 2012-09-25 | 2018-03-06 | 华为技术有限公司 | 一种控制云镜的方法、移动终端、前端设备和系统 |
CN104469255A (zh) | 2013-09-16 | 2015-03-25 | 杜比实验室特许公司 | 改进的音频或视频会议 |
US9035995B2 (en) * | 2012-10-23 | 2015-05-19 | Electronics And Telecommunications Research Institute | Method and apparatus for widening viewing angle in video conferencing system |
KR101990036B1 (ko) | 2012-10-31 | 2019-06-17 | 엘지전자 주식회사 | 이동 단말기 및 그것의 제어 방법 |
US9152304B2 (en) * | 2012-12-31 | 2015-10-06 | General Electric Company | Systems and methods for virtual control of a non-destructive testing system |
US9274606B2 (en) | 2013-03-14 | 2016-03-01 | Microsoft Technology Licensing, Llc | NUI video conference controls |
US9430134B1 (en) | 2013-03-15 | 2016-08-30 | hopTo Inc. | Using split windows for cross-platform document views |
US9292157B1 (en) | 2013-03-15 | 2016-03-22 | hopTo Inc. | Cloud-based usage of split windows for cross-platform document views |
EP2966558B1 (en) * | 2013-04-07 | 2019-01-09 | Guangzhou Shirui Electronics Co., Ltd. | Multi-channel touch control method, device and computer storage media for integration machine |
CN103324285A (zh) * | 2013-05-24 | 2013-09-25 | 深圳Tcl新技术有限公司 | 基于手势系统的摄像头调整方法及终端 |
CN103336534A (zh) * | 2013-06-07 | 2013-10-02 | 浙江宇视科技有限公司 | 一种在监控终端的触摸屏上进行云台摄像机控制的方法 |
US20150007238A1 (en) * | 2013-06-26 | 2015-01-01 | Delaware General Corporation | Systems and mehtods for content streaming to event spectators |
CN108063910B (zh) * | 2013-08-01 | 2021-03-19 | 波利康公司 | 用于视频会议系统中的摄像机底座及其方法 |
CN103716528A (zh) * | 2013-08-30 | 2014-04-09 | 程治永 | 一种基于触控终端的ptz摄像机远程控制的系统和方法 |
KR102089469B1 (ko) * | 2013-09-05 | 2020-03-16 | 현대모비스 주식회사 | Avn 시스템의 원격 제어 장치 및 방법 |
US10540073B2 (en) * | 2013-09-24 | 2020-01-21 | Lg Electronics Inc. | Mobile terminal and method for controlling camera-mounted external device |
JP6465029B2 (ja) * | 2013-10-07 | 2019-02-06 | ソニー株式会社 | 情報処理装置、撮像装置、撮像システム、情報処理装置の制御方法、撮像装置の制御方法およびプログラム |
CN104639865A (zh) * | 2013-11-07 | 2015-05-20 | 中兴通讯股份有限公司 | 视频会议体感控制方法、终端及系统 |
CN103957371B (zh) * | 2013-11-29 | 2017-04-19 | 中国航空无线电电子研究所 | 一种智能可视化的视频记录控制装置 |
US9386275B2 (en) | 2014-01-06 | 2016-07-05 | Intel IP Corporation | Interactive video conferencing |
CN106576153A (zh) * | 2014-01-10 | 2017-04-19 | 旋转型机器人有限公司 | 用于在视频会议操作期间控制机器人支架的系统及方法 |
US9215411B2 (en) * | 2014-02-03 | 2015-12-15 | Google Inc. | Enhancing video conferences |
CN103902182B (zh) * | 2014-03-10 | 2017-07-14 | 小米科技有限责任公司 | 拍摄装置控制方法、装置及终端 |
US9626084B2 (en) * | 2014-03-21 | 2017-04-18 | Amazon Technologies, Inc. | Object tracking in zoomed video |
US20150310767A1 (en) * | 2014-04-24 | 2015-10-29 | Omnivision Technologies, Inc. | Wireless Typoscope |
AT515816B1 (de) * | 2014-05-16 | 2017-10-15 | Frequentis Ag | Vorrichtung zur Steuerung einer Kamera |
US9170707B1 (en) | 2014-09-30 | 2015-10-27 | Google Inc. | Method and system for generating a smart time-lapse video clip |
US9501915B1 (en) | 2014-07-07 | 2016-11-22 | Google Inc. | Systems and methods for analyzing a video stream |
US9213903B1 (en) * | 2014-07-07 | 2015-12-15 | Google Inc. | Method and system for cluster-based video monitoring and event categorization |
US10140827B2 (en) | 2014-07-07 | 2018-11-27 | Google Llc | Method and system for processing motion event notifications |
US10127783B2 (en) | 2014-07-07 | 2018-11-13 | Google Llc | Method and device for processing motion events |
US9858470B2 (en) * | 2014-07-18 | 2018-01-02 | Htc Corporation | Method for performing a face tracking function and an electric device having the same |
TWI545508B (zh) * | 2014-07-18 | 2016-08-11 | 宏達國際電子股份有限公司 | 用於執行臉部追蹤功能的方法及其電子裝置 |
CN105472307A (zh) * | 2014-08-20 | 2016-04-06 | 中兴通讯股份有限公司 | 视频会议控制方法和系统 |
CN106605196B (zh) | 2014-09-02 | 2018-11-09 | 苹果公司 | 远程相机用户界面 |
CN107005675B (zh) * | 2014-09-05 | 2019-08-06 | 富士胶片株式会社 | 动态图像编辑装置、动态图像编辑方法及存储介质 |
JP6205068B2 (ja) * | 2014-09-05 | 2017-09-27 | 富士フイルム株式会社 | 撮像装置の操作装置、操作方法、及びプログラム |
JP6205067B2 (ja) * | 2014-09-05 | 2017-09-27 | 富士フイルム株式会社 | パン・チルト操作装置、カメラシステム、パン・チルト操作用プログラム及びパン・チルト操作方法 |
US9516220B2 (en) * | 2014-10-02 | 2016-12-06 | Intel Corporation | Interactive video conferencing |
US9961265B2 (en) * | 2014-10-06 | 2018-05-01 | Shafiq Ahmad Chaudhry | Method for capturing and storing historic audiovisual data via a digital mirror |
USD782495S1 (en) | 2014-10-07 | 2017-03-28 | Google Inc. | Display screen or portion thereof with graphical user interface |
CN105635785A (zh) | 2014-10-27 | 2016-06-01 | 三亚中兴软件有限责任公司 | 一种多画面中子画面的调整控制方法、装置及多点控制单元 |
US10021346B2 (en) | 2014-12-05 | 2018-07-10 | Intel IP Corporation | Interactive video conferencing |
CN104580898A (zh) * | 2014-12-26 | 2015-04-29 | 魅族科技(中国)有限公司 | 成像装置的控制方法和成像装置 |
JP6229816B2 (ja) * | 2015-03-27 | 2017-11-15 | 日本電気株式会社 | モバイル監視装置、プログラム、及び制御方法 |
US9979890B2 (en) | 2015-04-23 | 2018-05-22 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
CN104793887B (zh) * | 2015-04-29 | 2017-08-18 | 广东欧珀移动通信有限公司 | 移动终端的双摄像头控制方法及装置 |
US10635290B2 (en) | 2015-06-11 | 2020-04-28 | Karma Automotive Llc | Virtual joy stick controls for adjustable components in vehicles |
US9361011B1 (en) | 2015-06-14 | 2016-06-07 | Google Inc. | Methods and systems for presenting multiple live video feeds in a user interface |
CN105005441B (zh) * | 2015-06-18 | 2018-11-06 | 美国掌赢信息科技有限公司 | 一种即时视频的显示方法和电子设备 |
CN105892846A (zh) * | 2015-12-21 | 2016-08-24 | 乐视致新电子科技(天津)有限公司 | 一种在全屏播放模式下防误触控的方法和装置 |
CN105718887A (zh) * | 2016-01-21 | 2016-06-29 | 惠州Tcl移动通信有限公司 | 基于移动终端摄像头实现动态捕捉人脸摄像的方法及系统 |
US10516703B2 (en) | 2016-03-07 | 2019-12-24 | Precision Biometrics, Inc. | Monitoring and controlling the status of a communication session |
JP6323729B2 (ja) * | 2016-04-25 | 2018-05-16 | パナソニックIpマネジメント株式会社 | 画像処理装置及びこれを備えた撮像システムならびにキャリブレーション方法 |
CN105847698A (zh) * | 2016-05-17 | 2016-08-10 | 惠州Tcl移动通信有限公司 | 一种视频通讯中手动控制对方终端取景的实现方法及系统 |
CN105959822B (zh) * | 2016-05-20 | 2019-05-24 | 深圳市大拿科技有限公司 | 智能电视和网络摄像机联动实现聊天/会议的方法及系统 |
US10506237B1 (en) | 2016-05-27 | 2019-12-10 | Google Llc | Methods and devices for dynamic adaptation of encoding bitrate for video streaming |
US9854156B1 (en) | 2016-06-12 | 2017-12-26 | Apple Inc. | User interface for camera effects |
KR102575254B1 (ko) * | 2016-06-29 | 2023-09-06 | 한화비전 주식회사 | 모니터링 장치 및 시스템 |
US10192415B2 (en) | 2016-07-11 | 2019-01-29 | Google Llc | Methods and systems for providing intelligent alerts for events |
US10380429B2 (en) | 2016-07-11 | 2019-08-13 | Google Llc | Methods and systems for person detection in a video feed |
US10957171B2 (en) | 2016-07-11 | 2021-03-23 | Google Llc | Methods and systems for providing event alerts |
JP6701018B2 (ja) * | 2016-07-19 | 2020-05-27 | キヤノン株式会社 | 情報処理装置、情報処理方法及びプログラム |
US9979880B2 (en) * | 2016-09-28 | 2018-05-22 | Facebook, Inc. | Systems and methods for gesture-based control of equipment in video communication |
CN107979737A (zh) * | 2016-10-24 | 2018-05-01 | 南京理工大学 | 一种企业网可视会议系统 |
KR102236339B1 (ko) | 2016-10-24 | 2021-04-02 | 에스지 디제이아이 테크놀러지 코., 엘티디 | 이미징 기기로 캡처한 이미지를 제어하기 위한 시스템 및 방법 |
US10410086B2 (en) | 2017-05-30 | 2019-09-10 | Google Llc | Systems and methods of person recognition in video streams |
US11783010B2 (en) | 2017-05-30 | 2023-10-10 | Google Llc | Systems and methods of person recognition in video streams |
US11134227B2 (en) | 2017-09-20 | 2021-09-28 | Google Llc | Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment |
US10664688B2 (en) | 2017-09-20 | 2020-05-26 | Google Llc | Systems and methods of detecting and responding to a visitor to a smart home environment |
CN108881136B (zh) * | 2017-09-26 | 2019-08-09 | 视联动力信息技术股份有限公司 | 一种基于视联网的图像处理方法和装置 |
US10440327B1 (en) * | 2018-08-21 | 2019-10-08 | Solaborate LLC | Methods and systems for video-conferencing using a native operating system and software development environment |
DK201870623A1 (en) | 2018-09-11 | 2020-04-15 | Apple Inc. | USER INTERFACES FOR SIMULATED DEPTH EFFECTS |
US10645294B1 (en) | 2019-05-06 | 2020-05-05 | Apple Inc. | User interfaces for capturing and managing visual media |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
CN109302578B (zh) * | 2018-10-23 | 2021-03-26 | 视联动力信息技术股份有限公司 | 一种登录会议终端以及视频会议的方法和系统 |
CN109451266B (zh) * | 2018-12-12 | 2020-11-03 | 天津微迪加科技有限公司 | 一种远程控制方法及装置 |
US10942633B2 (en) | 2018-12-20 | 2021-03-09 | Microsoft Technology Licensing, Llc | Interactive viewing and editing system |
US10754526B2 (en) | 2018-12-20 | 2020-08-25 | Microsoft Technology Licensing, Llc | Interactive viewing system |
CN109741249A (zh) | 2018-12-29 | 2019-05-10 | 联想(北京)有限公司 | 一种数据处理方法及装置 |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
CN111988555B (zh) * | 2019-05-21 | 2022-05-24 | 斑马智行网络(香港)有限公司 | 一种数据处理方法、装置、设备和机器可读介质 |
CN110445980A (zh) * | 2019-07-04 | 2019-11-12 | 深圳市大拿科技有限公司 | 一种手机远程摄像方法及系统 |
CN112307848B (zh) * | 2019-08-01 | 2024-04-30 | 惠普发展公司,有限责任合伙企业 | 检测视频会议中的欺骗说话者 |
CN110611788A (zh) * | 2019-09-26 | 2019-12-24 | 上海赛连信息科技有限公司 | 手势控制视频会议终端的方法和装置 |
US11893795B2 (en) | 2019-12-09 | 2024-02-06 | Google Llc | Interacting with visitors of a connected home environment |
WO2022040734A1 (en) * | 2020-08-24 | 2022-03-03 | Axiiio Pty Ltd | "remote camera operation" |
USD984464S1 (en) * | 2020-12-22 | 2023-04-25 | Google Llc | Display screen or portion thereof with graphical user interface |
TW202236839A (zh) * | 2021-02-05 | 2022-09-16 | 美商派樂騰健康科技有限公司 | 媒體中心系統及方法 |
TW202301867A (zh) * | 2021-06-25 | 2023-01-01 | 陳立新 | 多人控制的遠距教學會議方法 |
CN113905204B (zh) * | 2021-09-07 | 2023-02-14 | 深圳壹秘科技有限公司 | 图像显示方法、装置、设备及存储介质 |
US11842043B1 (en) | 2022-08-31 | 2023-12-12 | Dell Products L.P. | Information handling system collaborative touchpad and multizone touch rejection |
US11983399B2 (en) | 2022-08-31 | 2024-05-14 | Dell Products L.P. | Information handling system collaborative touchpad gesture activation and management |
US11893960B1 (en) | 2022-08-31 | 2024-02-06 | Dell Products L.P. | Information handling system collaborative touchpad display brightness management |
US11977733B2 (en) | 2022-08-31 | 2024-05-07 | Dell Products L.P. | Information handling system collaborative touchpad dynamic scaling |
US11899923B1 (en) | 2022-08-31 | 2024-02-13 | Dell Products L.P. | Information handling system collaborative touchpad cursor over control icons |
US12032759B2 (en) | 2022-08-31 | 2024-07-09 | Dell Products L.P. | Information handling system collaborative touchpad display hardware device coordination |
CN116582638B (zh) * | 2023-07-11 | 2023-11-07 | 深圳星网信通科技股份有限公司 | 会议终端的管理方法、设备及计算机可读存储介质 |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4992866A (en) * | 1989-06-29 | 1991-02-12 | Morgan Jack B | Camera selection and positioning system and method |
JP3050348B2 (ja) * | 1992-04-17 | 2000-06-12 | インターナショナル・ビジネス・マシーンズ・コーポレイション | プロセス制御システムにおけるユーザ制御のための方法と装置 |
US5745161A (en) * | 1993-08-30 | 1998-04-28 | Canon Kabushiki Kaisha | Video conference system |
WO1995011566A1 (en) * | 1993-10-20 | 1995-04-27 | Videoconferencing Systems, Inc. | Adaptive videoconferencing system |
JP3745000B2 (ja) * | 1995-02-03 | 2006-02-15 | キヤノン株式会社 | 画像通信装置及びその制御方法 |
JPH10200807A (ja) * | 1997-01-14 | 1998-07-31 | Hitachi Ltd | グラフィカルユーザインタフェースを用いたカメラ制御方法 |
US8479122B2 (en) * | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US6992702B1 (en) * | 1999-09-07 | 2006-01-31 | Fuji Xerox Co., Ltd | System for controlling video and motion picture cameras |
US6515687B1 (en) * | 2000-05-25 | 2003-02-04 | International Business Machines Corporation | Virtual joystick graphical user interface control with one and two dimensional operation |
KR20050026661A (ko) * | 2003-09-09 | 2005-03-15 | 엘지전자 주식회사 | 디지탈 동영상 해상도 감축을 위한 움직임 벡터 설정방법 |
US7865834B1 (en) * | 2004-06-25 | 2011-01-04 | Apple Inc. | Multi-way video conferencing user interface |
EP2000894B1 (en) | 2004-07-30 | 2016-10-19 | Apple Inc. | Mode-based graphical user interfaces for touch sensitive input devices |
DE102004040023B4 (de) * | 2004-08-18 | 2017-12-28 | Intel Deutschland Gmbh | Verfahren, Vorrichtung, Anordnung, Computerlesbares Speichermedium und Programm-Element zum nachgeführten Anzeigen eines menschlichen Gesichts |
JP2008527542A (ja) * | 2005-01-06 | 2008-07-24 | シュルマン,アラン | ナビゲーション及びインスペクションシステム |
US20070040900A1 (en) * | 2005-07-13 | 2007-02-22 | Polycom, Inc. | System and Method for Configuring Routing of Video from Multiple Sources to Multiple Destinations of Videoconference Using Software Video Switch |
US8872879B2 (en) * | 2006-01-26 | 2014-10-28 | Polycom, Inc. | System and method for controlling videoconference with touch screen interface |
US8970503B2 (en) * | 2007-01-05 | 2015-03-03 | Apple Inc. | Gestures for devices having one or more touch sensitive surfaces |
NO20071401L (no) * | 2007-03-16 | 2008-09-17 | Tandberg Telecom As | System og arrangement for naturtro videokommunikasjon |
JP4804398B2 (ja) * | 2007-03-30 | 2011-11-02 | 三洋電機株式会社 | 撮像装置及び撮影方法 |
US8358327B2 (en) * | 2007-07-19 | 2013-01-22 | Trinity Video Communications, Inc. | CODEC-driven touch screen video conferencing control system |
WO2008150351A1 (en) | 2007-05-29 | 2008-12-11 | Trinity Video Communications, Inc. | Codec-driven touch screen video conferencing control system |
NO327899B1 (no) * | 2007-07-13 | 2009-10-19 | Tandberg Telecom As | Fremgangsmate og system for automatisk kamerakontroll |
-
2009
- 2009-10-14 NO NO20093142A patent/NO332170B1/no not_active IP Right Cessation
-
2010
- 2010-09-30 US US12/894,751 patent/US8619112B2/en active Active
- 2010-10-14 WO PCT/NO2010/000363 patent/WO2011046448A1/en active Application Filing
- 2010-10-14 EP EP10823662.1A patent/EP2489182B1/en active Active
- 2010-10-14 CN CN201080046857.7A patent/CN102648626B/zh not_active Expired - Fee Related
-
2013
- 2013-11-20 US US14/085,441 patent/US9172911B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
EP2489182B1 (en) | 2017-06-21 |
US9172911B2 (en) | 2015-10-27 |
WO2011046448A1 (en) | 2011-04-21 |
EP2489182A4 (en) | 2013-10-09 |
CN102648626A (zh) | 2012-08-22 |
NO20093142A1 (no) | 2011-04-15 |
US8619112B2 (en) | 2013-12-31 |
CN102648626B (zh) | 2016-01-13 |
US20140146125A1 (en) | 2014-05-29 |
EP2489182A1 (en) | 2012-08-22 |
US20110085016A1 (en) | 2011-04-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
NO332170B1 (no) | Anordning og fremgangsmate for kamerakontroll | |
JP4553909B2 (ja) | タッチスクリーンインターフェースによりビデオ会議を制御するためのシステム及び方法 | |
US8593502B2 (en) | Controlling videoconference with touch screen interface | |
EP2446619B1 (en) | Method and device for modifying a composite video signal layout | |
US9204094B2 (en) | Adjusting volume of a videoconference using touch-based gestures | |
US8605873B2 (en) | Accessing settings of a videoconference using touch-based gestures | |
US20140111600A1 (en) | Automatic Positioning of Videoconference Camera to Presenter at Presentation Device | |
US20130002799A1 (en) | Controlling a Videoconference Based on Context of Touch-Based Gestures | |
US8605872B2 (en) | Muting a videoconference using touch-based gestures | |
JP2013258679A (ja) | ビデオ会議端末装置、ビデオ会議システム、映像の歪み補正方法および映像の歪み補正プログラム | |
JP6885416B2 (ja) | 電子黒板、電子黒板の画像処理方法、及びプログラム | |
CN108255454B (zh) | 一种拼接处理器和拼接处理器的可视化交互方法 | |
WO1994007327A1 (en) | Method and apparatus for on-screen camera control in video-conference equipment | |
US20130155178A1 (en) | Controlling a Camera Using a Touch Interface | |
US20160301729A1 (en) | Methods and systems for presenting video in a context-sensitive manner | |
WO2016165589A1 (zh) | 图像显示方法及装置 | |
JP6589621B2 (ja) | 表示装置、カメラ位置制御方法、およびプログラム | |
CN104796655B (zh) | Pc桌面显示之上的协同视频电话叠加 | |
JP4766696B2 (ja) | インタフェース装置およびインタフェースシステム | |
WO2024003099A1 (en) | Video processing method and system | |
NO20111075A1 (no) | Metode og endepunkt for a endre komposisjonen av et sammensatt videosignal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
MM1K | Lapsed by not paying the annual fees |