KR102089439B1 - 비디오 회의 환경을 위한 비디오 디스플레이 수정 기법 - Google Patents

비디오 회의 환경을 위한 비디오 디스플레이 수정 기법 Download PDF

Info

Publication number
KR102089439B1
KR102089439B1 KR1020157000848A KR20157000848A KR102089439B1 KR 102089439 B1 KR102089439 B1 KR 102089439B1 KR 1020157000848 A KR1020157000848 A KR 1020157000848A KR 20157000848 A KR20157000848 A KR 20157000848A KR 102089439 B1 KR102089439 B1 KR 102089439B1
Authority
KR
South Korea
Prior art keywords
video
zoom operation
scene
display
display space
Prior art date
Application number
KR1020157000848A
Other languages
English (en)
Other versions
KR20150036060A (ko
Inventor
앵키트 탠던
로버트 아이크너
로스 커틀러
센실 벨라유삼
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20150036060A publication Critical patent/KR20150036060A/ko
Application granted granted Critical
Publication of KR102089439B1 publication Critical patent/KR102089439B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/152Multipoint control units therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

본 명세서에는 비디오 회의 환경을 가능하게 하기 위한 시스템, 방법 및 소프트웨어가 제공되었다. 적어도 하나의 구현에서, 장면이 캡처된 비디오가 수신된다. 비디오의 디스플레이에 대한 수정은, 다른 장면 내의 다른 객체와 연관된 다른 디스플레이 공간의 지분에 대한 해당 장면 내의 객체와 연관된 디스플레이 공간의 지분에 적어도 부분적으로 기초하여 식별된다. 그 다음 비디오의 디스플레이에 대한 수정이 개시된다. 다른 구현에서, 수정은 상호작용 그래픽을 통해 표시되는 타겟 지분에도 기초할 수 있다.

Description

비디오 회의 환경을 위한 비디오 디스플레이 수정 기법{VIDEO DISPLAY MODIFICATION FOR VIDEO CONFERENCING ENVIRONMENTS}
비디오 회의는 비디오의 교환을 통해서 통신하기 위한 둘 이상의 참가자들의 상호접속을 포함한다. 확립 및 관리하기에 쉬운 비디오 회의를 가능하게 하는 광범위한 회의 애플리케이션들이 개발되었다. 참가자들은 사전계획된 회의에 참여할 수 있을 뿐 아니라 즉흥적인 회의를 개시할 수도 있다. 대다수의 회의 애플리케이션들은 참가자들로 하여금 전화번호, 이메일 주소, 서비스 핸들뿐 아니라 다수의 다른 적절한 메커니즘을 이용하여 서로 접속할 수 있게 한다.
비디오 회의의 실현가능성이 증가함에 따라, 비디오 회의가 전달될 수 있는 방식들과 환경들도 증가하였다. 예를 들어, 회의 참가자들은 종래의 데스크톱 또는 랩탑 컴퓨터뿐 아니라 태블릿, 모바일폰, 게임 시스템, 전용 회의 시스템, 또는 임의의 다른 적절한 통신 디바이스를 이용하여 비디오 세션에 연결할 수 있다. 중앙 관리 아키텍처 및 피어-투-피어 아키텍처를 포함하는 서로 다른 아키텍처들이 비디오 회의 솔루션을 전달하는 데에 사용될 수 있다.
다수의 비디오 회의 솔루션이 애플리케이션 내에 배열된 디스플레이 윈도우 내에 각 참가자의 비디오를 디스플레이한다. 각각의 디스플레이 윈도우 내에 비디오를 프리젠테이션하는 것은, 소스에서 사용되는 캡처 해상도, 캡처된 비디오의 전송에 이용가능한 데이터 레이트 및 프리젠테이션 디바이스 상에서 이용가능한 디스플레이 해상도를 포함하는 다수의 요인에 의존하여 상당히 달라질 수 있다. 그외의 요인은 참가자에 상응하는 객체가 차지하는 디스플레이 윈도우들에 의해 형성되는 디스플레이 공간의 상대적인 비율을 포함한다.
본 명세서에는 비디오 회의 환경을 용이하게 하기 위한 시스템, 방법 및 소프트웨어가 제공되었다. 적어도 하나의 구현에서, 장면이 캡처된 비디오가 수신된다. 비디오의 디스플레이에 대한 수정은, 다른 장면 내의 다른 객체와 연관된 다른 디스플레이 공간의 지분(share)에 대한 해당 장면 내의 객체와 연관된 디스플레이 공간의 지분에 적어도 부분적으로 기초하여 식별된다. 그 다음 비디오의 디스플레이에 대한 수정이 개시된다. 다른 구현에서, 수정은 상호작용 그래픽을 통해 표시되는 타겟 지분(target share)에도 기초할 수 있다.
본 개요는 아래의 기술적 설명에서 추가로 기술되는 개념들의 선택을 단순화된 형태로 소개하고자 제공되었다. 본 개요가 청구된 청구사항의 중요 특성들 또는 기본 특성들을 식별하고자 하는 것은 아니며, 청구된 청구사항의 범주를 제한하고자 하는 것 또한 아님이 이해되어야만 한다.
본 발명의 다수의 측면이 아래의 도면들을 참조하여 더욱 잘 이해될 수 있다. 몇몇 구현이 이러한 도면들에 관련되어 기술되었지만, 본 발명은 본 명세서에 개시된 구현들로 한정되지 않는다. 반대로, 본 발명은 모든 대안들, 수정사항들 및 등가물들을 커버한다.
도 1은 일 구현에서의 비디오 회의 시나리오를 도시한다.
도 2는 일 구현에서의 비디오 수정 프로세스를 도시한다.
도 3은 일 구현에서의 컴퓨팅 시스템을 도시한다.
도 4는 일 구현에서의 비디오 회의 아키텍처를 도시한다.
도 5(a)는 일 구현의 비디오 회의 환경 내에서 디스플레이를 위해 캡처된 비디오를 도시한다.
도 5(b)는 일 구현의 비디오 회의 환경 내에서 디스플레이를 위해 캡처되고 타겟 지분에 기초하여 수정된 비디오를 도시한다.
도 6은 일 구현에서 타겟 지분에 기초하여 수정된 비디오를 갖는 비디오 회의 환경의 두 사례를 도시한다.
도 7은 일 구현에서 타겟 지분에 기초하여 수정된 비디오를 갖는 비디오 회의 환경의 두 사례를 도시한다.
도 8은 일 구현의 비디오 회의 환경 내에서 디스플레이를 위해 처음 캡처된 다음 수정되는 비디오의 몇몇 뷰를 도시한다.
도 9는 일 구현의 비디오 회의 동작들을 도시한다.
도 10은 일 구현의 비디오 회의 동작들을 도시한다.
도 11은 일 구현의 비디오 회의 동작들을 도시한다.
본 명세서에 기술된 구현들은 향상된 비디오 회의를 제공한다. 적어도 일 구현에서, 비디오 회의 내의 참가자의 비디오가 캡처된다. 캡처된 비디오는 참가자에 상응하는 객체를 포함한다. 각각의 객체가 차지하는 디스플레이 공간의 지분(share)이 비디오에 대해 이루어지는 수정을 결정하도록 분석될 수 있으며, 그에 따라 각각의 객체가 일반적으로 다른 객체들과 동일한 크기를 갖는다. 다시 말하면, 각각의 객체가 차지하는 각각의 디스플레이 공간의 지분은 일반적으로 각각의 다른 객체가 차지하는 지분과 동일할 수 있다. 비디오 회의의 시각적 미학과 관련하여, 회의 참가자들 중 적어도 일부가 시각적으로 비례하는 방식으로 나타내어질 수 있다.
아래에서 더욱 자세하게 논의되는 도 1 내지 11은, 일반적으로 다양한 구현들을 수행하기 위한 다양한 시나리오, 시스템, 프로세스, 아키텍처 및 동작 시퀀스를 도시한다. 도 1 내지 3과 관련하여, 도 1은 도 2에 도시된 비디오 수정 프로세스가 사용되는 비디오 회의 시나리오를 도시한다. 도 3은 비디오 수정 프로세스를 수행하기 위한 컴퓨팅 시스템을 도시한다.
도 4 내지 11과 관련하여, 도 4는 비디오 회의 아키텍처를 도시하는 한편, 도 5(a) 및 도 5(b)는 비디오 회의 아키텍처의 요소들에 의해 캡처된 비디오를 도시한다. 도 6 및 7은 각각 비디오 회의 아키텍처의 요소들 상에서 구동하는 비디오 회의 애플리케이션에 의해 렌더링되는 비디오 회의 환경의 두 사례를 도시한다. 도 8은 비디오 회의 환경 내에서 제공되는 비디오의 몇몇 뷰(view)를 도시한다. 마지막으로, 도 9, 도 10 및 도 11은 비디오 회의 아키텍처와 관련하여 구현될 수 있는 다양한 동작 시퀀스를 도시한다.
이제 도 1을 참조하면, 비디오 회의 시나리오(100)는 회의 비디오가 수정 프로세스(200)에 따라 처리되는 동작 시나리오를 보여준다. 따라서 도 1에 대한 아래의 논의는 도 2에 보여지는 수정 프로세스(200)의 단계들을 참조하여 진행될 것이다.
먼저 (시간 T1에서) 회의 참가자들에 상응하는 객체들의 비디오가 수신된다(단계(201)). 특히, 비디오(101)는 하나의 참가자에 상응하는 객체(103)를 포함하는 반면, 비디오(111)는 다른 회의 참가자에 상응하는 객체(113)를 포함한다. 비디오(101)는 또한 객체(104)를 포함하고 비디오(111)는 객체(114)를 포함한다. 객체(104, 114)는 선택적이며 단지 예시적인 목적으로 도시되었다. 객체들은 예를 들어 참가자에 상응하는 머리 형태, 신체 형태, 얼굴, 또는 일부 다른 객체일 수 있다.
객체(103)는 디스플레이 공간(105)의 지분(share)을 차지한다. 예를 들어, 객체(103)가 차지하는 디스플레이 공간(105)의 지분은 디스플레이 공간(105)의 크기에 대한 객체(103)의 크기의 비율의 측면에서 고려될 수 있다. 디스플레이 공간(105)의 크기는 비디오(101)의 언더라잉 프레임들의 크기, 비디오(101)가 재생되는 뷰잉 윈도우의 크기, 또는 객체(103)의 크기가 비교될 수 있는 일부 다른 측정 또는 치수에 상응할 수 있다. 객체(104)는 또한 디스플레이 공간(105)의 지분을 차지한다.
객체(113)는 디스플레이 공간(115)의 지분을 차지한다. 예를 들어, 객체(113)가 차지한 디스플레이 공간(115)의 지분은 디스플레이 공간(115)의 크기에 대한 객체(113)의 크기의 비율의 측면에서 고려될 수 있다. 디스플레이 공간(115)의 크기는 비디오(111)의 언더라잉 프레임들의 크기, 비디오(111)가 재생될 수 있는 뷰잉 윈도우의 크기, 또는 객체(113)의 크기가 비교될 수 있는 일부 다른 측정 또는 치수에 상응할 수 있다. 객체(114)는 또한 디스플레이 공간(115)의 지분을 차지한다.
다음으로 (시간 T2에서) 적어도 비디오(101)에 대한 수정이 객체(113)가 차지한 디스플레이 공간(115)의 지분에 대해 객체(103)가 차지한 디스플레이 공간(105)의 지분에 적어도 부분적으로 기초하여 식별된다(단계(203)). 수정을 식별함에 따라, 비디오(101)에 대한 수정이 개시된다(단계(205)). 비디오(101)는 자신의 수정된 형태로 비디오 회의 환경(131) 내에 디스플레이될 수 있다. 비디오(111)는 또한 비디오 회의 환경(131) 내에 디스플레이될 수 있다.
객체들 상에서 수행되는 수정은 다수의 방식으로 실행될 수 있다. 일 구현에서, 디지털 줌인 또는 줌아웃이 비디오 상에서 수행될 수 있으며, 그에 따라 디스플레이 공간에 대한 비디오 내의 객체의 치수가 변경된다. 일부 구현들에서, 장면을 줌인 또는 줌아웃하도록 디바이스를 캡처하라고 지시하는 명령이 캡처 디바이스에 제공될 수 있으며, 그에 따라 디스플레이 공간 또는 캡처된 장면의 남은 부분에 대한 객체의 상대적인 크기를 변경시킨다. 다양한 다른 메커니즘들이 본 발명의 범주 내에서 가능하며 고려되어야만 한다.
이러한 시나리오에서, 비디오(101)에 대해 이루어진 수정이 객체(103)가 차지하는 디스플레이 공간(105)의 지분의 증가를 발생시킨다. 그러나, 수정이 객체(103)가 차지하는 디스플레이 공간(105)의 지분의 감소를 발생시킬 수 있음이 이해되어야만 한다. 객체(103)가 차지하는 디스플레이 공간의 지분의 증가는 시간 T1에서의 객체(103)의 처음 크기에 대한 시간 T2에서의 객체(103)의 더 큰 크기에서 명백하다. 또한, 디스플레이 공간(105)의 크기가 변경되지 않는다고 가정할 때, 더 이상 객체(104) 전체가 보이지 않거나 또는 디스플레이 공간(105) 내에 완전히 포함되지 않는다. 따라서, 객체(103)와 객체(104) 모두가 차지하는 디스플레이 공간(105)의 지분이 증가된다.
또한 시간 T1로부터 시간 T2까지, 객체(113)의 크기에 대한 객체(103)의 크기가 변경되었음이 도 1로부터 명백하다. 즉, 객체(103) 및 객체(105)가 처음에는 상당히 다른 크기들로 나타나는 반면, 비디오(101)의 수정에 따라 객체(103)의 크기가 객체(113)의 크기와 전반적으로 동일하거나 또는 실질적으로 유사하게 나타난다. 최소한, 비디오(101)의 수정에 따라, 객체(113)에 대한 객체(103)의 크기에서의 차이가 감소된다.
선택적으로, 비디오(111) 또한 분석 및 수정될 수 있다. 그러나 이 시나리오에서는 예시적인 목적으로 비디오(111)가 수정되지 않거나 또는 적어도 실질적으로 수정되지 않는다고 가정된다. 따라서, 시간 T1에서의 객체(113) 및 객체(114) 각각의 크기에 대한 시간 T2에서의 객체(113) 및 객체(114)의 크기가 동일하게 유지된다.
비디오 회의 환경(131)을 보는 회의 참가자의 관점으로부터, 객체(103) 및 객체(113)는 유사한 크기의 객체들로 나타날 것이다. 반면에, 수정이 수행되지 않았다면, 객체(103)와 객체(113)는 이들이 둘 다 회의 참가자들에 상응한다고 할지라도 서로 다른 크기의 객체들로서 나타날 것이다. 따라서, 비디오 회의 시나리오(100)와 관련하여 기술된 바와 같이, 수정 프로세스(200)는 미학적 이익을 달성하며, 그에 따라 회의 참가자들에 상응하는 객체가 뷰어에게 유사한 크기의 객체들로 나타난다.
이제 도 3을 참조하면, 비디오 수정 프로세스를 구현하기에 적합한 컴퓨팅 시스템이 도시되었다. 컴퓨팅 시스템(300)은 일반적으로 수정 프로세스(200)가 적절하게 구현될 수 있는 임의의 컴퓨팅 시스템 또는 시스템들을 나타낸다. 선택적으로, 컴퓨팅 시스템(300)은 또한 비디오 회의 환경(131)을 구현하기에도 적합할 수 있다. 컴퓨팅 시스템(300)의 예시들은 서버 컴퓨터, 클라이언트 컴퓨터, 가상 머신, 분산 컴퓨팅 시스템, 개인 컴퓨터, 모바일 컴퓨터, 미디어 디바이스, 인터넷 어플라이언스, 데스크톱 컴퓨터, 랩톱 컴퓨터, 태블릿 컴퓨터, 노트북 컴퓨터, 모바일폰, 스마트폰, 게임 디바이스 및 PDA뿐 아니라 이들의 임의의 조합 및 변형을 포함한다.
컴퓨팅 시스템(300)은 프로세싱 시스템(301), 저장 시스템(303), 소프트웨어(305) 및 통신 인터페이스(307)를 포함한다. 컴퓨팅 시스템(300)은 또한 사용자 인터페이스(309)를 포함할 수 있으며, 이것은 선택적이다. 프로세싱 시스템(301)은 저장 시스템(303), 통신 인터페이스(307) 및 사용자 인터페이스(309)에 동작상 연결된다. 프로세싱 시스템(301)은 저장 시스템(303)으로부터의 소프트웨어(305)를 로딩 및 실행한다. 일반적으로 컴퓨팅 시스템(300), 보다 구체적으로는 프로세싱 시스템(301)에 의해 실행되었을 때, 소프트웨어(305)는 컴퓨팅 시스템(300)에 비디오 수정 프로세스(200)를 위해 본 명세서에 기술된 바와 같이 동작하도록 지시한다. 컴퓨팅 시스템(300)은 선택적으로 추가적인 디바이스, 특성, 또는 기능을 포함할 수 있지만, 명확성 및 간결성을 위해 본 명세서에는 논의되지 않았다.
계속해서 도 3을 참조하면, 프로세싱 시스템(301)은 저장 시스템(303)으로부터의 소프트웨어(305)를 검색 및 실행하는 마이크로프로세서 및 다른 회로를 포함할 수 있다. 프로세싱 시스템(301)은 단일 프로세싱 디바이스 내에서 구현될 수 있지만, 프로그램 명령들을 실행할 때 협력하는 복수의 프로세싱 디바이스들 또는 서브-시스템들에 걸쳐 분산될 수도 있다. 프로세싱 시스템(301)의 예시들은 범용 중앙 처리 장치, 애플리케이션 특정 프로세서 및 논리 디바이스뿐 아니라 임의의 다른 타입의 프로세싱 디바이스, 프로세싱 디바이스들의 조합, 또는 이들의 변형을 포함한다.
저장 시스템(303)은 프로세싱 시스템(301)에 의해 판독될 수 있으며 소프트웨어(305)를 저장할 수 있는 임의의 저장 매체를 포함할 수 있다. 저장 시스템(303)은 컴퓨터 판독가능한 명령, 데이터 구조, 프로그램 모듈, 또는 그외의 데이터와 같은 정보의 저장을 위한 임의의 방법 또는 기술로 구현되는 휘발성 및 비휘발성, 제거가능 및 제거 불가능한 매체를 포함할 수 있다. 저장 시스템(303)은 단일 저장 디바이스로서 구현될 수 있지만 복수의 저장 디바이스들 또는 서브-시스템들에 걸쳐 구현될 수도 있다. 저장 시스템(303)은 컨트롤러와 같이 프로세싱 시스템(301)과 통신할 수 있는 추가적인 요소들을 포함할 수 있다.
저장 매체의 예시들은 랜덤 액세스 메모리, 판독 전용 메모리, 자기 디스크, 광학 디스크, 플래시 메모리, 가상 메모리 및 비-가상 메모리, 자기 카세트, 자기 테이프, 자기 디스크 스토리지 또는 그외의 자기 스토리지 디바이스, 또는 원하는 정보를 저장하도록 사용될 수 있고 명령 실행 시스템에 의해 액세스될 수 있는 임의의 다른 매체들뿐 아니라, 이들의 임의의 조합 또는 변형, 또는 임의의 다른 타입의 저장 매체를 포함한다. 일부 구현들에서, 저장 매체는 비일시적 저장 매체일 수 있다. 일부 구현들에서, 저장 매체의 적어도 일부가 일시적일 수 있다. 저장 매체는 전파되는 신호가 아님이 이해되어야만 한다.
소프트웨어(305)는 프로그램 명령들로 구현될 수 있으며, 컴퓨팅 시스템(300)에 의해 실행되었을 때, 컴퓨팅 시스템(300)으로 하여금 비디오 회의의 참가자에 상응하는 장면 내의 객체의 캡처된 비디오를 수신하고, 비디오 회의 내의 다른 참가자에 상응하는 다른 객체와 연관된 다른 디스플레이 공간의 지분에 대해 객체와 연관된 디스플레이 공간의 지분에 기초하여 비디오 회의 환경 내에서의 비디오의 디스플레이에 대한 수정을 식별하며, 비디오 회의 환경 내의 비디오의 디스플레이에 대한 수정을 개시하도록 지시한다.
소프트웨어(305)는 운영 시스템 소프트웨어 또는 다른 애플리케이션 소프트웨어와 같은 추가적인 프로세스, 프로그램, 또는 구성요소를 포함할 수 있다. 소프트웨어(305)는 또한 프로세싱 시스템(301)에 의해 실행될 수 있는 머신-판독가능한 프로세싱 명령의 펌웨어 또는 일부 다른 형태를 포함할 수 있다.
일반적으로, 소프트웨어(305)가 프로세싱 시스템(301)으로 로딩되어 실행될 때 프로세싱 시스템(301) 및 컴퓨팅 시스템(300) 전체를 범용 컴퓨팅 시스템으로부터 각 구현에 대해 본 명세서에서 기술된 것과 같은 비디오 회의 환경을 용이하게 하도록 맞춤화된 전용 컴퓨팅 시스템으로 변형할 수 있다. 실제로, 저장 시스템(303) 상의 소프트웨어(305)를 인코딩하는 것은 저장 시스템(303)의 물리적 구조를 변형시킬 수 있다. 물리적 구조의 특정한 변형이 이러한 명세의 서로 다른 구현들에서의 다양한 요인들에 의존할 수 있다. 이러한 요인들의 예시는 저장 시스템(303)의 저장 매체를 구현하도록 사용되는 기술 및 컴퓨터 저장 매체가 1차 또는 2차 스토리지로서 특징화되는지 여부를 포함할 수 있지만 이것으로 한정되지는 않는다.
예를 들어, 만약 컴퓨터 저장 매체가 반도체-기반 메모리로서 구현된다면, 소프트웨어(305)는 프로그램이 인코딩되었을 때 반도체 메모리의 물리적 상태를 변형할 수 있다. 예를 들어, 소프트웨어(305)는 반도체 메모리를 구성하는 트랜지스터, 커패시터, 또는 다른 별개의 회로 요소들의 상태를 변형할 수 있다. 유사한 변형이 자기 매체 또는 광학 매체와 관련하여 발생할 수 있다. 물리적 매체의 다른 변형들이 오직 이러한 논의를 용이하게 하도록 제공된 전술된 예시들을 이용하여 본 명세의 범주로부터 벗어나지 않고 가능하다.
컴퓨팅 시스템(300)은 일반적으로 수정 프로세스(200)를 구현하고 선택적으로 비디오 회의 환경(131)을 렌더링하도록 소프트웨어(305)가 배치되고 실행되는 컴퓨팅 시스템을 나타내기 위한 것임이 이해되어야만 한다. 그러나, 컴퓨팅 시스템(300)은 소프트웨어(305)가 단계화(staged)될 수 있고 소프트웨어(305)가 분산, 이동, 다운로드, 또는 그외의 방식으로 배치 및 실행, 또는 추가적인 분산을 위해서 또 다른 컴퓨팅 시스템에 제공될 수 있는 임의의 컴퓨팅 시스템을 나타낼 수 있다.
다시 도 1을 참조하면, 소프트웨어(305)를 이용하는 컴퓨팅 시스템(305)의 동작을 통해서, 비디오(101) 및 비디오(111)에 대해 변형이 수행될 수 있다. 예시로서, 비디오(101)는 비디오 수정 프로세스(200)를 거칠 때 하나의 상태에서 다른 상태로 변형되는 것으로 간주될 수 있다. 제 1 단계에서, 객체(103)는 디스플레이 공간(105)의 소정의 지분을 차지한다. 비디오(101)의 수정에 따라, 객체(103)는 디스플레이 공간(105)의 서로 다른 지분을 차지하며, 그에 따라 비디오(101)를 제 2의 상이한 상태로 변경한다.
다시 도 3을 참조하면, 통신 인터페이스(307)는 통신 네트워크 또는 네트워크들의 컬렉션 위에서 컴퓨팅 시스템(300)과 도시되지 않은 다른 컴퓨팅 시스템들 사이의 통신을 가능하게 하는 통신 접속 및 디바이스들을 포함할 수 있다. 함께 상호-시스템 통신을 가능하게 하는 접속 및 디바이스들의 예시는 네트워크 인터페이스 카드, 안테나, 전력 증폭기, RF 회로, 송수신기 및 그외의 통신 회로를 포함한다. 전술된 네트워크, 접속 및 디바이스들은 잘 알려져 있으며 본 명세서에서 길게 논의될 필요가 없다.
사용자 인터페이스(309)는 마우스, 음성 입력 디바이스, 사용자로부터 제스처를 수신하기 위한 터치 입력 디바이스, 사용자에 의한 비-터치 제스처 및 그외의 동작들을 검출하기 위한 모션 입력 디바이스 및 그외의 유사한 입력 디바이스들과 카메라 또는 그외의 비디오 캡처 디바이스와 같이 사용자로부터의 사용자 입력을 수신할 수 있는 연관된 프로세싱 요소들을 포함할 수 있다. 디스플레이, 스피커, 프린터, 햅틱 디바이스 및 그외의 타입의 출력 디바이스들과 같은 출력 디바이스들 또한 사용자 인터페이스(309) 내에 포함될 수 있다. 전술된 사용자 입력 디바이스들은 잘 알려져 있으며 본 명세서에서 길게 논의될 필요가 없다. 사용자 인터페이스(309)는 또한 앞서 논의된 다양한 사용자 입력 및 출력 디바이스들을 지지하는 프로세싱 시스템에 의해 실행가능한 연관된 사용자 인터페이스 소프트웨어도 포함할 수 있다. 서로, 그리고 다른 하드웨어 및 소프트웨어 요소들과 분리되어 또는 함께, 사용자 인터페이스 소프트웨어 및 디바이스들이 그래픽 사용자 인터페이스, 내추럴 사용자 인터페이스, 또는 임의의 다른 유형의 사용자 인터페이스를 제공하도록 고려될 수 있다.
도 4는 일 구현에서의 비디오 캡처 아키텍처(400)를 도시한다. 비디오 캡처 아키텍처(400)는 클라이언트 디바이스(411), 클라이언트 디바이스(413), 클라이언트 디바이스(415), 클라이언트 디바이스(417) 및 회의 시스템(431)을 포함한다. 클라이언트 디바이스(411, 413, 415, 417)는 통신 네트워크(430) 상에서 회의 시스템(431)을 통해 서로와 적어도 일부 회의 통신을 교환할 수 있다. 이러한 구현에서, 클라이언트 디바이스(411, 413, 415, 417)는 비디오 회의에서 서로 연결하기 위해 사용자(401, 403, 405, 407)에 의해서 또는 그외의 방식으로 연관되어 동작된다. 이를 위해서, 각각의 클라이언트 디바이스(411, 413, 415, 417)는 이들 위에서 구동하는 비디오 회의 애플리케이션(421, 423, 425, 427)을 각각 포함한다.
클라이언트 디바이스(411, 413, 415, 417)는 각각이 비디오 회의 애플리케이션을 호스팅할 수 있는 임의의 유형의 컴퓨팅 시스템일 수 있다. 비디오 회의 애플리케이션은 로컬로 설치 및 실행될 수 있거나, 원격으로 호스팅되고 웹 브라우저를 통해서 액세스가능 할 수 있거나, 또는 로컬 실행을 위해서 스트리밍 될 수 있을 뿐 아니라 임의의 수의 다른 기술, 기술들의 조합, 또는 기술들의 변형에 따라서 공급되고 전달될 수도 있다. 클라이언트 디바이스들의 예시는 데스크톱 또는 랩탑 컴퓨터, 태블릿, 모바일폰, 게임 시스템, 전용 회의 시스템, 또는 임의의 다른 적절한 통신 디바이스를 포함한다.
통신 시스템(431)은 클라이언트 디바이스를 통해 비디오 회의 내에 참가자를 허용하는 비디오 회의 서비스를 호스팅할 수 있는 임의의 시스템 또는 시스템들의 컬렉션일 수 있다. 회의 시스템(431)이 중앙화 시스템의 독립형 시스템으로서 도시되었지만, 회의 시스템(431)은 복수의 컴퓨팅 시스템들로 분산될 수 있다. 일부 구현들에서, 회의 시스템(431)에 의해 제공되는 기능은 피어들 사이에서 분산될 수 있으며, 이는 비디오 회의 서비스가 피어-투-피어 모델에 따라 공급되는 것을 가능하게 한다. 이들의 다른 조합 또는 변형들이 가능하다.
통신 네트워크(430)는 비디오 회의 통신을 전달할 수 있는 임의의 네트워크 또는 네트워크들의 컬렉션일 수 있다. 통신 네트워크(430)의 예시들은 인터넷, 인트라넷, 로컬 영역 네트워크, 광역 네트워크, 무선 네트워크 및 유선 네트워크뿐 아니라 이들의 임의의 조합 및 변형을 포함한다.
동작시에, 사용자들은 서로와의 비디오 회의에 참가하도록 배열할 수 있다. 일부 경우에서, 사용자들은 초대를 개시하고, 링크를 교환하고, 서로 다이얼링하거나, 또는 일부 다른 방식에서는 회의에 참가하길 원하는 의도를 서로 통지할 수 있다. 다수의 잘 알려진 시스템 및 소프트웨어가 이러한 회의 성능들을 제공하며, 본 명세서에서 길게 논의될 필요가 없다. 회의가 확립되면, 참가자 각각의 비디오 캡처 디바이스에 의해 참가자의 비디오가 캡처되며, 다른 회의 참가자들에게 배포하기 위해 회의 시스템(431)에 제공한다.
사용자(401, 403, 405, 407)를 포함하는 하나의 특정한 예시적인 비디오 회의가 도 5-11에 도시되었다. 이러한 예시에서, 비디오 회의는 일반적으로 사용자(407) 및 클라이언트 디바이스(417)의 관점으로부터 기술된다. 예를 들어, 도 5(a)는 비디오 회의 애플리케이션(427)에 의해서 클라이언트 디바이스(417)에 의해 수신될 수 있고 사용자(407)에게 제시될 수 있는 비디오를 나타낸다. 도 6 및 7은 비디오 회의 애플리케이션(427)에 의해 생성될 수 있는 비디오 회의 환경을 나타내며, 여기에서 회의 비디오가 디스플레이된다. 도 8은 비디오 회의 환경 내에서의 비디오 수정을 더욱 자세하게 나타낸다. 도 9-11은 비디오 회의를 제공하기 위해 비디오가 교환되고 처리될 수 있는 몇몇 방식들을 나타낸다.
이제 도 5(a)를 참조하면, 비디오(511, 513, 515)가 도시되었다. 비디오(511, 513, 515)는 도 4에 도시된 클라이언트 디바이스(411, 413, 415)에 의해 캡처된 비디오를 나타내며, 회의 시스템(431)을 통해서 클라이언트 디바이스(417)에 전달된다. 비디오(511)는 사용자(401)에 상응하는 객체(501)를 포함한다. 사용자(401)는 사용자(403, 405, 407)와 함께 비디오 회의의 참가자이다. 비디오(511)는 또한 객체(531)를 포함한다. 객체(501) 및 객체(531)는 각각 디스플레이 공간(521)의 지분을 차지한다. 비디오(513)는 사용자(403)에 상응하는 객체(503)를 포함한다. 사용자(403) 또한 사용자(401, 405, 407)와 함께 비디오 회의 내의 참가자이다. 비디오(513)는 또한 객체(533)를 포함한다. 객체(503) 및 객체(533)는 각각 디스플레이 공간(523)의 지분을 차지한다. 비디오(515)는 사용자(405)에 상응하는 객체(505)를 포함한다. 사용자(405)는 사용자(401, 403, 407)와 함께 비디오 회의의 다른 참가자이다. 객체(505)는 디스플레이 공간(525)의 지분을 차지한다.
도 6-8과 관련하여 더욱 자세하게 논의되는 바와 같이, 비디오(511, 513, 515)는 비디오 회의 환경 내에서 프로세싱되고 렌더링될 수 있다. 특히, 비디오 회의 애플리케이션(427)을 실행하는 클라이언트 디바이스(417)는 아래에서 더욱 자세하게 논의되는 비디오 회의 환경(641) 및 비디오 회의 환경(741)과 같은 비디오 회의 환경 내에서의 디스플레이를 위해 비디오(511, 513, 515)의 부분들을 프로세싱하고 잠재적으로 수정한다. 비디오는 비디오 내의 각 객체에 부합된 디스플레이 지분의 타겟 지분(target share)에 기초하여 수정될 수 있다. 도 5(b)는 타겟 지분에서의 변화에 기초하여 객체가 변화할 수 있는 방식을 자세하게 도시한다.
도 5(b)를 참조하면, 클라이언트 디바이스(415)에 의해 캡처된 비디오(515)가 예시적인 목적으로 도시되었다. 타겟 지분(502)은 증가 또는 감소되며, 객체(505)의 크기는 디스플레이 공간(525)과 관련하여 변화한다. 예를 들어, 타겟 지분(502)의 최상단에서, 객체(505)는 디스플레이 공간(525)의 수직 치수와 거의 동일한 수직 치수를 갖는다. 반면, 타겟 지분(502)의 최하단 쪽에서, 객체(515)는 디스플레이 공간(525)의 치수보다 일반적으로 훨씬 작은 치수를 갖는다. 타겟 지분(502)의 하단 쪽에서는 객체(535)가 디스플레이 공간(525) 내에 전부 보일 수 있음을 인지해야 한다. 타겟 지분(502)의 중간 범위를 향하게 설정되었을 때, 객체(505)는 타겟 지분이 상단을 향해 설정되었을 때보다는 작지만 하단을 향해 설정되었을 때보는 크다. 객체(535)는 타겟 지분이 중간 범위를 향해 설정되었을 때 디스플레이 공간(525) 내에서 부분적으로 보일 수 있음을 인지해야 한다.
다시 말하면, 타겟 지분(502)이 조정될 때, 객체(505)가 차지하는 디스플레이 공간(525)의 지분이 일반적으로 비례하게 변화한다. 타겟 지분(502)을 감소시키는 것은 타겟 지분(502)이 증가되었을 때와 비교하여 객체가 차지하는 디스플레이 공간(525) 지분의 감소를 발생시킨다. 타겟 지분(502)은 비디오(511) 및 비디오(513) 뿐 아니라 비디오(515)에도 적용될 수 있음이 이해되어야만 한다.
도 6은 도 5(b)에서 나타내어진 것과 같이 타겟 지분에 기초하여 비디오가 수정될 수 있는 비디오 회의 환경(641)의 하나의 사례를 제공한다. 즉, 비디오는 타겟 지분이 정의 또는 설정되는 방식에 의존하여 비디오 내에 캡처된 객체들이 차지하는 디스플레이 공간의 상대적인 지분이 달라지도록 수정될 수 있다.
비디오 회의 환경(641)은 비디오 모듈(643), 채팅 모듈(645) 및 화이트보드 모듈(647)을 포함한다. 비디오 회의 환경(641)은 또한 각각이 프레젠테이션 컨텍스트 A 및 프레젠테이션 컨텍스트 B를 각각 나타내며 사용자 입력에 의해 선택될 수 있는 상호작용 그래픽(648) 및 상호작용 그래픽(649)을 포함한다. 사용자 입력에 의해 선택되거나 다른 방식으로 표시되는 타겟 지분에 의존하여, 일부 수정들이 비디오(511, 513, 515)에 이루어질 수 있으며, 그에 따라 객체(501, 503, 505)가 각각 타겟 지분에 따라서 디스플레이 공간(521, 523, 525)의 지분을 차지한다.
이러한 예시에서, 프레젠테이션 컨텍스트 A 및 프레젠테이션 컨텍스트 B는 사용자 입력에 의해 선택가능한 서로 다른 타겟 지분들에 상응한다. 이러한 예시에서, 프레젠테이션 컨텍스트 A는 프레젠테이션 컨텍스트 B에 상응하는 타겟 지분보다 작은 타겟 지분 값에 상응한다. 따라서, 프레젠테이션 컨텍스트 A가 선택되었을 때, 객체들이 차지하는 비디오 모듈(643) 내의 디스플레이 공간의 지분이 프레젠테이션 컨텍스트 B가 선택되었을 때 객체들이 차지하는 디스플레이 공간의 지분보다 작다. 프레젠테이션 컨텍스트 A는 예를 들어 디스플레이가 비디오 회의 내의 참가자들의 와이드뷰(wide view))를 디스플레이하고자 하는 것인 경우인 광범위한 프레젠테이션 컨텍스트에 상응할 수 있다. 반면에, 프레젠테이션 컨텍스트 B는 예를 들어 디스플레이가 비디오 회의 내의 참가자들의 근접 모습(close-in view)을 디스플레이하고자 하는 것인 경우인 근접 프레젠테이션 컨텍스트에 상응할 수 있다.
다양한 타겟 지분이 비디오(511, 513, 515)에 대한 서로 다른 수정들을 발생시킬 수 있는 방식을 보여주기 위해서, 프레젠테이션 컨텍스트 A가 처음에 시간 T1에서 선택되고, 프레젠테이션 컨텍스트 B가 시간 T2에서 선택된다. 프레젠테이션 컨텍스트 A가 선택되었을 때, 객체(501)가 차지하는 디스플레이 공간의 지분(521)이 도 5(a)에 도시된 바와 같이 처음에 비디오(511)에서 캡처되었을 때 객체(501)가 차지한 디스플레이 공간(521)의 지분에 비교하여 상대적으로 변경되지 않았다. 그러나, 프레젠테이션 컨텍스트 A가 선택됨에 따라, 객체(503)가 차지하는 디스플레이 공간(523)의 지분은 도 5(a)에서 도시된 바와 같이 처음에 비디오(513)에서 캡처된 것과 비교하여 감소되었다. 유사하게, 프레젠테이션 컨텍스트 A가 선택됨에 따라, 객체(505)가 차지하는 디스플레이 공간(525)의 지분은 도 5(a)에서 도시된 바와 같이 처음에 비디오(515)에서 캡처된 것과 비교하여 감소되었다.
반면에, 시간 T2에서 프레젠테이션 컨텍스트 B가 선택됨에 따라, 객체(501, 503, 505)가 차지하는 디스플레이 공간(521, 523, 525)의 지분은 각각 프레젠테이션 컨텍스트 A가 시간 T1에서 선택되었을 때에 비교하여 각각 변경되었다. 객체(501)의 크기는 프레젠테이션 컨텍스트 A가 선택되었을 때보다 크며, 객체(503, 505)의 크기도 마찬가지이다. 다시 말하면, 시간 T2에서 객체(501, 503, 505)가 차지하는 디스플레이 공간(521, 523, 525)의 지분은 시간 T1에서의 지분보다 크다. 또한 프레젠테이션 컨텍스트 B가 선택되었을 때, 객체(501)가 차지하는 디스플레이 공간(521)의 지분이 도 5(a)에 도시된 바와 같이 처음에 비디오(511)에서 캡처되었을 때 객체(501)가 차지하는 디스플레이 공간(521)의 지분에 비교하여 증가되었음을 인지하여야 한다. 프레젠테이션 컨텍스트 A가 선택됨에 따라, 객체(503)가 차지하는 디스플레이 공간(523)의 지분은 도 5(a)에 도시된 바와 같이 처음에 비디오(513)에서 캡처되었을 때에 비교하여 일반적으로 변화되지 않는다. 프레젠테이션 컨텍스트 A가 선택됨에 따라, 객체(505)가 차지하는 디스플레이 공간(525)의 지분은 도 5에 의해 도시된 바와 같이 처음 비디오(515)에서 캡처되었을 때와 비교하여 감소되었다.
도 7은 도 5(b)에서 보여진 것과 같이 타겟 지분에 기초하여 비디오가 수정될 수 있는 비디오 회의 환경(741)의 다른 사례를 제공한다. 즉, 비디오는 타겟 지분이 정의 또는 설정되는 방식에 의존하여 비디오 내에 캡처된 객체들이 차지하는 상대적인 디스플레이 공간의 지분이 변화하도록 수정될 수 있다.
비디오 회의 환경(741)은 비디오 모듈(743), 채팅 모듈(745) 및 화이트보드 모듈(747)을 포함한다. 비디오 회의 환경(741)은 또한 범위 그래픽(748)과 선택기 그래픽(749)으로 구성된 상호작용 그래픽을 포함한다. 범위 그래픽(748)은 선택기 그래픽(749)을 이동시키거나 또는 다른 방식으로 위치시킴으로써 사용자 입력에 의해 선택될 수 있는 타겟 지분 값들의 범위를 나타낸다. 사용자 입력에 의해 선택되거나 또는 다른 방식으로 표시되는 타겟 지분에 의존하여, 객체(501, 503, 505)가 각각 입력 타겟 지분에 따라서 디스플레이 공간(521, 523, 525)의 지분을 차지하도록 일부 수정들이 비디오(511, 513, 515)에 대해 이루어질 수 있다.
이러한 예시에서, 선택기 그래픽(749)은 범위 그래픽(748)에 의해 나타내어지는 타겟 지분의 범위를 통해 슬라이드하거나 또는 다른 방식으로 이동될 수 있다. 이러한 예시에서, 범위 그래픽(748)의 가장 왼쪽 부분은 범위 그래픽(748)의 가장 오른쪽 부분에 상응하는 타겟 지분보다 더 작은 타겟 지분 값에 상응한다. 따라서, 선택기 그래픽(749)이 범위 그래픽(748)의 왼쪽을 향해 위치될 때, 객체들이 차지하는 비디오 모듈(743) 내의 디스플레이 공간의 지분이 선택기 그래픽(749)이 범위 그래픽(784)의 오른쪽을 향해 위치될 때 객체들이 차지하는 디스플레이 공간의 지분보다 작다. 범위 그래픽(748) 상에서 선택가능한 타겟 지분 값들은 예를 들어 비디오 회의 내의 참가자들의 와이드뷰를 디스플레이하고자 하는 와이드 프레젠테이션 컨텍스트 또는 비디오 회의 내의 참가자들의 근접 뷰를 디스플레이하고자 하는 근접 프레젠테이션 컨텍스트에 상응할 수 있다.
다양한 타겟 지분이 비디오(511, 513, 515)에 대한 서로 다른 수정들을 발생시킬 수 있는 방식을 보여주기 위해서, 선택기 그래픽(749)이 처음에 시간 T1에서 범위 그래픽(748)의 왼쪽 끝을 향해 위치되고, 선택기 그래픽(749)이 시간 T2에서 범위 그래픽(748)의 오른쪽 끝을 향해 위치된다. 시간 T1에서, 객체(501)가 차지하는 디스플레이 공간(521)의 지분은 도 5(a)에 도시된 바와 같이 처음에 비디오(511)에서 캡처되었을 때 객체(501)가 차지한 디스플레이 공간의 지분(521)에 비교하여 상대적으로 변경되지 않았다. 그러나, 객체(503)가 차지하는 디스플레이 공간(523)의 지분은 도 5(a)에서 도시된 바와 같이 처음에 비디오(513)에서 캡처된 것과 비교하여 감소되었다. 유사하게, 객체(505)가 차지하는 디스플레이 공간(525)의 지분은 도 5(a)에서 도시된 바와 같이 처음에 비디오(515)에서 캡처된 것과 비교하여 감소되었다.
반면에, 시간 T2에서 선택기 그래픽(749)이 범위 그래픽(748)의 오른쪽 끝을 향해 위치됨에 따라, 객체(501, 503, 505)가 차지하는 디스플레이 공간(521, 523, 525)의 지분은 시간 T1와 관련하여 도시된 시나리오와 비교하여 각각 변경되었다. 객체(501)의 크기는 시간 T1에서보다 시간 T2에서 크며, 객체(503, 505)의 크기도 마찬가지이다. 다시 말하면, 시간 T2에서 객체(501, 503, 505)가 차지하는 디스플레이 공간(521, 523, 525)의 지분은 시간 T1에서의 지분보다 크다. 또한 시간 T2에서 객체(501)가 차지하는 디스플레이 공간(521)의 지분이 도 5(a)에 도시된 바와 같이 처음에 비디오(511)에서 캡처되었을 때 객체(501)가 차지하는 디스플레이 공간(521)의 지분에 비교하여 증가되었음을 인지하여야 한다. 객체(503)가 차지하는 디스플레이 공간(523)의 지분은 도 5(a)에 도시된 바와 같이 처음에 비디오(513)에서 캡처되었을 때에 비교하여 일반적으로 변화되지 않는다. 객체(505)가 차지하는 디스플레이 공간(525)의 지분은 도 5에 의해 도시된 바와 같이 처음 비디오(515)에서 캡처되었을 때와 비교하여 감소되었다.
도 8은 처음에 각각 클라이언트 디바이스(411)와 클라이언트 디바이스(413)에 의해 캡처되었을 때 비디오(511)의 뷰(801) 및 비디오(513)의 뷰(802)를 각각 도시한다. 도 8은 또한 비디오 회의 환경 내에서 처음에 디스플레이되었을 때의 비디오(511) 및 비디오(513)의 뷰(803)를 도시한다. 마지막으로, 도 8은 비디오의 적어도 일부분에 대한 수정을 개시하는 것을 식별함에 따라 디스플레이되는 비디오(511) 및 비디오(533)의 뷰(804)를 도시한다. 도 8에서 제공된 픽셀 치수들은 단지 예시적인 것이며 임의의 구현에서 달라질 수 있음이 이해되어야만 한다.
뷰(801)를 참조하면, 비디오(511)는 픽셀 치수들의 측면에서 정의되거나 특징화된다. 비디오(511)는 798개의 수평방향 픽셀들과 600개의 수직방향 픽셀들을 포함한다. 객체(501)는 대략 266개 픽셀의 폭을 갖는다. 따라서, 비디오(511)의 총 수평방향 치수는 객체(501)의 266개의 픽셀과 좌우의 두 266개의 픽셀 섹션들을 더한 것을 포함한다. 간단한 비율의 관점에서, 객체(501)는 디스플레이 공간(521)의 대략 1/3을 차지한다.
뷰(802)를 참조하면, 비디오(513) 또한 픽셀 치수들의 측면에서 정의되거나 특징화되었다. 비디오(513)는 비디오(511)와 유사하게 798개의 수평방향 픽셀들 및 600개의 수직방향 픽셀들을 포함한다. 객체(503)는 처음 캡처되었을 때보다 넓은, 또는 객체(501)보다 2배 큰 대략 534개의 픽셀이다. 따라서, 비디오(513)의 총 수평 치수는 객체(503)의 534개의 픽셀과 양 옆의 두 132개의 픽셀 섹션들을 더한 것을 포함한다. 간단한 비율의 측면에서, 객체(503)는 디스플레이 공간(521)의 대략 2/3을 차지한다.
이제 뷰(803)를 참조하면, 회의 시스템(431) 또는 클라이언트 디바이스(417)와 같은 다른 클라이언트 디바이스를 가능하게 하도록 각각 클라이언트 디바이스(411) 및 클라이언트 디바이스(413)에 의해 전송된 비디오(511) 및 비디오(513)가 도시되었다. 데이터 전송 제한 또는 일부 다른 요인으로 인해서, 비디오(511) 및 비디오(513)의 총 픽셀 크기 카운트는 캡처되었을 때의 각각의 픽셀 카운트에 비해 감소되었다. 비디오(511)는 이제 단지 120개의 수평방향 픽셀만을 갖는다. 유사하게, 비디오(513)는 이제 단지 120개의 픽셀만을 갖는다. 스케일을 유지하기 위해서, 객체(501)는 40개의 픽셀로 렌더링되며 따라서 비디오(511)의 수평방향 폭은 대략 1/3이다. 객체(503)는 80개의 픽셀 또는 비디오(513)의 폭의 2/3으로 렌더링된다. 뷰(803)에서 객체(501)는 객체(503)의 크기의 대략 절반임을 인지해야 한다.
이제 뷰(804)를 참조하면, 비디오(511)에 대한 수정 후의 비디오(511, 513)가 도시되었다. 특히, 비디오(511)는 뷰(803)에서 객체(503)가 차지한 디스플레이 공간(523)의 지분에 대한 객체(501)가 차지한 디스플레이 공간(521)의 지분에 기초하여 수정된다. 뷰(803)에서, 객체(501)는 디스플레이 공간(521)의 대략 1/3을 차지하는 반면, 객체(503)는 디스플레이 공간(523)의 2/3를 차지한다. 따라서 상대적인 지분을 실질적으로 같게 하기 위해서 객체(501)가 차지하는 디스플레이 공간(521)의 지분이 증가되도록 결정된다.
뷰(804)로부터 알 수 있는 바와 같이, 객체(501)의 크기는 그것의 수평방향 픽셀 수가 이제 80 픽셀이거나 또는 객체(503)의 수평방향 픽셀과 대략 동일하도록 증가된다. 객체(501)의 필(fill) 특징은 뷰(803)로부터 뷰(804)로 변경되었음을 인지해야 한다. 이것은 객체(501)의 크기가 확장됨에 따라 그의 해상도가 뷰(803)로부터 뷰(804)로 감소할 수 있음을 보여주기 위한 것이다.
도 9는 도 4에 도시된 비디오 회의 아키텍처(400)와 관련된 동작 시퀀스를 도시한다. 클라이언트 디바이스(411) 상에서 실행하는 비디오 회의 애플리케이션(421)은 비디오를 캡처하여 캡처된 비디오를 회의 시스템(431)으로 전송한다. 유사하게, 각각 클라이언트 디바이스(413) 및 클라이언트 디바이스(415) 상에서 실행하는 비디오 회의 애플리케이션(423) 및 비디오 회의 애플리케이션(425)은 비디오를 캡처하여 캡처된 비디오를 회의 시스템(431)으로 전송한다. 비디오 회의 애플리케이션(421)에 의해 캡처된 비디오는 적어도 객체(501)를 포함하고; 비디오 회의 애플리케이션(423)에 의해 캡처된 비디오는 적어도 객체(503)를 포함하며; 비디오 회의 애플리케이션(425)에 의해 캡처된 비디오는 적어도 객체(505)를 포함한다.
이러한 구현에서, 회의 시스템(431)은 비디오를 분리된 비디오 스트림들 또는 파일들, 또는 집적된 비디오 스트림 또는 파일로서 클라이언트 디바이스(417) 상에서 실행하는 비디오 캡처 애플리케이션(427)에 제공한다. 회의 시스템은 다른 비디오 캡처 애플리케이션(421, 423, 425) 중 하나 또는 모두의 비디오 또는 그 일부를 제공할 수 있음이 이해되어야만 한다. 비디오 회의 애플리케이션(427) 또한 비디오를 캡처할 수 있으며 자신의 캡처된 비디오를 비디오 회의 애플리케이션(421, 423, 425)으로의 배포를 위해서 회의 시스템(431)으로 제공할 수 있음이 이해되어야만 한다.
회의 시스템(431)으로부터 비디오를 수신함에 따라, 비디오 회의 애플리케이션(427)은 수정 프로세스(200)와 같은 수정 프로세스를 적용하며, 그에 따라 객체(501, 503, 505)가 비디오 회의 환경 내에서 렌더링되고 디스플레이되었을 때 객체들과 연관된 디스플레이 공간에 대해 유사한 크기와 비율을 가질 수 있다. 전술된 바와 같이, 수정 프로세스는 객체들(501, 503, 505)의 일부 또는 전부에 대한 증가 또는 감소를 발생시킬 수 있다.
도 10은 도 4에 도시된 비디오 회의 아키텍처(400)와 관련된 다른 동작 시퀀스를 도시한다. 클라이언트 디바이스(411) 상에서 실행하는 비디오 회의 애플리케이션(421)은 비디오를 캡처하여 캡처된 비디오를 회의 시스템(431)으로 전송한다. 유사하게, 클라이언트 디바이스(413) 및 클라이언트 디바이스(415) 상에서 실행하는 비디오 회의 애플리케이션(423) 및 비디오 회의 애플리케이션(425)은 비디오를 캡처하여 캡처된 비디오를 회의 시스템(431)에 전송한다. 비디오 회의 애플리케이션(421)에 의해 캡처된 비디오는 적어도 객체(501)를 포함하고; 비디오 회의 애플리케이션(423)에 의해 캡처된 비디오는 적어도 객체(503)를 포함하며; 비디오 회의 애플리케이션(425)에 의해 캡처된 비디오는 적어도 객체(505)를 포함한다.
이러한 구현에서, 회의 시스템(431)은 수정 프로세스(200)와 같은 수정 프로세스를 적용하며, 그에 따라 객체(501, 503, 505)가 비디오 회의 환경 내에서 렌더링되고 디스플레이될 때 객체들과 연관된 디스플레이 공간들에 대해 유사한 크기와 비율을 가질 수 있다. 전술된 바와 같이, 수정 프로세스는 객체들(501, 503, 505) 중 일부 또는 전부에 대해 증가 또는 감소를 발생시킬 수 있다.
비디오를 수정함에 따라, 회의 시스템(431)은 비디오를 분리된 비디오 스트림들 또는 파일들, 또는 집적된 비디오 스트림 또는 파일로서 클라이언트 디바이스(417) 상에서 실행하는 비디오 회의 애플리케이션(427)에 제공한다. 비디오 회의 애플리케이션(427)은 비디오 회의 환경 내에서 비디오를 렌더링한다. 회의 시스템은 다른 비디오 캡처 애플리케이션(421, 423, 425) 중 하나 또는 전부에 비디오 또는 그 일부를 제공할 수 있음이 이해되어야만 한다. 비디오 회의 애플리케이션(427) 또한 비디오를 캡처하여 캡처된 비디오를 비디오 회의 애플리케이션(421, 423, 425)으로의 배포를 위해 회의 시스템(431)에 제공할 수 있음이 이해되어야만 한다.
도 11은 도 4에 도시된 비디오 회의 아키텍처(400)와 관련한 또 다른 동작 시퀀스를 도시한다. 클라이언트 디바이스(411) 상에서 실행하는 비디오 회의 애플리케이션(421)은 비디오를 캡처하여 캡처된 비디오를 회의 시스템(431)으로 전송한다. 유사하게, 클라이언트 디바이스(413) 및 클라이언트 디바이스(415) 상에서 각각 실행하는 비디오 회의 애플리케이션(423) 및 비디오 회의 애플리케이션(425)이 비디오를 캡처하여 캡처된 비디오를 회의 시스템(431)으로 전송한다. 비디오 회의 애플리케이션(421)에 의해 캡처된 비디오는 적어도 객체(501)를 포함하고; 비디오 회의 애플리케이션(423)에 의해 캡처된 비디오는 적어도 객체(503)를 포함하며; 비디오 회의 애플리케이션(425)에 의해 캡처된 비디오는 적어도 객체(505)를 포함한다.
이러한 구현에서, 회의 시스템(431)은 객체(501, 503, 505)가 수정될 수 있는지 여부 및 어느 정도까지 수정될 수 있는지를 분석하기 위해서 수정 프로세스(200)와 같은 수정 프로세스를 적용한다. 전술된 바와 같이, 수정 프로세스는 객체들(501, 503, 505) 중 일부 또는 전부에 대해 증가 또는 감소를 발생시킬 수 있다. 회의 시스템(431)은 각각의 객체(501, 503, 505)가 어느 정도까지 수정되어야만 하는지를 결정하며, 가능하다면, 비디오 및 수정 명령을 비디오 회의 애플리케이션(427)에 전달한다. 회의 시스템(431)은 비디오를 분리된 비디오 스트림들 또는 파일들, 또는 집적된 비디오 스트림 또는 파일로서 비디오 회의 애플리케이션(427)에 제공할 수 있다.
회의 시스템(431)으로부터 비디오를 수신함에 따라서, 비디오 회의 애플리케이션(427)은 수정 프로세스의 다른 부분을 적용하며, 그에 따라 객체(501, 503, 505)가 비디오 회의 환경 내에서 렌더링되고 디스플레이될 때 객체들과 연관된 디스플레이 공간들에 대해 유사한 크기와 비율을 가질 수 있다. 회의 시스템(431)은 다른 비디오 캡처 애플리케이션(421, 423, 425) 중 하나 또는 전부에 비디오 또는 그 일부를 제공할 수 있음이 이해되어야만 한다. 비디오 회의 애플리케이션(427) 또한 비디오를 캡처하여 캡처된 비디오를 비디오 회의 애플리케이션(421, 423, 425)으로의 배포를 위해 회의 시스템(431)에 제공할 수 있음이 이해되어야만 한다.
간략한 동작상 시나리오에서, 비디오 회의 환경을 용이하게 하기 위한 프로세스는 비디오 회의 내의 제 1 참가자에 상응하는 제 1 객체를 포함하는 제 1 장면이 캡처된 비디오를 수신하는 단계와, 비디오 회의 내의 제 2 참가자에 상응하는 제 2 객체와 연관된 제 2 디스플레이 공간의 제 2 지분에 대한 제 1 객체와 연관된 제 1 디스플레이 공간의 제 1 지분을 포함하는 디스플레이 정보에 기초하여 비디오 회의 환경 내에서의 비디오 디스플레이에 대한 수정을 식별하는 단계와, 비디오 회의 환경 내에서 제 1 비디오의 디스플레이에 대한 수정을 개시하는 단계를 포함한다.
일부 구현들에서, 제 1 비디오의 디스플레이에 대한 수정은 제 1 객체와 연관된 제 1 디스플레이 공간의 제 1 지분과 제 2 객체와 연관된 제 2 디스플레이 공간의 제 2 지분 간의 차이의 감소를 포함한다. 일부 구현들에서, 제 1 비디오의 디스플레이에 대한 수정은 수정을 구현함에 따라 제 1 객체와 연관된 제 1 디스플레이 공간의 제 1 지분이 증가하도록 제 1 객체의 크기를 증가시키는 것을 포함한다. 일부 구현들에서, 제 1 비디오의 디스플레이에 대한 수정은 수정을 구현함에 따라 제 1 객체와 연관된 제 1 디스플레이 공간의 제 1 지분이 감소하도록 제 1 객체의 크기를 감소시키는 것을 포함한다.
일 구현에서, 이러한 프로세스는 또한 비디오의 디스플레이에 대한 수정을 식별하기에 앞서, 비디오 회의 내의 복수의 참가자들에 상응하는 복수의 객체들과 연관될 복수의 디스플레이 공간들 각각의 우선 지분에 대한 표시를 수신하는 단계와, 우선 지분 및 제 2 객체와 연관된 제 2 디스플레이 공간의 초기 제 2 지분에 적어도 부분적으로 기초하여 비디오 회의 환경 내에서의 비디오의 디스플레이에 대한 초기 수정을 식별하는 단계를 더 포함할 수 있다. 이러한 프로세스는 또한 비디오 회의 환경 내에서 비디오의 디스플레이에 대한 초기 수정을 개시하는 단계도 포함할 수 있다.
또 다른 구현에서, 이러한 프로세스는 비디오의 디스플레이에 대한 수정을 식별하기에 앞서, 비디오의 디스플레이에 대한 수정의 식별이 적어도 부분적으로 기초하는 복수의 디스플레이 공간들로부터 제 2 디스플레이 공간의 선택을 수신하는 단계를 포함할 수 있다. 디스플레이 정보는 제 1 객체에 대한 최소 수용가능한 크기 기준을 나타낼 수 있다.
다른 간략한 예시에서, 비디오 회의 환경은 컴퓨팅 시스템에 의해 렌더링될 수 있다. 컴퓨팅 시스템은 비디오 회의 내의 참가자들에 상응하는 객체들을 포함하는 장면들을 캡처한 비디오를 수신한다. 비디오 회의 애플리케이션을 실행하는 컴퓨팅 시스템은, 객체들 각각이 차지할 복수의 디스플레이 공간들 각각의 적어도 타겟 지분을 나타내는 입력을 수신하도록 구성된 상호작용 지분 그래픽을 생성 및 디스플레이한다. 컴퓨팅 시스템은 객체들 각각이 차지하는 복수의 디스플레이 공간들 각각의 지분 및 타겟 지분을 포함하는 디스플레이 정보에 기초하여 비디오의 적어도 일부분을 수정한다. 비디오의 적어도 일부분을 수정함에 따라, 컴퓨팅 시스템은 비디오 회의 환경 내에서 비디오를 디스플레이한다.
일부 구현들에서, 상호작용 지분 그래픽은 제 1 프레젠테이션 컨텍스트 및 제 2 프레젠테이션 컨텍스트의 그래픽 표현일 수 있고, 입력은 제 1 프레젠테이션 컨텍스트 및 제 2 프레젠테이션 컨텍스트 중 하나의 선택일 수 있다. 일부 구현들에서, 제 1 프레젠테이션 컨텍스트는 착석된(seated) 프레젠테이션 컨텍스트이고 제 2 프레젠테이션 컨텍스트는 스탠딩(standing) 프레젠테이션 컨텍스트이다.
도면에 제공된 기능적 블록 다이어그램, 동작 시퀀스 및 순서도는 본 발명의 신규한 측면들을 수행하기 위한 예시적인 아키텍처, 환경 및 방법론을 나타낸다. 설명을 단순화를 위해서 본 명세서에 포함된 방법론이 기능적 다이어그램, 동작 시퀀스, 또는 순서도의 형태일 수 있으며 일련의 동작들로서 기술될 수 있지만, 이러한 방법론이 동작들의 순서에 의해 제한되지 않으며, 일부 동작들이 본 명세서에 도시되고 기술된 것과 다른 순서로 및/또는 다른 동작들과 동시에 발생할 수 있음을 이해해야 한다. 예를 들어, 당업자는 방법론이 상태 다이어그램에서와 같은 일련의 상호관련된 상태 또는 이벤트들로서 나타내어질 수 있음을 이해할 것이다. 또한, 방법론에서 설명된 모든 동작들이 신규한 구현을 위해 필요한 것은 아닐 수 있다.
포함된 설명 및 도면은 본 발명이 실행 및 사용될 수 있는 최상의 모드를 당업자에게 가르치기 위한 특정한 구현을 도시한다. 발명의 원리를 가르치기 위해서, 일부 종래의 측면들이 간략화되거나 생략되었다. 당업자는 본 발명의 범주에 포함되는 이들 구현으로부터의 변형들을 인식할 것이다. 또한 당업자는 전술된 특성들이 복수의 구현을 형성하기 위해서 다양한 방식으로 결합될 수 있음을 인식할 것이다. 결과적으로, 본 발명은 전술된 특정한 구현들로 한정되지 않으며, 특허청구범위 및 그들의 동등물에 의해서만 한정된다.

Claims (17)

  1. 컴퓨팅 시스템으로서,
    하나 이상의 컴퓨터 판독가능 저장 매체와,
    상기 하나 이상의 컴퓨터 판독가능 저장 매체에 동작 가능하게 연결된 프로세싱 시스템과,
    비디오 회의를 가능하게 하기 위해 상기 하나 이상의 컴퓨터 판독가능 저장 매체에 저장된 프로그램 명령어
    를 포함하되,
    상기 프로그램 명령어는, 상기 프로세싱 시스템에 의해 실행될 때, 상기 프로세싱 시스템으로 하여금 적어도,
    상기 비디오 회의의 제 1 참가자에 대응하는 제 1 객체를 포함하는 제 1 장면을 캡처한 비디오를 수신하고,
    상기 비디오 회의의 제 2 참가자에 대응하는 제 2 객체를 포함하는 제 2 장면을 캡처한 비디오를 수신하고,
    상기 제 1 장면을 캡처한 비디오 및 상기 제 2 장면을 캡처한 비디오를 상기 비디오 회의에서 동시에 디스플레이하고,
    상기 비디오 회의에서 디스플레이되는 상기 제 1 객체의 크기를 상기 제 2 객체의 크기와 동일하게 하기 위해 상기 제 1 장면을 캡처한 비디오에 대해 수행할 줌 동작을 식별하고,
    상기 제 1 장면을 캡처한 비디오에 대해 줌 동작을 수행하여, 상기 제 1 객체가 차지한 제 1 디스플레이 공간의 제 1 지분(share)과 상기 제 2 객체가 차지한 제 2 디스플레이 공간의 제 2 지분 간의 차이를 이들이 동일하게 될 때까지 감소시키도록 지시하는
    컴퓨팅 시스템.
  2. 제 1 항에 있어서,
    상기 줌 동작은 디스플레이 정보에 기초하며, 상기 디스플레이 정보는 상기 제 1 객체에 대한 최소 허용 가능한 크기 기준을 더 포함하는
    컴퓨팅 시스템.
  3. 제 2 항에 있어서,
    상기 줌 동작은 상기 제 1 객체에 대한 줌 인(zoom-in)을 포함하는
    컴퓨팅 시스템.
  4. 제 2 항에 있어서,
    상기 줌 동작은 상기 제 1 객체에 대한 줌 아웃(zoom-out)을 포함하는
    컴퓨팅 시스템.
  5. 제 1 항에 있어서,
    상기 프로그램 명령어는, 상기 프로세싱 시스템에 의해 실행될 때, 상기 프로세싱 시스템으로 하여금,
    상기 줌 동작을 식별하기 전에, 상기 비디오 회의에서 복수의 참가자에 대응하는 복수의 객체가 차지할 복수의 디스플레이 공간 각각의 우선 지분(preferred share)의 표시를 수신하고,
    상기 제 2 객체가 차지한 상기 제 2 디스플레이 공간의 초기 제 2 지분 및 상기 우선 지분에 적어도 부분적으로 기초하여 초기 줌 동작을 식별하고,
    상기 초기 줌 동작을 개시하도록 더 지시하는
    컴퓨팅 시스템.
  6. 제 1 항에 있어서,
    상기 프로그램 명령어는 상기 프로세싱 시스템에 의해 실행될 때, 상기 프로세싱 시스템으로 하여금
    상기 줌 동작을 식별하기 전에, 상기 줌 동작의 식별이 적어도 부분적으로 기초하는 복수의 디스플레이 공간으로부터 상기 제 2 디스플레이 공간의 선택을 수신하도록 더 지시하는
    컴퓨팅 시스템.
  7. 비디오 회의를 가능하게 하는 방법으로서,
    상기 비디오 회의의 제 1 참가자에 대응하는 제 1 객체를 포함하는 제 1 장면을 캡처한 비디오를 수신하는 단계와,
    상기 비디오 회의의 제 2 참가자에 대응하는 제 2 객체를 포함하는 제 2 장면을 캡처한 비디오를 수신하는 단계와,
    상기 비디오 회의에서 상기 제 1 장면을 캡처한 비디오와 상기 제 2 장면을 캡처한 비디오를 동시에 디스플레이하는 단계와,
    상기 비디오 회의에서 디스플레이되는 상기 제 1 객체의 크기를 상기 제 2 객체의 크기와 동일하게 하기 위해 상기 제 1 장면을 캡처한 비디오에 대해 수행할 줌 동작을 식별하는 단계와,
    상기 제 1 장면을 캡처한 비디오에 대해 상기 줌 동작을 수행하여, 상기 제 1 객체가 차지한 제 1 디스플레이 공간의 제 1 지분과 상기 제 2 객체가 차지한 제 2 디스플레이 공간의 제 2 지분 간의 차이를 이들이 동일하게 될 때까지 감소시키는 단계
    를 포함하는
    비디오 회의를 가능하게 하는 방법.
  8. 제 7 항에 있어서,
    상기 줌 동작은 상기 제 1 객체에 대한 줌 인을 포함하는
    비디오 회의를 가능하게 하는 방법.
  9. 제 7 항에 있어서,
    상기 줌 동작은 상기 제 1 객체에 대한 줌 아웃을 포함하는
    비디오 회의를 가능하게 하는 방법.
  10. 제 8 항에 있어서,
    상기 줌 동작을 식별하기 전에, 상기 비디오 회의에서의 복수의 참가자에 대응하는 복수의 객체가 차지할 복수의 디스플레이 공간들 각각의 우선 지분(preferred share)의 표시를 수신하는 단계와,
    상기 제 2 객체가 차지한 상기 제 2 디스플레이 공간의 초기 제 2 지분에 적어도 부분적으로 기초하여 초기 줌 동작을 식별하는 단계와,
    상기 초기 줌 동작을 개시하는 단계
    를 더 포함하는
    비디오 회의를 가능하게 하는 방법.
  11. 제 7 항에 있어서,
    상기 줌 동작을 식별하기 전에, 상기 줌 동작의 식별이 적어도 부분적으로 기초하는 복수의 디스플레이 공간으로부터 상기 제 2 디스플레이 공간의 선택을 수신하는 단계를 더 포함하는
    비디오 회의를 가능하게 하는 방법.
     
  12. 제 7 항에 있어서,
    상기 줌 동작은 디스플레이 정보에 기초하고, 상기 디스플레이 정보는 상기 제 1 객체에 대한 최소 허용 가능한 크기 기준을 더 포함하는
    비디오 회의를 가능하게 하는 방법.
  13. 비디오 회의 시스템을 동작시키는 방법으로서,
    비디오 회의의 제 1 참가자에 대응하는 제 1 객체를 포함하는 제 1 장면을 캡처한 비디오를 수신하는 단계와,
    상기 비디오 회의의 제 2 참가자에 대응하는 제 2 객체를 포함하는 제 2 장면을 캡처한 비디오를 수신하는 단계와,
    상기 제 1 장면을 캡처한 비디오에 대해 수행할 줌 동작을 식별하여, 상기 비디오 회의에서 디스플레이되는 상기 제 1 객체의 크기를 상기 제 2 객체의 크기와 동일하게 하는 단계와,
    비디오 회의 환경에서 디스플레이될 상기 제 1 장면의 비디오 및 상기 제 2 장면의 비디오를 전송하는 단계와,
    상기 제 1 객체가 차지한 제 1 디스플레이 공간의 제 1 지분과 상기 제 2 객체가 차지한 제 2 디스플레이 공간의 제 2 지분 간의 차이를 줄이기 위해 이들이 동일해질 때까지 상기 제 1 장면을 캡쳐한 비디오에 대해 줌 동작을 수행하도록 상기 비디오 회의 환경에게 지시하는 단계
    를 포함하는
    비디오 회의 시스템을 동작시키는 방법.
  14. 제 13 항에 있어서,
    상기 줌 동작은 상기 제 1 객체에 대한 줌 인을 포함하는
    비디오 회의 시스템을 동작시키는 방법.
  15. 제 13 항에 있어서,
    상기 줌 동작은 상기 제 1 객체에 대한 줌 아웃을 포함하는
    비디오 회의 시스템을 동작시키는 방법.
  16. 제 7 항에 있어서,
    상기 줌 동작을 식별하기 전에, 상기 비디오 회의의 복수의 참가자에 대응하는 복수의 객체가 차지할 복수의 디스플레이 공간 각각의 우선 지분의 표시를 수신하는 단계와,
    상기 제 2 객체가 차지한 상기 제 2 디스플레이 공간의 초기 제 2 지분 및 상기 우선 지분에 적어도 부분적으로 기초하여 초기 줌 동작을 식별하는 단계와,
    상기 비디오 회의 환경에 상기 초기 줌 동작을 수행하도록 지시하는 단계
    를 더 포함하는
    비디오 회의를 가능하게 하는 방법.
  17. 제 7 항에 있어서,
    상기 줌 동작을 식별하기 전에, 상기 줌 동작의 식별이 적어도 부분적으로 기초하는 복수의 디스플레이 공간으로부터 상기 제 2 디스플레이 공간의 선택을 수신하는 단계
    를 더 포함하는
    비디오 회의를 가능하게 하는 방법.
KR1020157000848A 2012-07-13 2013-07-10 비디오 회의 환경을 위한 비디오 디스플레이 수정 기법 KR102089439B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US13/548,438 2012-07-13
US13/548,438 US9876988B2 (en) 2012-07-13 2012-07-13 Video display modification for video conferencing environments
PCT/US2013/049821 WO2014011709A2 (en) 2012-07-13 2013-07-10 Video display modification for video conferencing environments

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020207006940A Division KR102201659B1 (ko) 2012-07-13 2013-07-10 비디오 환경을 위한 비디오 디스플레이 수정 기법

Publications (2)

Publication Number Publication Date
KR20150036060A KR20150036060A (ko) 2015-04-07
KR102089439B1 true KR102089439B1 (ko) 2020-03-16

Family

ID=48795971

Family Applications (2)

Application Number Title Priority Date Filing Date
KR1020207006940A KR102201659B1 (ko) 2012-07-13 2013-07-10 비디오 환경을 위한 비디오 디스플레이 수정 기법
KR1020157000848A KR102089439B1 (ko) 2012-07-13 2013-07-10 비디오 회의 환경을 위한 비디오 디스플레이 수정 기법

Family Applications Before (1)

Application Number Title Priority Date Filing Date
KR1020207006940A KR102201659B1 (ko) 2012-07-13 2013-07-10 비디오 환경을 위한 비디오 디스플레이 수정 기법

Country Status (6)

Country Link
US (2) US9876988B2 (ko)
EP (1) EP2862351A2 (ko)
JP (1) JP6309004B2 (ko)
KR (2) KR102201659B1 (ko)
CN (1) CN104471928B (ko)
WO (1) WO2014011709A2 (ko)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9876988B2 (en) * 2012-07-13 2018-01-23 Microsoft Technology Licensing, Llc Video display modification for video conferencing environments
US20150338940A1 (en) * 2014-05-23 2015-11-26 Microsoft Technology Licensing, Llc Pen Input Modes for Digital Ink
US11985000B2 (en) * 2018-12-10 2024-05-14 Microsoft Technology Licensing, Llc Dynamic curation of sequence events for communication sessions
CN112256221A (zh) * 2020-10-20 2021-01-22 北京字跳网络技术有限公司 信息显示方法、装置和电子设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251355A (ja) * 2006-03-14 2007-09-27 Fujifilm Corp 対話システム用中継装置、対話システム、対話方法
JP2010171695A (ja) * 2009-01-22 2010-08-05 Nippon Telegr & Teleph Corp <Ntt> テレビ会議装置および表示撮像方法
JP2010171690A (ja) * 2009-01-22 2010-08-05 Nippon Telegr & Teleph Corp <Ntt> テレビ会議システムおよび映像通信方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6608636B1 (en) * 1992-05-13 2003-08-19 Ncr Corporation Server based virtual conferencing
US5872923A (en) * 1993-03-19 1999-02-16 Ncr Corporation Collaborative video conferencing system
US7124355B1 (en) * 2000-09-27 2006-10-17 Intel Corporation Persistency control in an information browser
US7149367B2 (en) 2002-06-28 2006-12-12 Microsoft Corp. User interface for a system and method for head size equalization in 360 degree panoramic images
US7480872B1 (en) * 2003-04-06 2009-01-20 Apple Inc. Method and apparatus for dynamically resizing windows
KR100739173B1 (ko) * 2005-03-16 2007-07-13 엘지전자 주식회사 영상통화 중 영상 생성 방법 및 그 장치
US7554571B1 (en) * 2005-03-18 2009-06-30 Avaya Inc. Dynamic layout of participants in a multi-party video conference
US7830409B2 (en) * 2005-03-25 2010-11-09 Cherng-Daw Hwang Split screen video in a multimedia communication system
US7801330B2 (en) 2005-06-24 2010-09-21 Objectvideo, Inc. Target detection and tracking from video streams
US7576766B2 (en) * 2005-06-30 2009-08-18 Microsoft Corporation Normalized images for cameras
IL173210A0 (en) 2006-01-17 2007-03-08 Rafael Advanced Defense Sys Biometric facial surveillance system
JP2008236679A (ja) 2007-03-23 2008-10-02 Sony Corp テレビ会議装置、制御方法、およびプログラム
JP2008294815A (ja) * 2007-05-25 2008-12-04 Oki Electric Ind Co Ltd 情報端末装置
BRPI0910213A2 (pt) 2008-06-30 2015-09-22 Hewlett Packard Development Co computador para uma reunião virtual, método para prover um serviço de leiaute comum de reunião virtual e servidor hospedeiro para videoconferência
NO329897B1 (no) 2008-12-19 2011-01-24 Tandberg Telecom As Fremgangsmate for raskere ansiktsdeteksjon
AU2008264173A1 (en) 2008-12-23 2010-07-08 Canon Kabushiki Kaisha Splitting a single video stream into multiple viewports based on face detection
US8237771B2 (en) 2009-03-26 2012-08-07 Eastman Kodak Company Automated videography based communications
US8711198B2 (en) 2009-06-04 2014-04-29 Hewlett-Packard Development Company, L.P. Video conference
NO331338B1 (no) * 2009-06-24 2011-11-28 Cisco Systems Int Sarl Fremgangsmate og anordning for endring av en videokonferanse-layout
JP2011023886A (ja) 2009-07-14 2011-02-03 Panasonic Corp テレビ会議装置及び映像表示処理方法
US8941706B2 (en) * 2010-04-07 2015-01-27 Apple Inc. Image processing for a dual camera mobile device
US9876988B2 (en) * 2012-07-13 2018-01-23 Microsoft Technology Licensing, Llc Video display modification for video conferencing environments

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007251355A (ja) * 2006-03-14 2007-09-27 Fujifilm Corp 対話システム用中継装置、対話システム、対話方法
JP2010171695A (ja) * 2009-01-22 2010-08-05 Nippon Telegr & Teleph Corp <Ntt> テレビ会議装置および表示撮像方法
JP2010171690A (ja) * 2009-01-22 2010-08-05 Nippon Telegr & Teleph Corp <Ntt> テレビ会議システムおよび映像通信方法

Also Published As

Publication number Publication date
JP6309004B2 (ja) 2018-04-11
KR20150036060A (ko) 2015-04-07
US9876988B2 (en) 2018-01-23
JP2015527818A (ja) 2015-09-17
US20180109759A1 (en) 2018-04-19
US20140019883A1 (en) 2014-01-16
KR102201659B1 (ko) 2021-01-11
EP2862351A2 (en) 2015-04-22
WO2014011709A2 (en) 2014-01-16
WO2014011709A3 (en) 2014-06-26
CN104471928A (zh) 2015-03-25
KR20200029062A (ko) 2020-03-17
CN104471928B (zh) 2018-06-19
US10531046B2 (en) 2020-01-07

Similar Documents

Publication Publication Date Title
US9686497B1 (en) Video annotation and dynamic video call display for multi-camera devices
US9930270B2 (en) Methods and apparatuses for controlling video content displayed to a viewer
US9167009B2 (en) Presenting data to electronic meeting participants
US10061467B2 (en) Presenting a message in a communication session
US9185150B2 (en) System and method for monitoring and selectively sharing an image in an image library
CN107003666B (zh) 多视点内容捕获和组合
US11470127B2 (en) Method, system, and non-transitory computer-readable record medium for displaying reaction during VoIP-based call
US20160180593A1 (en) Wearable device-based augmented reality method and system
US9509741B2 (en) Snapshot capture for a communication session
US10531046B2 (en) Video display modification for video environments
CN111937375A (zh) 利用补充内容修改视频流以用于视频会议
US20180123816A1 (en) Collaboration environments and views
CN112243583A (zh) 多端点混合现实会议
US10084987B2 (en) Remote control of distributed video presentations on a plurality of viewer systems
WO2011137277A2 (en) Systems, methods, and computer programs for controlling presentation views in an online conference
US9270713B2 (en) Mechanism for compacting shared content in collaborative computing sessions
US10917608B1 (en) Dynamically controlled aspect ratios based on a number of participants depicted in communication video streams
US8861704B2 (en) Systems, methods, and computer programs for transitioning from a phone-only mode to a web conference mode
US9628757B2 (en) Dynamic communication portal between locations
US10848712B1 (en) User-defined media source synchronization
EP4081901A1 (en) Dynamically controlled aspect ratios for communication session video streams
US9445052B2 (en) Defining a layout for displaying images
US11893541B2 (en) Meeting and collaborative canvas with image pointer
US20140173528A1 (en) Contact environments with dynamically created option groups and associated command options

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
A107 Divisional application of patent
GRNT Written decision to grant