KR102327571B1 - 영상 통화 데이터의 디스플레이 - Google Patents

영상 통화 데이터의 디스플레이 Download PDF

Info

Publication number
KR102327571B1
KR102327571B1 KR1020167031704A KR20167031704A KR102327571B1 KR 102327571 B1 KR102327571 B1 KR 102327571B1 KR 1020167031704 A KR1020167031704 A KR 1020167031704A KR 20167031704 A KR20167031704 A KR 20167031704A KR 102327571 B1 KR102327571 B1 KR 102327571B1
Authority
KR
South Korea
Prior art keywords
user
display
user interface
interface window
additional users
Prior art date
Application number
KR1020167031704A
Other languages
English (en)
Other versions
KR20160144479A (ko
Inventor
알렉스 우스베르고
다니엘 피찌코니
앤드류 클리포드 와싱
Original Assignee
마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 filed Critical 마이크로소프트 테크놀로지 라이센싱, 엘엘씨
Publication of KR20160144479A publication Critical patent/KR20160144479A/ko
Application granted granted Critical
Publication of KR102327571B1 publication Critical patent/KR102327571B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Telephonic Communication Services (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

디스플레이; 디바이스의 사용자와 적어도 하나의 추가적인 사용자 간의 영상 통화 동안 디바이스와 네트워크 간에 영상 데이터를 교환하도록 구성된 인터페이스; 적어도 하나의 추가적인 사용자의 추가적인 사용자와 각각 연관된 적어도 하나의 디스플레이 엘리먼트를 식별하는 정보를 저장한 메모리; 및 영상 통화 동안에 클라이언트 애플리케이션을 구동시키도록 구성된 프로세서를 포함하는 디바이스로서, 상기 클라이언트 애플리케이션은, 디스플레이 상의 제1 UI 윈도우 내에, 수신된 영상을 디스플레이하고; 적어도 하나의 디스플레이 엘리먼트의 디스플레이 엘리먼트를 포함한 제2 UI 윈도우로 네비게이팅하려는 사용자를 검출하고; 수신된 영상의 디스플레이를 위한 위치를 결정하기 위해 상기 메모리에 질의하며; 이에 응답하여, 제2 UI 윈도우를 디스플레이하고, 제2 사용자 인터페이스 윈도우의 디스플레이 엘리먼트와 연관된 추가적인 사용자로부터 수신된 영상을 제어하여 이 영상이 디스플레이 엘리먼트의 위치에서 디스플레이되게 하도록 동작가능하도록 구성된다.

Description

영상 통화 데이터의 디스플레이{DISPLAYING VIDEO CALL DATA}
본 발명은 영상 통화 데이터의 디스플레이에 관한 것이다.
패킷 기반 통신 시스템은 개인 컴퓨터와 같은, 디바이스의 사용자로 하여금 인터넷 프로토콜(Internet Protocol; IP)과 같은 패킷 프로토콜을 이용하여 컴퓨터 네트워크에 걸쳐 통신하도록 해준다. 패킷 기반 통신 시스템은 다양한 유형들의 통신 이벤트들을 위해 이용될 수 있다. 구축될 수 있는 통신 이벤트들은 음성 통화, 영상 통화, 인스턴트 메시징, 음성 메일, 파일 전송, 및 기타 등등을 포함한다. 이러한 시스템들은 종종 고정선 또는 모바일 네트워크들보다 비용이 매우 낮기 때문에 사용자에게 이롭다. 이것은 장거리 통신인 경우에 특히 잘 들어맞을 수 있다. 패킷 기반 시스템을 이용하기 위해, 사용자는 각자의 디바이스 상에 클라이언트 소프트웨어를 설치해서 실행시킨다. 클라이언트 소프트웨어는 패킷 기반 연결들뿐만이 아니라, 등록 및 인증과 같은 다른 기능들을 제공한다.
통신 시스템은 디바이스들의 사용자들로 하여금 인터넷과 같은 컴퓨터 네트워크에 걸쳐 통신하도록 해준다. 구축될 수 있는 통신 이벤트들은 음성 통화, 영상 통화, 인스턴트 메시징, 음성 메일, 파일 전송, 및 기타 등등을 포함한다. 영상 통화로 인해, 발신자들은 음성 정보에 더하여 상대방의 영상 이미지들을 바라볼 수 있다. 이것은, 얼굴 표현들이 또한 전달되므로, 당사자들 간에 훨씬 더 자연스러운 통신을 가능하게 함으로써, 영상 통화를 대면 대화(face-to-face conversation)에 더욱 비슷하게 만든다.
영상 통화 동안, 디바이스 상에서 실행된 클라이언트 소프트웨어는 수신된 영상 데이터를, 디바이스의 디스플레이 상의 사용자 인터페이스 윈도우(예컨대, 메인 영상 프리젠테이션 스크린)에서 디스플레이한다.
본 발명자들은 알려져 있는 영상 통화들에서의 문제점들을 인식해 왔다. 특히, 디바이스의 사용자가 메인 영상 프리젠테이션 스크린을 벗어나서 네비게이팅할 때, 알려져 있는 솔루션들은 수신된 영상을, 스크린 상에서의 메인 뷰와 오버레이된 플로우팅 윈도우에서 랜더링하는데, 이 경우, 윈도우의 위치는 사용자가 스크린 상에서 바라보기를 원하는 UI 엘리먼트의 사용자 뷰를 가로막을 수 있다. 이것은 이용가능한 스크린 크기가 일반적으로 제한되어 있는 모바일 디바이스들에서 특히 문제가 된다. 알려져 있는 솔루션들은 또한, 다자간 영상 통화 동안, 플로우팅 윈도우가 활성화된 화자로부터 수신된 영상 데이터만을 디스플레이할 것이라는 점에서 제한적이다.
본 발명개시의 일 양태에 따르면, 사용자 디바이스가 제공되며, 이 사용자 디바이스는, 디스플레이; 상기 사용자 디바이스의 사용자와 적어도 하나의 추가적인 사용자 간의 영상 통화 동안 상기 사용자 디바이스와 통신 네트워크 간에 영상 데이터를 송신 및 수신하도록 구성된 네트워크 인터페이스; 상기 적어도 하나의 추가적인 사용자의 추가적인 사용자와 각각 연관된 적어도 하나의 디스플레이 엘리먼트를 식별하는 정보를 저장한 메모리; 및 상기 영상 통화 동안에, 상기 디스플레이 상의 제1 사용자 인터페이스 윈도우 내에, 수신된 영상 데이터를 디스플레이하고; 상기 적어도 하나의 디스플레이 엘리먼트의 디스플레이 엘리먼트를 포함한 제2 사용자 인터페이스 윈도우로 네비게이팅하려는 상기 사용자 디바이스의 사용자에 의한 선택 입력을 검출하며; 상기 수신된 영상 데이터의 디스플레이를 위한 위치를 결정하기 위해 상기 메모리에 질의하고, 상기 질의에 응답하여, 상기 디스플레이 상에 상기 제2 사용자 인터페이스 윈도우를 디스플레이하고, 상기 제2 사용자 인터페이스 윈도우의 상기 디스플레이 엘리먼트와 연관된 상기 추가적인 사용자로부터 수신된 영상 데이터를 제어하여 이 영상 데이터가 상기 디스플레이 엘리먼트의 위치에서 디스플레이되게 하도록 동작가능한 통신 클라이언트 애플리케이션을 구동시키도록 구성된 하나 이상의 프로세서들을 포함한다.
본 발명개시의 추가적인 양태에 따르면, 사용자 디바이스에서 구현되는 방법이 제공되며, 본 방법은, 상기 사용자 디바이스의 네트워크 인터페이스를 통해 적어도 하나의 추가적인 사용자와의 영상 통화 동안 통신 네트워크를 통해 상기 적어도 하나의 추가적인 사용자로부터 영상 데이터를 수신하는 단계; 상기 사용자 디바이스의 디스플레이 상의 제1 사용자 인터페이스 윈도우 내에, 수신된 영상 데이터를 디스플레이하는 단계; 상기 적어도 하나의 추가적인 사용자의 추가적인 사용자와 연관된 디스플레이 엘리먼트를 포함한 제2 사용자 인터페이스 윈도우로 네비게이팅하려는 상기 사용자 디바이스의 사용자에 의한 선택 입력을 검출하는 단계; 상기 적어도 하나의 추가적인 사용자의 추가적인 사용자와 각각 연관된 적어도 하나의 디스플레이 엘리먼트를 식별하는 정보를 저장한 메모리에 질의하고, 상기 질의에 응답하여, 상기 디스플레이 상에 상기 제2 사용자 인터페이스 윈도우를 디스플레이하고, 상기 제2 사용자 인터페이스 윈도우의 상기 디스플레이 엘리먼트와 연관된 상기 추가적인 사용자로부터 수신된 영상 데이터를 제어하여 이 영상 데이터가 상기 디스플레이 엘리먼트의 위치에서 디스플레이되게 하는 단계를 포함한다. 디스플레이 엘리먼트는 그래픽 이미지일 수 있다.
본 발명개시의 다른 양태에 따르면, 컴퓨터 프로그램 제품이 제공되며, 컴퓨터 프로그램 제품은 컴퓨터로 판독가능한 비일시적 매체 상에 포함되고, 사용자 디바이스의 사용자와 적어도 하나의 추가적인 사용자 간의 영상 통화 동안 상기 사용자 디바이스의 프로세서 상에서 실행될 때, 본 명세서에서 설명된 임의의 방법들을 수행하도록 구성된다.
본 요약은 아래의 상세한 설명에서 보다 상세하게 설명되는 개념들의 선택을 단순한 형태로 소개하기 위해 제공된 것이다. 본 요약은 청구된 발명내용의 중요한 특징들 또는 필수적인 특징들을 식별시키려는 의도는 없으며, 또한 청구된 발명내용의 범위를 제한시키려는 의도도 없다.
본 발명개시의 보다 나은 이해를 위해, 그리고 본 발명개시가 실시될 수 있는 방법을 보여주기 위해, 이제부터 다음의 도면들을 예로서 참조할 것이다.
도 1은 통신 시스템을 도시한다.
도 2는 사용자 단말기의 개략도를 도시한다.
도 3은 수신된 영상 통화 데이터를 디스플레이하는 프로세스에 대한 흐름도이다.
도 4는 수신된 영상 통화 데이터를 제1 사용자 인터페이스 윈도우 내에 디스플레이하는 사용자 단말기를 나타낸다.
도 5는 수신된 영상 통화 데이터를 제2 사용자 인터페이스 윈도우 내에 디스플레이하는 사용자 단말기를 나타낸다.
도 6은 수신된 영상 통화 데이터를 제2 사용자 인터페이스 윈도우 내에 디스플레이하는 사용자 단말기를 나타낸다.
도 7은 수신된 영상 통화 데이터를 제2 사용자 인터페이스 윈도우 내에 디스플레이하는 사용자 단말기를 나타낸다.
도 1은 사용자 단말기(102)와 연관된 제1 사용자(104)(사용자 A)와 사용자 단말기(108)와 연관된 제2 사용자(110)(사용자 B)를 포함한 통신 시스템(100)을 도시한다. 사용자 단말기들(102, 108)은 통신 시스템(100) 내의 통신 네트워크(106)를 통해 통신할 수 있어서, 사용자들(104, 110)이 통신 네트워크(106)를 통해 서로 통신할 수 있도록 해줄 수 있다. 통신 네트워크(106)는 사용자 단말기(102)와 제2 사용자 단말기(108) 사이에 통신 채널을 제공하는 능력을 갖는 임의의 적절한 네트워크일 수 있다. 예를 들어, 통신 네트워크(106)는 인터넷, 또는 3세대("3G") 모바일 네트워크와 같은, 고속 데이터율 모바일 네트워크와 같은 다른 유형의 네트워크일 수 있다.
대안적인 실시예들에서, 사용자 단말기들은 도 1에서 도시되지 않은 추가적인 매개 네트워크를 통해 통신 네트워크(106)에 연결될 수 있다는 것을 유념한다. 예를 들어, 사용자 단말기(102)가 모바일 디바이스인 경우, 이것은 셀룰러 모바일 네트워크(도 1에서는 미도시됨), 예컨대, GSM 또는 UMTS 네트워크를 통해 통신 네트워크(106)에 연결될 수 있다.
사용자 단말기(102)는, 예컨대, 모바일 폰, 개인 보조 단말기("PDA"), 개인 컴퓨터("PC")(예컨대, Windows™, Mac OS™ 및 Linux™ PC들을 포함함), 태블릿 컴퓨터, 게이밍 디바이스, 또는 통신 네트워크(106)에 연결될 수 있는 다른 임베디드 디바이스일 수 있다. 사용자 단말기(102)는 사용자 A(104)로부터 정보를 수신하고 사용자 A(104)에게 정보를 출력하도록 배열된다.
사용자 단말기(102)는 통신 시스템(100)과 연관된 소프트웨어 제공자에 의해 제공된 통신 클라이언트 애플리케이션(112)을 실행한다. 통신 클라이언트 애플리케이션(112)은 사용자 단말기(102) 내 로컬 프로세서 상에서 실행되는 소프트웨어 프로그램이다. 통신 클라이언트 애플리케이션(112)은, 사용자 단말기(102)가 통신 시스템(100)을 통해 데이터를 송신 및 수신하도록, 사용자 단말기(102)에서 필요한 프로세싱을 수행한다. 사용자 단말기(102)에서 실행되는 통신 클라이언트 애플리케이션(112)은 디지털 인증서들의 프리젠테이션을 통해(예컨대, 사용자(104)가 통신 시스템의 진정한 가입자라는 것을 증명하도록)(이에 대해서는 WO 2005/009019에서 보다 자세하게 기술됨) 통신 시스템을 이용하여 통신하기 위해 인증될 수 있다.
사용자 단말기(108)는 사용자 단말기(102)에 대응할 수 있다. 사용자 단말기(108)는, 로컬 프로세서 상에서, 사용자 단말기(102)에서 실행되는 통신 클라이언트 애플리케이션(112)에 대응하는 통신 클라이언트 애플리케이션(114)을 실행한다. 사용자 A(104)가 네트워크(106)를 통해 통신할 수 있도록 해주기 위해 필요한 프로세싱을 사용자 단말기(102)에서의 통신 클라이언트 애플리케이션(112)이 수행하는 것과 같은 방식으로 사용자 단말기(108)에서의 통신 클라이언트 애플리케이션(114)은 사용자(110)가 네트워크(106)를 통해 통신할 수 있도록 해주기 위해 필요한 프로세싱을 수행한다. 사용자 단말기들(102, 108)은 통신 시스템 내에서의 최종점들이다. 도 1은 명료화를 위해 두 명의 사용자들(104, 110)과 두 개의 사용자 단말기들(102, 108)만을 도시하지만, 본 업계에서 알려진 바와 같이, 더 많은 사용자들과 사용자 디바이스들이 통신 시스템(100) 내에 포함될 수 있으며, 각각의 사용자 디바이스들 상에서 실행되는 각각의 통신 클라이언트들을 이용하여 통신 시스템(100)을 통해 통신할 수 있다.
도 2는 통신 시스템(100)을 통해 통신하기 위해 통신 클라이언트 애플리케이션이 실행되는 사용자 단말기(102)의 상세도를 나타낸다. 사용자 단말기(102)는 중앙 처리 장치("CPU")(202)를 포함하며, 이 중앙 처리 장치("CPU")(202)에는 스크린 또는 터치 스크린과 같은 디스플레이(204), 키패드(206)와 같은 입력 디바이스들, 카메라(208) 및 터치 스크린(204)이 연결된다. 오디오 출력 디바이스(210)(예컨대, 스피커) 및 오디오 입력 디바이스(212)(예컨대, 마이크로폰)가 CPU(202)에 연결된다. 디스플레이(204), 키패드(206), 카메라(208), 오디오 출력 디바이스(210) 및 오디오 입력 디바이스(212)는 도 2에서 도시된 바와 같이 사용자 단말기(102) 내로 통합될 수 있다. 대안적인 사용자 단말기들에서, 디스플레이(204), 키패드(206), 카메라(208), 오디오 출력 디바이스(210) 및 오디오 입력 디바이스(212) 중 하나 이상은 사용자 단말기(102) 내에 통합되지 않을 수 있으며, 각각의 인터페이스들을 통해 CPU(202)에 연결될 수 있다. 이러한 인터페이스의 일례는 USB 인터페이스이다. CPU(202)는 통신 네트워크(106)와의 통신을 위한 모뎀과 같은 네트워크 인터페이스(224)에 연결된다. 네트워크 인터페이스(224)는 도 2에서 도시된 바와 같이 사용자 단말기들(102) 내에 통합될 수 있다. 대안적인 사용자 단말기들에서, 네트워크 인터페이스(224)는 사용자 단말기(102) 내에 통합되지 않는다. 사용자 단말기(102)는 또한 본 업계에서 알려져 있는 바와 같이 데이터를 저장하기 위한 메모리(226)를 포함한다. 메모리(226)는 ROM과 같은 영구적 메모리일 수 있다. 이와 달리, 메모리(226)는 RAM과 같은 일시적 메모리일 수 있다.
통신 클라이언트 애플리케이션(112)이 메모리(226) 내에 저장되고 CPU(202) 상에서의 실행을 위해 배열되도록, 사용자 단말기(102)에는 통신 클라이언트 애플리케이션(112)이 설치된다. 도 2는 또한 CPU(202) 상에서 실행되는 운영체제("OS")(214)를 나타낸다. OS(214)의 최상부 상에서는 위에서 언급한 통신 클라이언트 애플리케이션(112)을 위한 소프트웨어 스택(216)이 구동 중에 있다. 소프트웨어 스택은 I/O층(218), 클라이언트 엔진층(220) 및 클라이언트 사용자 인터페이스층("UI")(222)을 도시한다. 각각의 층은 특정 기능들을 담당한다. 각각의 층은 보통 두 개의 다른 층들과 통신하기 때문에, 이들은 도 2에서 도시된 스택으로 배열된 것으로 간주된다. 운영체제(214)는 컴퓨터의 하드웨어 자원들을 관리하고, 네트워크 인터페이스(224)를 통해 통신 네트워크(106)에 오고가는 데이터를 처리한다. I/O층(218)은 오디오 및/또는 영상 코덱들을 포함하는데, 이 오디오 및/또는 영상 코덱들은, 유입되는 인코딩된 스트림들을 수신하고 이것들을 스피커(210) 및/또는 디스플레이(204)로의 출력을 위해 적절하게 디코딩하며, 마이크로폰(212) 및/또는 카메라(208)으로부터 비인코딩된 오디오 및/또는 영상 데이터를 수신하고, 이것들을 통신 시스템(100)의 다른 최종 사용자 단말기들로의 스트림들로서의 전송을 위해 인코딩한다. 클라이언트 엔진층(220)은 서버 기반 또는 P2P 어드레스 검색 및 인증에 의해 통화들 또는 다른 연결들을 구축하는 것과 같이, VoIP 시스템의 연결 관리 기능들을 상술한 바와 같이 처리한다. 클라이언트 엔진은 또한, 본 명세서에서 논의되지 않은 다른 2차적 기능들을 담당할 수 있다. 클라이언트 엔진(220)은 또한 클라이언트 사용자 인터페이스층(222)과 통신한다. 클라이언트 엔진(220)은 클라이언트 사용자 인터페이스층(222)을 제어하여 디스플레이(204) 상에서 디스플레이되는 클라이언트의 사용자 인터페이스를 통해 사용자 단말기(102)의 사용자에게 정보를 제공하고 사용자 인터페이스를 통해 사용자 단말기(102)의 사용자로부터 정보를 수신하도록 배열될 수 있다.
통신 시스템(100)의 사용자들은 자신들을 통신 시스템(100)의 다른 사용자들에게 대표하기 위해 해당 사용자에 의해 선택된 정적 이미지인 "아바타"를 선택할 수 있다. 사용자에 의해 선택된 아바타는 사용자 자신들의 사진일 수 있지만, 꼭 그럴필요는 없고, 아바타는 임의의 정적 이미지일 수 있다. 사용자가 자신의 아바타를 선택하지 않는 것을 택하면, 통신 클라이언트 애플리케이션을 제공하는 소프트웨어 제공자에 의해 생성된 디폴트 아바타가 사용자를 대표하기 위해 이용될 수 있다.
사용자 A(104)에 의한 사용자 단말기(102) 상에서의 통신 클라이언트 애플리케이션(112)의 론칭에 이어서, 사용자 A(104)는 사용자 단말기(102)의 입력 디바이스를 이용하여 (예컨대, 키패드(206)를 이용하거나, 터치 스크린(204)을 터치하거나, 마이크로폰(212)을 이용하여 음성 명령을 보내거나, 또는 컴퓨터 마우스(도 1에서는 미도시됨)를 이용함으로써) 통신 클라이언트 애플리케이션(112)에 의해 제공되는 다양한 사용자 인터페이스 윈도우들을 통해 네비게이팅할 수 있다. 통신 클라이언트 애플리케이션(112)에 의해 제공된 사용자 인터페이스 윈도우는 사용자 A의 연락처들과 연관된 하나 이상의 아바타들을 디스플레이하도록 구성될 수 있고, 사용자 A(104)는 이러한 연락처들과의 통신 이벤트를 구축할 수 있다.
예를 들어, 사용자 A(104)는 사용자 A(104)와 연관된 연락처 리스트를 디스플레이하는 통신 클라이언트 애플리케이션(112)에 의해 제공된 사용자 인터페이스 윈도우로 네비게이팅할 수 있다. 연락처 리스트 내의 연락처들은 통신 시스템(100)의 다른, 원격 사용자들이며, 이 사용자들은 자신들 각각의 단말기들 내에 설치된 클라이언트 애플리케이션의 각자의 각각의 인스턴스들을 갖는다. 연락처 리스트는 클라이언트 엔진(220)에 의해 관리되며, 이것은 사용자 단말기(102) 자체에서의 메모리(226) 내에 로컬로 저장될 수 있거나, 또는, 보다 바람직하게, 통신 클라이언트 인스턴스들을 제공하는 소프트웨어 제공자의 서버(도 1에서는 미도시됨)의 저장 매체 상에 저장될 수 있다(연락처 리스트를 서버에 저장하는 것은, 이롭게도, 사용자 A가 통신 클라이언트 애플리케이션의 상이한 단말기 및/또는 인스턴스에 로그인할지라도 이 연락처 리스트가 이용가능해지도록 한다). 다른 원격 사용자의 연락처가 되기 위해서는, 사용자 A는, (i) 원격 사용자의 통신 클라이언트 애플리케이션에 연락처 요청을 보내고 이어서 원격 사용자는 이를 수용하기를 선택하거나, 또는 (ii) 사용자 A가 수용하기를 선택한 원격 사용자로부터 연락처 요청을 수신해야 한다. 연락처 리스트는 사용자 A의 연락처들과 연관된 성명들(예컨대, 실명 또는 사용자명)을 디스플레이한다. 사용자명은 통신 시스템(100)의 사용자들을 통신 시스템(100)의 다른 사용자들에 대해 고유하게 식별하기 위해 통신 시스템(100)의 사용자들에 의해 선택된다.
연락처 리스트는 사용자 A의 연락처의 아바타들을 디스플레이한다. 연락처 리스트는 또한, 예컨대 사용자가 오프라인이거나, 온라인이거나, 바쁨이거나, 자리비움 등을 나타내는, 각각의 연락처의 프레즌스(presence) 정보와 같은 추가적인 정보를 포함할 수 있다. 연락처 리스트는 또한, 사용자 자신의 현재 상태 등을 요약하기 위해 사용자에 의해 작성된 짧은 문장을 가져다 주는 하나 이상의 사용자 A의 연락처들의 "무드 메시지(mood message)"를 포함할 수 있다.
다른 예시에서, 사용자 A(104)는 원격 사용자(예컨대, 사용자 B(110))와 연관된 프로파일 페이지를 디스플레이하는 통신 클라이언트 애플리케이션(112)에 의해 제공된 사용자 인터페이스 윈도우로 네비게이팅할 수 있다. 프로파일 페이지는 원격 사용자의 아바타를 디스플레이한다. 프로파일 페이지는 사용자명, 실명, 무드 메시지, 현재 지리학적 위치, 시간, 성별, 언어, 나이, 및/또는 생년월일 등을 포함할 수 있는, 원격 사용자의 다른 프로파일 정보를 포함할 수 있다.
또다른 예시에서, 사용자 A(104)는 통신 시스템(100) 내에서의 사용자 A의 최근의 활동(미리 결정된 시구간 내에서의 활동)에 관한 정보를 디스플레이하는 통신 클라이언트 애플리케이션(112)에 의해 제공된 사용자 인터페이스 윈도우로 네비게이팅할 수 있다. 특히, 사용자 인터페이스 윈도우는 사용자 A의 연락처들과의 최근의 상호작용들에 관한 정보를 디스플레이한다. 최근의 활동 정보는 사용자 A(104)가 최근에 상호작용했던 연락처들의 아바타들 및 이러한 상호작용과 관련된 정보, 예컨대, 최근에 수신된 IM 메시지, 연락 수락, 부재중 전화 등을 포함한다.
사용자 단말기(102) 상에서 실행되는 통신 클라이언트 애플리케이션(112)을 이용하여, 사용자 A(104)는 통신 네트워크를 통해 사용자 단말기(108)에서 사용자 B(110)와의 영상 통화를 수행할 수 있다. 사용자 A는, (i) 사용자 B의 제2 사용자 단말기(108) 상에서 실행되는 통신 클라이언트 애플리케이션(114)에 영상 통화 구축 요청을 보내고, 그 후 사용자 B(110)는 수락을 선택하거나, 또는 (ii) 사용자 B의 제2 사용자 단말기(108) 상에서 실행되는 통신 클라이언트 애플리케이션(114)으로부터 영상 통화 구축 요청을 수신하고, 사용자 A(104)는 수락을 선택한다.
이제부터는, 수신된 영상 통화 데이터를 디스플레이하는 프로세스(300)를 위한 흐름도인 도 3을 참조하여, 통신 네트워크(106)를 통해 사용자 단말기(102)와 연관된 사용자 A(104)와 사용자 단말기(108)와 연관된 사용자 B(110) 간의 영상 통화 동안에 구현되는 방법을 설명할 것이다.
또한, 프로세스(300)의 일부로서 다양한 실시예들에서 통신 클라이언트 애플리케이션(112)의 클라이언트 사용자 인터페이스층(222)에 의해 제공되는 예시적인 클라이언트 사용자 인터페이스들을 예시하는 도 4 내지 도 7을 참조할 것이다.
단계 S302에서, 사용자 단말기(102) 상에서 실행되는 통신 클라이언트 애플리케이션(112)은 사용자 단말기(108)로부터 수신된 영상 데이터를 디스플레이(204) 상의 제1 사용자 인터페이스 윈도우(예컨대, 메인 영상 프리젠테이션)(401) 내에서 디스플레이한다. 이 영상 데이터는 사용자 단말기(108)의 카메라(208)에 의해 캡처되고, 네트워크(106)를 통해 사용자 단말기(108)로부터 사용자 단말기(102)에 전송된다. 도 4에서 도시된 바와 같이, 제1 사용자 인터페이스 윈도우(401)는 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터의 디스플레이를 위한 디스플레이 영역(402)을 포함한다.
제1 사용자 인터페이스 윈도우(401)는 영상 통화 동안에 적절한 입력 디바이스를 이용하여 영상 통화를 제어하기 위한 사용자 A(104)에 의한 선택을 위해 이용가능한 선택가능한 버튼들(404)을 더 디스플레이할 수 있다. 선택가능한 버튼들(404)은 영상 통화 종료하기, 영상 통화 동안에 수신된 음성 데이터가 스피커(210)로부터 출력되지 않도록 무음처리하기, 스피커(210)로부터의 음성 출력의 볼륨을 제어하기, 및 영상 통화와 관련된 다른 기능을 위한 버튼을 포함할 수 있다.
제1 사용자 인터페이스 윈도우(401)는 사용자 A(104)가 선택가능한 엘리먼트를 선택한 것에 응답하여 사용자 A(104)가 제2 사용자 인터페이스 윈도우로 네비게이팅하도록 해주는 하나 이상의 선택가능한 엘리먼트를 디스플레이한다. 즉, 선택가능한 엘리먼트의 선택을 검출한 것에 응답하여, 통신 클라이언트 애플리케이션(112)은 적절한 제2 사용자 인터페이스 윈도우를 디스플레이하도록 구성된다.
위에서 언급한 선택가능한 엘리먼트는 영상 통화에서의 상대방(예컨대, 사용자 B(110))의 디스플레이된 식별정보(예컨대, 실명 또는 사용자명)(406)일 수 있다. 추가적으로 또는 대안적으로, 위에서 언급한 선택가능한 엘리먼트는 선택가능한 버튼(408)일 수 있다.
단계 S304에서 통신 클라이언트 애플리케이션(112)이 제2 사용자 인터페이스 윈도우로 네비게이팅하기 위한 사용자 A(104)에 의한 선택 입력을 검출하면, 프로세스(300)는 단계 S306로 진행한다. 통신 클라이언트 애플리케이션(112)은 제1 사용자 인터페이스 윈도우에서 디스플레이되는 선택가능한 엘리먼트의 선택을 검출함으로써 제2 사용자 인터페이스 윈도우로 네비게이팅하기 위한 사용자 A(104)에 의한 선택 입력을 검출한다.
제1 사용자 인터페이스 윈도우에서 디스플레이되는 선택가능한 엘리먼트의 사용자 A(104)의 선택의 부재시, 통신 클라이언트 애플리케이션(112)은 계속해서 디스플레이(204) 상에 제1 사용자 인터페이스 윈도우(401)를 디스플레이하는데, 이것은 도 3에서 단계 S302와 단계 S304 사이의 프로세스(300)에서의 루프에 의해 도시된다.
단계 S306에서, 통신 클라이언트 애플리케이션(112)은, 사용자(사용자 A(104))가 제1 사용자 인터페이스 윈도우(401)를 벗어나 네비게이팅할 때 이용될 것으로서, 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터의 디스플레이를 위한 위치를 결정한다.
사용자(사용자 A(104))가 제1 사용자 인터페이스 윈도우(401)를 벗어나 네비게이팅할 때 이용될 것으로서, 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터의 디스플레이를 위한 위치는 통신 클라이언트 애플리케이션(112)의 제공자에 의해 미리 결정되며, 이 디스플레이 위치를 식별하는 정보는 제1 사용자 단말기 상에서의 통신 클라이언트 애플리케이션(112)의 설치 후에 메모리(226) 내에 저장된다. 본 발명개시의 실시예들에서, 이 디스플레이 위치는 영상 통화에서의 원격 사용자(들)(예컨대, 사용자 B(110))과 연관된 아바타(디스플레이 엘리먼트)의 위치이다.
단계 S306에서, 통신 클라이언트 애플리케이션(112)은 메모리(226)에 질의하고, 제2 사용자 인터페이스 윈도우가 사용자 B의 아바타의 디스플레이를 위한 위치를 포함한 경우, 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터가 사용자 B의 아바타를 대신하여 디스플레이되어야 한다라고 결정하며, 그렇지 않았더라면 (영상 통화를 수행하지 않은 경우에서 제2 사용자 인터페이스 윈도우가 사용자 A(104)에 의해 액세스되었던 경우) 사용자 B의 아바타가 제2 사용자 인터페이스 윈도우 내에서 디스플레이되었을 것이다.
단계 S308에서, 통신 클라이언트 애플리케이션(112)은 (사용자 A(104)가 영상 통화 동안에 네비게이팅하려고 선택한) 제2 사용자 인터페이스 윈도우가 사용자 B의 아바타의 디스플레이를 위해 할당된 위치를 포함하는지를 결정한다. 단계 S308에서, 제2 사용자 인터페이스 윈도우가 사용자 B의 아바타의 디스플레이를 위한 위치를 포함한다고 결정되면, 프로세스(300)는 단계 S310로 진행한다.
단계 S310에서, 통신 클라이언트 애플리케이션(112)은 디스플레이(204) 상에 (제1 사용자 A(104)가 영상 통화 동안에 네비게이팅하려고 선택한) 제2 사용자 인터페이스 윈도우를 디스플레이하고, 또한, 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터를 제어하여 이 영상 데이터가 제2 사용자 인터페이스 윈도우의 상기 위치에서 디스플레이되도록 제어하는데, 그렇지 않았더라면 이 위치는 (영상 통화를 수행하지 않은 경우에서 제2 사용자 인터페이스 윈도우가 사용자 A에 의해 액세스되었던 경우) 사용자 B의 아바타를 디스플레이하는 데에 이용되었을 것이다.
즉, 통신 클라이언트 애플리케이션(112)은 이 할당된 위치에서 사용자 B의 정적 이미지 표현(사용자 B의 아바타)을 디스플레이하기 보다는 제2 사용자 인터페이스 윈도우를 디스플레이하며, 통신 클라이언트 애플리케이션(112)은 이 정적 이미지를 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터로 대체시킨다.
단계 S308에서, 제2 사용자 인터페이스 윈도우가 사용자 B의 아바타의 디스플레이를 위한 위치를 포함하지 않는다고 결정되면, 프로세스(300)는 단계 S312로 진행한다. 단계 S312에서, 통신 클라이언트 애플리케이션(112)은 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터를 제2 사용자 인터페이스 윈도우와 오버레이된 윈도우 내에서 디스플레이한다.
프로세스(300)의 단계 S310을 더 자세하게 예시하기 위해, 도 5 내지 도 7을 참조한다.
도 5는 사용자 B(110)와 연관된 프로파일 페이지를 디스플레이하는 제2 사용자 인터페이스 윈도우(500)를 나타낸다. 사용자 A(104)는 사용자 B(110)와의 영상 통화 동안 제2 사용자 인터페이스 윈도우(500)로 네비게이팅할 수 있다. 예를 들어, 사용자 A(104)는 제2 사용자 인터페이스 윈도우(500)로 네비게이팅하기 위해 제1 사용자 인터페이스 윈도우(401)에서 디스플레이된 사용자 B(110)의 식별정보(예컨대, 실명 또는 사용자명)(406)를 선택할 수 있다. 이와 달리, 사용자 A(104)는 제2 사용자 인터페이스 윈도우(500)로 (직접적으로 또는 간접적으로) 네비게이팅하기 위해 제1 사용자 인터페이스 윈도우(401)에서 디스플레이된 선택가능한 버튼(408)을 선택할 수 있다.
도 5에서 도시된 바와 같이, 제2 사용자 인터페이스 윈도우(500)는 (사용자 B(110)와의 영상 통화를 수행하지 않은 경우에서 제2 사용자 인터페이스 윈도우(500)가 사용자 A(104)에 의해 액세스되었던 경우에 디스플레이되었을) 사용자 B의 아바타의 디스플레이를 위해 할당된 위치(502)를 포함한다.
본 발명개시의 실시예들에 따르면, 단계 S310에서, 통신 클라이언트 애플리케이션(112)은 제2 사용자 인터페이스 윈도우(500)를 디스플레이하고, 위치(502)에서 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터를 디스플레이한다.
제2 사용자 인터페이스 윈도우(500)에서 디스플레이되는 프로파일 페이지는 사용자 B(110)의 프로파일 정보(504), 예컨대, 실명, 사용자명, 현재의 지리학적 위치, 시간, 성별, 언어, 나이 및/또는 생년월일 등을 포함할 수 있다. 제2 사용자 인터페이스 윈도우(500)에서 디스플레이되는 프로파일 페이지는 추가적으로 사용자 B(110)에 의해 설정된 무드 메시지(506)를 포함할 수 있다.
본 발명개시의 실시예들은 이롭게도, (수신된 영상 데이터가 사용자 B의 아바타 대신에 위치(502)에서 디스플레이되므로) 사용자 B(110)의 프로파일 페이지 정보가 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터에 의해 방해받는 것 없이 사용자 A(104)가 이 정보를 바라볼 수 있게 한다.
도 6은 사용자 A(104)와 연관된 연락처 리스트를 디스플레이하는 제2 사용자 인터페이스 윈도우(600)를 나타낸다. 사용자 A(104)는 사용자 B(110)와의 영상 통화 동안 제2 사용자 인터페이스 윈도우(600)로 네비게이팅할 수 있다. 예를 들어, 사용자 A(104)는 제2 사용자 인터페이스 윈도우(600)로 (직접적으로 또는 간접적으로) 네비게이팅하기 위해 제1 사용자 인터페이스 윈도우(401)에서 디스플레이된 선택가능한 버튼(408)을 선택할 수 있다.
도 6에서 도시된 바와 같이, 제2 사용자 인터페이스 윈도우(600)는 (사용자 B(110)와의 영상 통화를 수행하지 않은 경우에서 제2 사용자 인터페이스 윈도우(500)가 사용자 A(104)에 의해 액세스되었던 경우에 디스플레이되었을) 사용자 B의 아바타의 디스플레이를 위해 할당된 위치(602)를 포함한다.
본 발명개시의 실시예들에 따르면, 단계 S310에서, 통신 클라이언트 애플리케이션(112)은 제2 사용자 인터페이스 윈도우(600)를 디스플레이하고, 위치(602)에서 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터를 디스플레이한다.
본 발명개시의 실시예들은 이롭게도, (수신된 영상 데이터가 사용자 B의 아바타 대신에 위치(602)에서 디스플레이되므로) 사용자 A(104)의 연락처 리스트가 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터에 의해 방해받는 것 없이 사용자 A(104)가 이 연락처 리스트 정보를 바라볼 수 있게 한다.
사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터의 위치는 제2 사용자 인터페이스 윈도우(600)에서 디스플레이된 다른 사용자 인터페이스 엘리먼트들의 위치에 대해 고정된다. 따라서, 사용자 A가 연락처 리스트를 스크롤링하면, 스크롤링 동작이 위치(602)를 제2 사용자 인터페이스 윈도우(600)에서 디스플레이되지 않게 하는 경우, 이러한 스크롤링 동작은 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터가 디스플레이(204) 상에서 디스플레이되지 않게 할 수 있다.
도 7은 통신 시스템(100)에서의 사용자 A의 최근의 활동에 관한 정보를 디스플레이하는 제2 사용자 인터페이스 윈도우(700)를 나타낸다. 사용자 A(104)는 사용자 B(110)와의 영상 통화 동안 제2 사용자 인터페이스 윈도우(700)로 네비게이팅할 수 있다. 예를 들어, 사용자 A(104)는 제2 사용자 인터페이스 윈도우(700)로 (직접적으로 또는 간접적으로) 네비게이팅하기 위해 제1 사용자 인터페이스 윈도우(401)에서 디스플레이된 선택가능한 버튼(408)을 선택할 수 있다.
도 7에서 도시된 바와 같이, 제2 사용자 인터페이스 윈도우(700)는 (사용자 B(110)와의 영상 통화를 수행하지 않은 경우에서 제2 사용자 인터페이스 윈도우(700)가 사용자 A(104)에 의해 액세스되었던 경우에 디스플레이되었을) 사용자 B의 아바타의 디스플레이를 위해 할당된 위치(702)를 포함하는데, 이는 예컨대, 사용자 A(104)가 사용자 B(110)와의 최근의 IM 대화를 가졌기 때문일 수 있다.
본 발명개시의 실시예들에 따르면, 단계 S310에서, 통신 클라이언트 애플리케이션(112)은 제2 사용자 인터페이스 윈도우(700)를 디스플레이하고, 위치(702)에서 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터를 디스플레이한다.
본 발명개시의 실시예들은 이롭게도, (수신된 영상 데이터가 사용자 B의 아바타 대신에 위치(702)에서 디스플레이되므로) 사용자 A(104)의 최근의 활동에 관한 정보가 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터에 의해 방해받는 것 없이 사용자 A(104)가 이 정보를 바라볼 수 있게(예컨대, 사용자 D와의 IM 대화에서 수신된 최종 메시지 "론칭 일자는 2014년 6월 27일임"을 바라볼 수 있게) 한다.
사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터의 위치는 제2 사용자 인터페이스 윈도우(700)에서 디스플레이된 다른 사용자 인터페이스 엘리먼트들의 위치에 대해 고정된다. 따라서, 사용자 A가 최근의 활동 정보를 스크롤링하면, 스크롤링 동작이 위치(702)를 제2 사용자 인터페이스 윈도우(700)에서 디스플레이되지 않게 하는 경우, 이러한 스크롤링 동작은 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터가 디스플레이(204) 상에서 디스플레이되지 않게 할 수 있다.
단순화를 위해 본 발명개시의 실시예들을 두 명의 사용자들 간의 영상 통화를 참조하여 상술하여 왔지만, 본 발명개시의 실시예들은 또한 다자간 영상 통화로 확장된다(여기서 "다자간" 영상 통화에 대한 언급은 세 명 이상의 사용자들 간에 행해진 영상 통화를 가리킨다).
사용자 A(104)가 두 명의 다른 사용자들, 예컨대 사용자 B(110) 및 사용자 C(도 1에서는 미도시됨)와 영상 통화를 행하면, 통신 클라이언트 애플리케이션(112)은 사용자 B(110) 및 사용자 C로부터 수신된 영상 데이터를 제1 사용자 인터페이스 윈도우(401)에서 디스플레이한다. 영상 통화 동안, 사용자 A(104)가 사용자 B의 아바타와 사용자 C의 아바타 둘 다의 디스플레이를 위한 위치를 포함하는 제2 사용자 인터페이스 윈도우(예컨대, 도 6에서 도시된 제2 사용자 인터페이스 윈도우(600) 및 도 7에서 도시된 제2 사용자 인터페이스 윈도우(700))로 네비게이팅하면, 본 발명개시의 실시예들에 따라, 통신 클라이언트 애플리케이션(112)은 제2 사용자 인터페이스 윈도우를 디스플레이하고, 또한, 사용자 B(110)와 연관된 사용자 단말기(108)로부터 통신 네트워크(106)를 통해 수신된 영상 데이터를 제어하여 이 영상 데이터가 제2 사용자 인터페이스 윈도우의 상기 위치에서 디스플레이되도록 제어하며[그렇지 않았더라면, 상기 위치는 (영상 통화를 수행하지 않은 경우에서 제2 사용자 인터페이스 윈도우가 사용자 A(104)에 의해 액세스되었던 경우) 사용자 B의 아바타를 디스플레이하는 데에 이용되었을 것임], 또한, 사용자 C와 연관된 사용자 단말기로부터 통신 네트워크(106)를 통해 수신된 영상 데이터를 제어하여 이 영상 데이터가 제2 사용자 인터페이스 윈도우의 상기 위치에서 디스플레이되도록 제어한다[그렇지 않았더라면, 상기 위치는 (영상 통화를 수행하지 않은 경우에서 제2 사용자 인터페이스 윈도우가 사용자 A(104)에 의해 액세스되었던 경우) 사용자 C의 아바타를 디스플레이하는 데에 이용되었을 것임].
다자간 영상 통화 동안에 활성화된 화자만으로부터 수신된 영상 데이터를 보여주는 플로우팅 윈도우를 디스플레이하는 종래기술의 솔루션들과 대비해보면, 본 발명개시의 실시예들은 제2 사용자 인터페이스 윈도우에서 디스플레이되는 정보가 방해받는 일 없이 사용자 A(104)가 이 정보를 바라볼 수 있게 해준다. 뿐만 아니라, 제2 사용자 인터페이스 윈도우가 복수의 참가자들 각각의 아바타들의 디스플레이를 위한 할당된 위치들을 포함한 경우, 영상 통화에서의 복수의 참가자들로부터 수신된 영상 데이터는 제2 사용자 인터페이스 윈도우에서 디스플레이될 것이다. 이것은 제1 사용자 인터페이스 윈도우(410)가 디스플레이되고 있을 때 제2 사용자 인터페이스 윈도우 상에서 제공되는 정보를 또한 바라볼 수 있게 하는 경험과 유사한 영상 통화 경험을 사용자 A(104)가 보유하게 해줄 수 있다.
다자간 영상 통화 동안, 사용자 A(104)가 나머지 다른 영상 통화 참가자들(예컨대, 사용자 B(110))의 아바타 중의 단 하나의 아바타의 디스플레이를 위한 위치를 포함하는 제2 사용자 인터페이스 윈도우로 네비게이팅하면, 본 발명개시의 실시예들에 따라, 통신 클라이언트 애플리케이션(112)은 제2 사용자 인터페이스 윈도우를 디스플레이하고, 또한, 사용자 B(110)와 연관된 사용자 단말기(108)를 통해 수신된 영상 데이터를 제어하여 이 영상 데이터가 제2 사용자 인터페이스 윈도우의 상기 위치에서 디스플레이되도록 하는데, 그렇지 않았더라면, 상기 위치는 (영상 통화를 수행하지 않은 경우에서 제2 사용자 인터페이스 윈도우가 사용자 A(104)에 의해 액세스되었던 경우) 사용자 B의 아바타를 디스플레이하는 데에 이용되었을 것이며, 이 시나리오에서는, 사용자 C와 연관된 단말기로부터 수신된 영상 데이터는 제2 사용자 인터페이스 윈도우에서 디스플레이되지 않을 것이다.
본 발명개시의 실시예들은 이롭게도, 특정 참가자로부터 수신된 영상 데이터를 바라보기 위해 영상 통화의 특정 참가자와 관련된 정보를 포함한 제2 사용자 인터페이스 윈도우로 네비게이팅함으로써 다자간 영상 통화 동안에 랜더링되는 영상을 사용자(예컨대, 사용자 A)가 선택할 수 있게 해준다. 예를 들어, 사용자 B(110) 및 사용자 C와의 영상 통화 동안, 사용자 A는 사용자 B의 아바타의 디스플레이를 위해 할당된 위치(502)를 포함하는, 사용자 B(110)와 연관된 프로파일 페이지를 디스플레이하는 제2 사용자 인터페이스(500)로 네비게이팅할 수 있다. 본 발명개시의 실시예들에 따르면, 통신 클라이언트 애플리케이션(112)은 제2 사용자 인터페이스 윈도우(500)를 디스플레이하고, 위치(502)에서 사용자 B(110)와 연관된 사용자 단말기(108)로부터 네트워크(106)를 통해 수신된 영상 데이터를 디스플레이한다. 제2 사용자 인터페이스(500)는 사용자 C의 아바타의 디스플레이를 위해 할당된 위치를 포함하지 않기 때문에, 사용자 C와 연관된 단말기로부터 수신된 영상 데이터는 제2 사용자 인터페이스 윈도우(500)에서 디스플레이되지 않을 것이다.
그런 후, 사용자 A는, 영상 통화 동안, 사용자 C의 아바타의 디스플레이를 위해 할당된 위치를 포함하는, 사용자 C와 연관된 프로파일 페이지를 디스플레이하는 제2 사용자 인터페이스로 네비게이팅할 수 있다. 본 발명개시의 실시예들에 따르면, 통신 클라이언트 애플리케이션(112)은 제2 사용자 인터페이스 윈도우를 디스플레이하고, 사용자 C의 아바타의 디스플레이를 위해 할당된 위치에서 사용자 C와 연관된 사용자 단말기로부터 네트워크(106)를 통해 수신된 영상 데이터를 디스플레이한다. 제2 사용자 인터페이스는 사용자 B의 아바타의 디스플레이를 위해 할당된 위치를 포함하지 않기 때문에, 사용자 B(110)와 연관된 단말기로부터 수신된 영상 데이터는 제2 사용자 인터페이스 윈도우에서 디스플레이되지 않을 것이다.
이것은 사용자가 메인 영상 프리젠테이션 스크린으로부터 벗어나 네비게이팅할 때 활성화된 화자로부터 수신된 영상 데이터만을 디스플레이하는 플로우팅 윈도우를 디스플레이하는 알려져 있는 솔루션들과는 대비된다.
본 발명개시의 실시예들을 (프로파일 페이지, 연락처 리스트, 최근의 활동을 포함하는) 어떠한 예시적인 제2 사용자 인터페이스 윈도우들을 참조하여 설명하여 왔지만, 이것은 사용자 B(110)와의 영상 통화 동안에 사용자 A(104)가 네비게이팅할 수 있는 제2 사용자 인터페이스 윈도우들에서 디스플레이될 수 있는 정보의 단순 예시들에 불과하다. 본 발명개시의 실시예들은 이러한 예시들로 한정되지 않으며, 영상 통화의 적어도 하나의 원격 참가자의 아바타를 디스플레이하도록 구성된 임의의 제2 사용자 인터페이스 윈도우에 적용가능하다.
통신 클라이언트 애플리케이션(112)에 의해 제공된 클라이언트 사용자 인터페이스는 디스플레이(204)의 이용가능한 영역(400)에서 콘텐츠를 디스플레이한다. 도 4 내지 도 7에서 도시된 바와 같이, 디스플레이의 이용가능한 영역은 디스플레이(204) 전체이다. 하지만, (클라이언트(112)에 대해 이용가능한 영역인) 디스플레이의 이용가능한 영역은 디스플레이의 일부부만으로 구성되며, 예컨대, 디스플레이의 나머지는 다른 콘텐츠를 디스플레이하기 위해 운영체제(214) 및/또는 이 위에서 실행되는 다른 애플리케이션(들)에 의해 이용되는 것이 구상가능하다.
도 3에서 개별적으로 도시된 단계들은 개별적인 단계들로서 구현될 수 있거나 또는 그렇지 않을 수 있다.
일반적으로, 여기서 설명된 기능들 중 임의의 기능은 소프트웨어, 펌웨어, 하드웨어(예컨대, 고정된 로직 회로), 또는 이러한 구현예들의 조합을 이용하여 구현될 수 있다. 여기서 이용된 "제어기", "기능", "컴포넌트" 및 "애플리케이션" 용어들은 일반적으로 소프트웨어, 펌웨어, 하드웨어, 또는 이들의 조합을 나타낸다. 소프트웨어 구현예의 경우, 제어기, 기능, 컴포넌트 또는 애플리케이션은 프로세서(예컨대, CPU 또는 CPU들) 상에서 실행될 때 특정 태스크들을 수행하는 프로그램 코드를 나타낸다. 프로그램 코드는 하나 이상의 컴퓨터로 판독가능한 메모리 디바이스들 내에 저장될 수 있다. 아래에서 설명되는 기술들의 특징들은 플랫폼 독립적인데, 이것은 본 기술들이 다양한 프로세서들을 갖는 다양한 상업적 컴퓨팅 플랫폼들 상에서 구현될 수 있다는 것을 의미한다.
예를 들어, 사용자 단말기들은 또한 사용자 단말기들의 하드웨어가 연산들, 예컨대 프로세서 기능 블록들 등을 수행하게 하는 엔티티(예컨대, 소프트웨어)를 포함할 수 있다. 예를 들어, 사용자 단말기들은 사용자 단말기들, 및 보다 구체적으로는 사용자 단말기들의 운영체제 및 이와 연관된 하드웨어가 연산들을 수행하게 하는 명령어들을 유지하도록 구성될 수 있는 컴퓨터로 판독가능한 매체를 포함할 수 있다. 따라서, 명령어들은 운영체제 및 이와 연관된 하드웨어가 연산들을 수행하도록 구성시키는 기능을 하며, 이렇게 해서, 기능들을 수행하는 운영체제 및 이와 연관된 하드웨어의 변환을 초래시킨다. 명령어들은 다양한 상이한 구성들을 통해서 컴퓨터로 판독가능한 매체에 의해 사용자 단말기들에게 제공될 수 있다.
컴퓨터로 판독가능한 매체의 이러한 한가지 구성은 신호 베어링 매체이며, 이에 따라 네트워크를 통해서와 같이, 명령어들(예컨대, 반송파)을 컴퓨팅 디바이스에게 전송하도록 구성된다. 컴퓨터로 판독가능한 매체는 또한 컴퓨터로 판독가능한 저장 매체로서 구성될 수 있으며, 이에 따라 신호 베어링 매체는 아니다. 컴퓨터로 판독가능한 저장 매체의 예시들에는 RAM(random-access memory), ROM(read-only memory), 광학 디스크, 플래시 메모리, 하드 디스크 메모리, 및 명령어들과 다른 데이터를 저장하기 위한 자기적, 광학적, 및 다른 기술들을 이용할 수 있는 다른 메모리 디바이스들이 포함된다.
본 발명내용은 구조적 특징들 및/또는 방법론적 동작들에 특유적인 용어로 기술되었지만, 첨부된 청구항들에서 정의된 발명내용은 위에서 설명된 이러한 특정한 특징들 또는 동작들로 반드시 제한될 필요는 없다는 것을 이해하여야 한다. 이보다는, 위에서 설명된 특정한 특징들 및 동작들은 청구항들을 구현하는 예시 형태들로서 개시된 것이다.

Claims (20)

  1. 사용자 디바이스에 있어서,
    디스플레이;
    상기 사용자 디바이스의 사용자와 복수의 추가적인 사용자 간의 다자간 영상 통화 동안 상기 사용자 디바이스와 통신 네트워크 간에 영상 데이터를 송신 및 수신하도록 구성된 네트워크 인터페이스;
    상기 복수의 추가적인 사용자 중 하나와 각각 연관된 복수의 아바타 이미지를 식별하는 정보를 저장한 메모리; 및
    통신 클라이언트 애플리케이션을 구동시키도록 구성된 하나 이상의 프로세서
    를 포함하며,
    상기 통신 클라이언트 애플리케이션은, 상기 다자간 영상 통화 동안,
    상기 디스플레이 상의 제1 사용자 인터페이스 윈도우 내에, 상기 다자간 영상 통화의 일부로서, 상기 복수의 추가적인 사용자로부터 수신된 영상 데이터를 디스플레이하고;
    상기 다자간 영상 통화 동안, 제2 사용자 인터페이스 윈도우로 네비게이팅하기 위한 상기 사용자 디바이스의 사용자에 의한 선택 입력을 검출하며 - 상기 제2 사용자 인터페이스 윈도우는 상기 복수의 추가적인 사용자 중 하나와 연관된 하나의 아바타 이미지의 디스플레이를 위한 디스플레이 위치를 포함하고, 영상 통화를 수행하지 않을 때 상기 제2 사용자 인터페이스 윈도우가 상기 사용자에 의해 액세스된 경우 상기 하나의 아바타 이미지가 해당 위치에서 디스플레이됨 - ;
    상기 복수의 추가적인 사용자로부터 수신된 영상 데이터의 디스플레이를 위한 디스플레이 위치를 결정하기 위해 상기 메모리에 질의하고, 상기 질의에 응답하여, 상기 디스플레이 상에 상기 제2 사용자 인터페이스 윈도우를 디스플레이하고, 상기 제2 사용자 인터페이스 윈도우의 상기 하나의 아바타 이미지와 연관된 상기 복수의 추가적인 사용자 중 하나로부터 수신된 상기 영상 데이터를 제어하여, 상기 영상 데이터가 상기 복수의 추가적인 사용자 중 하나와 연관된 상기 하나의 아바타 이미지의 상기 디스플레이 위치에서 디스플레이되게 하도록 동작가능한 것인, 사용자 디바이스.
  2. 삭제
  3. 제1항에 있어서,
    상기 제2 사용자 인터페이스 윈도우는 상기 하나의 아바타 이미지와 연관된 상기 복수의 추가적인 사용자 중 하나의 프로파일 정보를 포함한 것인, 사용자 디바이스.
  4. 제1항에 있어서,
    상기 제2 사용자 인터페이스 윈도우는 상기 사용자 디바이스의 사용자와 연관된 연락처 리스트를 포함한 것인, 사용자 디바이스.
  5. 제1항에 있어서,
    상기 제2 사용자 인터페이스 윈도우는 상기 사용자 디바이스의 사용자와 연관된 통신 이벤트 활동 정보를 포함한 것인, 사용자 디바이스.
  6. 제1항에 있어서,
    상기 제2 사용자 인터페이스 윈도우는 복수의 사용자 인터페이스 엘리먼트들을 포함하며,
    상기 디스플레이 위치는 상기 제2 사용자 인터페이스 윈도우에서 디스플레이된 상기 복수의 사용자 인터페이스 엘리먼트들의 포지션에 대해 고정된 것인, 사용자 디바이스.
  7. 제1항에 있어서,
    상기 제1 사용자 인터페이스 윈도우는 선택가능한 엘리먼트를 포함하며,
    상기 통신 클라이언트 애플리케이션은 상기 선택가능한 엘리먼트의 선택을 검출함으로써 상기 제2 사용자 인터페이스 윈도우로 네비게이팅하기 위한 상기 사용자 디바이스의 사용자에 의한 선택 입력을 검출하도록 동작가능한 것인, 사용자 디바이스.
  8. 제7항에 있어서,
    상기 선택가능한 엘리먼트는 선택가능한 버튼인 것인, 사용자 디바이스.
  9. 제7항에 있어서,
    상기 선택가능한 엘리먼트는 상기 하나의 아바타 이미지와 연관된 상기 복수의 추가적인 사용자 중 하나의 디스플레이된 식별정보(identity)인 것인, 사용자 디바이스.
  10. 제1항에 있어서,
    상기 제1 사용자 인터페이스 윈도우는 상기 다자간 영상 통화의 제어를 위한 선택가능한 버튼들을 포함한 것인, 사용자 디바이스.
  11. 제1항에 있어서,
    상기 복수의 추가적인 사용자 중 하나와 각각 연관된 상기 복수의 아바타 이미지를 식별하는 정보는 상기 통신 클라이언트 애플리케이션의 제공자에 의해 구성된 것인, 사용자 디바이스.
  12. 삭제
  13. 삭제
  14. 제1항에 있어서,
    상기 사용자 디바이스는 상기 선택 입력을 수신하기 위한 입력 디바이스를 더 포함한 것인, 사용자 디바이스.
  15. 제14항에 있어서,
    상기 입력 디바이스는 키패드, 터치 스크린, 마이크로폰, 및 컴퓨터 마우스 중 하나 이상을 포함한 것인, 사용자 디바이스.
  16. 제1항에 있어서,
    상기 사용자 디바이스는,
    이동 전화기;
    핸드헬드(handheld) 게임 콘솔;
    개인 휴대 정보 단말기(personal digital assistant);
    개인 컴퓨터;
    태블릿 컴퓨터; 및
    랩탑 컴퓨터
    중 하나인 것인, 사용자 디바이스.
  17. 제1항에 있어서,
    상기 통신 네트워크는 패킷 기반 통신 네트워크인 것인, 사용자 디바이스.
  18. 명령어들이 저장되어 있는 컴퓨터 판독가능 메모리 디바이스에 있어서,
    상기 명령어들은, 사용자 디바이스의 프로세서에 의한 실행에 응답하여,
    상기 사용자 디바이스의 디스플레이 상의 제1 사용자 인터페이스 윈도우 내에, 상기 사용자 디바이스의 사용자와 복수의 추가적인 사용자 간의 다자간 영상 통화의 일부로서, 상기 복수의 추가적인 사용자로부터 수신된 영상 데이터를 디스플레이하고;
    상기 다자간 영상 통화 동안, 제2 사용자 인터페이스 윈도우로 네비게이팅하기 위한 상기 사용자 디바이스의 사용자에 의한 선택 입력을 검출하며 - 상기 제2 사용자 인터페이스 윈도우는 상기 복수의 추가적인 사용자 중 하나와 연관된 하나의 아바타 이미지의 디스플레이를 위한 디스플레이 위치를 포함하고, 영상 통화를 수행하지 않을 때 상기 제2 사용자 인터페이스 윈도우가 상기 사용자에 의해 액세스된 경우 상기 하나의 아바타 이미지가 해당 위치에서 디스플레이됨 - ;
    상기 복수의 추가적인 사용자 중 하나와 연관된 하나의 아바타 이미지의 디스플레이 위치를 식별하는 정보를 저장한 메모리에 질의하고, 상기 질의에 응답하여, 상기 디스플레이 상에 상기 제2 사용자 인터페이스 윈도우를 디스플레이하고, 상기 복수의 추가적인 사용자 중 하나로부터 수신된 상기 영상 데이터를 제어하여, 상기 영상 데이터가 상기 복수의 추가적인 사용자 중 하나와 연관된 상기 하나의 아바타 이미지의 상기 디스플레이 위치에서 디스플레이되게 하도록 구성된 것인, 컴퓨터 판독가능 메모리 디바이스.
  19. 삭제
  20. 사용자 디바이스에서 구현되는 방법에 있어서,
    상기 사용자 디바이스의 사용자와 복수의 추가적인 사용자 간의 다자간 영상 통화 동안 상기 복수의 추가적인 사용자로부터 영상 데이터를 수신하는 단계;
    상기 사용자 디바이스의 디스플레이 상의 제1 사용자 인터페이스 윈도우 내에, 상기 다자간 영상 통화의 일부로서, 상기 복수의 추가적인 사용자로부터 수신된 영상 데이터를 디스플레이하는 단계;
    상기 다자간 영상 통화 동안, 제2 사용자 인터페이스 윈도우로 네비게이팅하기 위한 선택 입력을 검출하는 단계 - 상기 제2 사용자 인터페이스 윈도우는 상기 복수의 추가적인 사용자 중 하나와 연관된 하나의 그래픽 이미지의 디스플레이를 위한 디스플레이 위치를 포함하고, 영상 통화를 수행하지 않을 때 상기 사용자가 상기 제2 사용자 인터페이스 윈도우에 액세스한 경우 상기 하나의 그래픽 이미지가 해당 위치에서 디스플레이됨 - ;
    상기 복수의 추가적인 사용자 중 하나와 각각 연관된 복수의 그래픽 이미지의 디스플레이 위치를 식별하는 정보를 저장한 메모리에 질의하는 단계; 및
    상기 질의에 응답하여, 상기 디스플레이 상에 상기 제2 사용자 인터페이스 윈도우를 디스플레이하고, 상기 제2 사용자 인터페이스 윈도우의 상기 하나의 그래픽 이미지와 연관된 상기 복수의 추가적인 사용자 중 하나로부터 수신된 영상 데이터를 제어하여, 상기 복수의 추가적인 사용자 중 하나로부터 수신된 영상 데이터가 상기 하나의 그래픽 이미지의 디스플레이를 대체하도록, 상기 영상 데이터가 상기 하나의 그래픽 이미지의 상기 디스플레이 위치에서 디스플레이되게 하는 단계
    를 포함하는, 사용자 디바이스에서 구현되는 방법.
KR1020167031704A 2014-04-15 2015-04-06 영상 통화 데이터의 디스플레이 KR102327571B1 (ko)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
GB1406789.6 2014-04-15
GBGB1406789.6A GB201406789D0 (en) 2014-04-15 2014-04-15 Displaying video call data
US14/459,247 US9325942B2 (en) 2014-04-15 2014-08-13 Displaying video call data
US14/459,247 2014-08-13
PCT/US2015/024418 WO2015160545A1 (en) 2014-04-15 2015-04-06 Displaying video call data

Publications (2)

Publication Number Publication Date
KR20160144479A KR20160144479A (ko) 2016-12-16
KR102327571B1 true KR102327571B1 (ko) 2021-11-16

Family

ID=50845052

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167031704A KR102327571B1 (ko) 2014-04-15 2015-04-06 영상 통화 데이터의 디스플레이

Country Status (6)

Country Link
US (2) US9325942B2 (ko)
EP (1) EP3114832B1 (ko)
KR (1) KR102327571B1 (ko)
CN (2) CN113055628A (ko)
GB (1) GB201406789D0 (ko)
WO (1) WO2015160545A1 (ko)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201406789D0 (en) 2014-04-15 2014-05-28 Microsoft Corp Displaying video call data
CN116243841A (zh) 2014-06-27 2023-06-09 苹果公司 尺寸减小的用户界面
TWI647608B (zh) 2014-07-21 2019-01-11 美商蘋果公司 遠端使用者介面
WO2016022204A1 (en) 2014-08-02 2016-02-11 Apple Inc. Context-specific user interfaces
KR101685466B1 (ko) * 2014-08-28 2016-12-12 삼성에스디에스 주식회사 다자간 영상 회의 서비스의 참여자 확장 방법
CN115665320B (zh) 2014-09-02 2024-10-11 苹果公司 电子设备、存储介质和用于操作电子设备的方法
GB201520509D0 (en) * 2015-11-20 2016-01-06 Microsoft Technology Licensing Llc Communication system
US10304103B2 (en) 2016-02-23 2019-05-28 Brillio LLC Method for providing recommendations for data item by collaborative video server
DK201770423A1 (en) 2016-06-11 2018-01-15 Apple Inc Activity and workout updates
US10860199B2 (en) 2016-09-23 2020-12-08 Apple Inc. Dynamically adjusting touch hysteresis based on contextual data
CN108024087B (zh) * 2016-10-31 2019-05-03 视联动力信息技术股份有限公司 一种视频调度的方法及系统
WO2019003357A1 (ja) * 2017-06-28 2019-01-03 株式会社オプティム コンピュータシステム、Web会議音声補助方法及びプログラム
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
DK180130B1 (da) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN111050109B (zh) * 2019-12-24 2021-09-17 维沃移动通信有限公司 电子设备控制方法及电子设备
US11079913B1 (en) 2020-05-11 2021-08-03 Apple Inc. User interface for status indicators
US11431891B2 (en) 2021-01-31 2022-08-30 Apple Inc. User interfaces for wide angle video conference
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11449188B1 (en) 2021-05-15 2022-09-20 Apple Inc. Shared-content session user interfaces
US11770600B2 (en) 2021-09-24 2023-09-26 Apple Inc. Wide angle video conference
US11979244B2 (en) * 2021-09-30 2024-05-07 Snap Inc. Configuring 360-degree video within a virtual conferencing system

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020145610A1 (en) 1999-07-16 2002-10-10 Steve Barilovits Video processing engine overlay filter scaler
US8352983B1 (en) 2002-07-11 2013-01-08 Tvworks, Llc Programming contextual interactive user interface for television
JP4016388B2 (ja) 2003-01-21 2007-12-05 日本電気株式会社 テレビ電話機能付き携帯電話端末
WO2005009019A2 (en) 2003-07-16 2005-01-27 Skype Limited Peer-to-peer telephone system and method
NO326770B1 (no) 2006-05-26 2009-02-16 Tandberg Telecom As Fremgangsmate og system for videokonferanse med dynamisk layout basert pa orddeteksjon
KR100799670B1 (ko) 2006-06-30 2008-01-30 삼성전자주식회사 휴대단말을 이용한 방송수신 중 화면분할 방법 및 장치
JP4719644B2 (ja) 2006-08-11 2011-07-06 富士通東芝モバイルコミュニケーションズ株式会社 携帯端末装置
US7847815B2 (en) * 2006-10-11 2010-12-07 Cisco Technology, Inc. Interaction based on facial recognition of conference participants
KR101339499B1 (ko) 2007-08-16 2013-12-10 엘지전자 주식회사 터치 스크린을 구비한 이동통신 단말기 및 그 제어방법
NO331338B1 (no) 2009-06-24 2011-11-28 Cisco Systems Int Sarl Fremgangsmate og anordning for endring av en videokonferanse-layout
KR101673032B1 (ko) * 2010-01-25 2016-11-04 엘지전자 주식회사 화상 통신 방법 및 그를 이용한 디지털 tv
US8619116B2 (en) 2010-10-22 2013-12-31 Litl Llc Video integration
US8379077B2 (en) 2010-11-24 2013-02-19 Cisco Technology, Inc. Automatic layout and speaker selection in a continuous presence video conference
KR101786944B1 (ko) * 2011-05-12 2017-10-18 삼성전자 주식회사 화자 표시 방법 및 이를 구현하는 영상 통화 단말기
WO2013019638A1 (en) 2011-07-29 2013-02-07 Cisco Technology, Inc. Method, computer- readable storage medium, and apparatus for modifying the layout used by a video composing unit to generate a composite video signal
US20130106988A1 (en) 2011-10-28 2013-05-02 Joseph Davis Compositing of videoconferencing streams
US9191619B2 (en) 2012-08-01 2015-11-17 Google Inc. Using an avatar in a videoconferencing system
US20140280530A1 (en) * 2013-03-13 2014-09-18 John Torres Fremlin Live Faces
KR101799293B1 (ko) * 2013-05-29 2017-11-20 삼성전자주식회사 디스플레이 장치, 디스플레이 장치 제어 방법 및 컴퓨터 판독 가능한 기록 매체
GB201406789D0 (en) 2014-04-15 2014-05-28 Microsoft Corp Displaying video call data

Also Published As

Publication number Publication date
KR20160144479A (ko) 2016-12-16
US9325942B2 (en) 2016-04-26
CN106233718A (zh) 2016-12-14
US20150296179A1 (en) 2015-10-15
WO2015160545A1 (en) 2015-10-22
CN113055628A (zh) 2021-06-29
GB201406789D0 (en) 2014-05-28
EP3114832A1 (en) 2017-01-11
EP3114832B1 (en) 2020-05-06
US9628753B2 (en) 2017-04-18
US20160212374A1 (en) 2016-07-21

Similar Documents

Publication Publication Date Title
KR102327571B1 (ko) 영상 통화 데이터의 디스플레이
US10135965B2 (en) Use of a digital assistant in communications
US9569752B2 (en) Providing parameterized actionable communication messages via an electronic communication
TWI650976B (zh) 即時通訊過程中的視頻通訊方法及系統
JP2020021493A (ja) メッセンジャー連携サービスに関連する方法
KR102145089B1 (ko) 사전 에스컬레이션 참여 확인을 이용한 심리스 통화 전환
KR102285107B1 (ko) 컨텐츠 공유
US9060059B2 (en) Call status sharing
US20110038362A1 (en) Controlling multi-party communications
JP2009536759A (ja) 通信装置のためのユーザインタフェース
CN112217920A (zh) 通过主机使用客户端接听呼叫
KR20150032674A (ko) 통신 시스템
EP2788928A2 (en) Seamless collaboration and communication
KR20160044506A (ko) 에스컬레이션 인식 통지를 이용한 심리스 통화 전환
US20160127292A1 (en) Method and system for controlling polling in message conversations across multiple devices
US9338273B2 (en) Method for telephony client synchronization in telephone virtualization
WO2015168408A1 (en) Method and system for message conversation view customization
KR101716874B1 (ko) 라이브 채팅 가능한 통신 단말 및 채팅 애플리케이션
US9071681B1 (en) Inbound telephony orchestrator for hangout-based contact center platform
KR101361311B1 (ko) 모바일 보이스 오버 인터넷 프로토콜을 이용하여 음성 변조 서비스를 제공하는 어플리케이션의 동작 방법
CN107104935B (zh) 用于通信隐私保护的方法、服务器和终端设备
US20200296219A1 (en) Messaging for voip application and external apparatus
KR20140009942A (ko) 모바일 보이스 오버 인터넷 프로토콜을 이용하여 음성 변조 서비스를 제공하는 어플리케이션의 동작 방법
JP2017027250A (ja) 通信システム、通信管理方法及び通信管理プログラム

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)
GRNT Written decision to grant