KR101598486B1 - 공동 엔터테인먼트 플랫폼 - Google Patents

공동 엔터테인먼트 플랫폼 Download PDF

Info

Publication number
KR101598486B1
KR101598486B1 KR1020147017981A KR20147017981A KR101598486B1 KR 101598486 B1 KR101598486 B1 KR 101598486B1 KR 1020147017981 A KR1020147017981 A KR 1020147017981A KR 20147017981 A KR20147017981 A KR 20147017981A KR 101598486 B1 KR101598486 B1 KR 101598486B1
Authority
KR
South Korea
Prior art keywords
video stream
viewing
viewing devices
application control
environmental
Prior art date
Application number
KR1020147017981A
Other languages
English (en)
Other versions
KR20140092412A (ko
Inventor
짐 에스. 바카
데이비드 스태나솔로비치
마크 프라이스
Original Assignee
인텔 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코포레이션 filed Critical 인텔 코포레이션
Publication of KR20140092412A publication Critical patent/KR20140092412A/ko
Application granted granted Critical
Publication of KR101598486B1 publication Critical patent/KR101598486B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4307Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen
    • H04N21/43076Synchronising the rendering of multiple content streams or additional data on devices, e.g. synchronisation of audio on a mobile phone with the video output on the TV screen of the same content streams on multiple devices, e.g. when family members are watching the same movie on different devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/237Communication with additional data server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • H04N21/4316Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations for displaying supplemental content in a region of the screen, e.g. an advertisement in a separate window
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection

Abstract

공동 엔터테인먼트 플랫폼에 대한 다양한 시스템들 및 방법들이 본원에 기술된다. 각자의 스크린들에 이미지들을 디스플레이하도록 구성된 복수의 뷰잉 디바이스들이 식별될 수 있다. 애플리케이션 제어 커맨드가 복수의 뷰잉 디바이스들 중의 뷰잉 디바이스로부터 수신될 수 있다. 환경 지표는 복수의 뷰잉 디바이스 중의 적어도 하나의 뷰잉 디바이스로부터 수신될 수 있다. 비디오 스트림의 디스플레이는 복수의 뷰잉 디바이스들에서 동기화될 수 있고, 비디오 스트림은 애플리케이션 제어 커맨드의 결과들을 포함할 수 있다. 환경 지표는 복수의 뷰잉 디바이스들 중에서 적어도 하나의 뷰잉 디바이스가 아닌 각각의 뷰잉 디바이스에 제시될 수 있다.

Description

공동 엔터테인먼트 플랫폼{COLLABORATIVE ENTERTAINMENT PLATFORM}
네트워크를 통한 엔터테인먼트 컨텐츠와의 상호작용이 일반화되었다. 이러한 상호작용들은 네트워크(예를 들어 인터넷)를 통한, 영화 시청, 텔레비전 프로그램 시청, 트레이닝 비디오 시청 또는 비디오 편집을 포함할 수 있으며, 더욱 일반화되었다. 일반적으로, 개인은 엔터테인먼트 컨텐츠에 액세스하고 시청하기 위해 머신(예를 들어, 개인용 컴퓨터)를 사용한다. 일반적으로, 이들 머신들은, 상대적으로 짧은 거리 내에서, 종종 단일 공간 내에서, 하나 이상의 스크린들(예를 들어, 모니터들)에 접속할 수 있다.
온라인 회의 서비스들과 같은 다수의 원격 파티들을 허용하는 서비스들은, 일반적으로 하나의 위치로부터 다른 참여 위치들로 오디오 또는 비디오를 제공한다. 이들 서비스들은 일반적으로, 하나의 위치로부터 컨텐츠가 스트리밍되고 다른 위치들은 컨텐츠가 도달할 때 그것을 제시하는 브로드캐스트 모델에 의존한다. 이들 서비스들은 또한 일반적으로 회의 및 포함된 컨텐츠를 제어하는 하나의 위치에 의존한다. 예를 들어, 본사에 있는 매니저는 프리젠테이션을 포함한 회의를 제어하고 다른 위치들에서 참여 직원들이 보는 슬라이드들을 제어할 것이다. 모든 참여자들로부터의 데이터 입력은 일반적으로 참여 위치들로부터의 오디오 및 비디오로 제한된다.
반드시 축척에 맞게 그려지지는 않는 도면들에서, 동일한 번호들은 상이한 뷰들에서의 유사한 컴포넌트들을 기술할 수 있다. 상이한 접미 문자들을 가지는 동일 번호들은 유사한 컴포넌트들의 상이한 경우들을 나타낼 수 있다. 도면은, 일반적으로, 제한으로서가 아닌 예시에 의해, 본 문서에서 논의된 다양한 실시예들을 예시한다.
도 1a 및 1b는 실시예에 따른, 공동 엔터테인먼트 플랫폼을 위한 시스템의 예를 예시하는 도면이다.
도 2는 실시예에 따른, 환경 지표를 가지는 동기화된 컨텐츠를 디스플레이하기 위한 스크린의 예를 예시하는 도면이다.
도 3은 실시예에 따른, 환경 지표를 가지는 동기화된 컨텐츠를 디스플레이하기 위한 스크린의 예를 예시하는 도면이다.
도 4는 실시예에 따른, 공동 엔터테인먼트 플랫폼을 구현하는 방법의 예를 예시하는 흐름도이다.
도 5는 본원에 논의된 예들 중 임의의 하나 이상이 구현될 수 있는 예시적인 머신을 예시하는 블록도이다.
상이한 그래픽 위치들(예를 들어, 상이한 집들)에 있는 사람들은, 자신들이 동일한 공간에 모두 함께 있는 것처럼 컨텐츠 경험을 공유하기를 원할 수 있다. 예를 들어, 한 부모가 떨어져 있는 가족은 부재중인 부모가 나머지 가족과 함께 방 안에 있는 것처럼 심야 영화를 경험하기를 원할 수 있다. 또다른 예에서, 부모는 졸업 비디오를 편집할 때 다른 주에 있는(out-of-state) 대학생과 협업하기를 원할 수 있다. 환경 및 시간적 고려사항들은 이러한 공유된 경험을 생성할 시에 중요할 수 있다. 예를 들어, 각각의 위치에서 디스플레이된 컨텐츠를 동기화하고 참여자 반응들을 공유하는 것(예를 들어, 이미지들, 음성 및 컨텐츠 조작)은 각각의 참여자에게, 멀리 있는 참여자들이 이들과 같은 공간에 있다는 느낌을 줄 수 있다. 주변 잡음, 조명 등과 같은 추가적인 환경적 공유는 모든 참여자들에게 실감(immersive) 경험을 추가로 제공할 수 있다.
온라인 회의 시스템들과 같은 기존 시스템은 종종 만족감을 주는 공유 경험을 용이하게 하는 것에 실패한다. 일반적으로 이들 시스템들은 컨텐츠를 공유하기 위한 단순한 브로드캐스트 메커니즘에 의존한다. 따라서, 네트워크 액세스에서의 차이들(예를 들어, 레이턴시 또는 대역폭)은 참여 위치들에서 시간적 이상(anomalies)을 초래할 수 있다. 이들 시스템들은 또한 일반적으로 컨텐츠와의 상호작용을 단일 엔티티로 제한하며, 연관된 모든 사람의 공동 참여를 허용하지 않는다. 또한, 이들 시스템들은 다양한 위치들의 환경 엘리먼트들을 참여 위치들에서 캡쳐된 오디오 또는 비디오로 제한한다.
본 발명은 컨텐츠 소비자들에 의해 요구되는 공유 경험을 제공하기 위해 기존 시스템들의 제한들을 극복할 수 있다. 예를 들어, 단순히 컨텐츠를 브로드캐스팅하는 것과 반대로, 컨텐츠 디스플레이를 동기화하는 것은 참여자들로 하여금 동시에 동일한 컨텐츠를 경험하게 할 수 있다. 또한, 참여 사이트들로부터의 환경 지표들의 동시적 공유는 컨텐츠에 대한 참여자들의 반응들을 공유하기 위한 효율적인 통신 메커니즘을 제공할 수 있다. 또한, 모든 참여자가 컨텐츠 애플리케이션(예를 들어, 비디오 재생기)과 상호작용하게 함으로써, 실제 공동 경험이 달성될 수 있다.
도 1a 및 1b는 공동 엔터테인먼트 플랫폼을 위한 시스템(100)의 예를 예시한다. 시스템(100)은 각자의 스크린(110)(예를 들어, 스크린(110A) 및 스크린 (110B))에 이미지들을 디스플레이하도록 구성된 복수의 뷰잉(viewing) 디바이스들(105)(예를 들어, 뷰잉 디바이스(105A) 및 뷰잉 디바이스(105B))을 포함할 수 있다. 복수의 뷰잉 디바이스들(105)은 이종이거나 동종일 수 있다. 예를 들어, 뷰잉 디바이스(105A)는 디지털 비디오 레코더(DVR)일 수 있고, 뷰잉 디바이스(105B)는 랩톱 컴퓨터일 수 있거나, 또는 뷰잉 디바이스(105A) 및 뷰잉 디바이스(105B) 모두는 네트워크로부터 컨텐츠를 스트리밍하도록 구성된 셋톱 박스들일 수 있다.
시스템(100)은 또한 온라인 스트리밍 서비스와 같은 컨텐츠 제공자(125)를 포함할 수 있다. 예에서, 시스템(100)은 선택적 네트워크 서버(130)를 포함할 수 있다. 예에서, 복수의 뷰잉 디바이스들(105)은 서로 (예를 들어 피어-투-피어 또는 다른 네트워크를 사용하는 유선 또는 무선 접속을 통해) 통신상으로 커플링될 수 있다. 예에서, 복수의 뷰잉 디바이스들은 네트워크 서버(130)에 통신상으로 커플링될 수 있다. 예에서, 복수의 뷰잉 디바이스들(105)은 네트워크 서버(130)를 통해 접속될 수 있다. 예에서, 복수의 뷰잉 디바이스들(105)은 컨텐츠 제공자(125)에 직접 통신상으로 커플링될 수 있다. 예에서, 복수의 뷰잉 디바이스들(105)은 네트워크 서버(130)를 통해 컨텐츠 제공자(125)에 접속될 수 있다.
시스템(100)은 도 1b에 예시된 바와 같이 식별 모듈(135), 애플리케이션 제어 모듈(140), 동기화 모듈(145), 및 환경 임프레션(environmental impression) 모듈(150) 중 하나 이상을 포함할 수 있다. 이들 모듈들은 복수의 뷰잉 디바이스들(105) 또는 네트워크 서버(130) 중 하나 이상에 포함될 수 있다.
식별 모듈(135)은 복수의 뷰잉 디바이스들(105)을 식별하도록 구성될 수 있다. 예에서, 식별 모듈(135)은 위치, 위치들의 그룹, 사람, 또는 사람들의 그룹의 사용자 선택을 수신하도록 구성될 수 있다. 식별 모듈(135)은 복수의 뷰잉 디바이스들(105)을 식별하기 위한 기반으로서 이 선택을 사용하도록 구성될 수 있다. 예를 들어, 사용자는 사용자 인터페이스를 통해 주소록을 브라우징하고 "직계 가족 구성원들"을 선택할 수 있다. 식별 모듈(135)은 이후 어느 뷰잉 디바이스들(105)이 이 선택과 연관되는지를 결정하기 위해 데이터베이스에 질의하도록 구성될 수 있다. 이러한 방식으로, 사용자들은 원하는 참여자들을 신속하고 용이하게 포함시킬 수 있다(예를 들어, 이들과 접속한다). 식별 모듈(135)이 뷰잉 디바이스(105A)에 포함되는 예에서, 식별 모듈(135)은 복수의 뷰잉 디바이스들(105)을 포함하는 어드레스 데이터(예를 들어, 주소록)를 저장하도록 구성될 수 있다. 예에서, 뷰잉 디바이스(105A) 상의 식별 모듈(135)은, 사용자에게 제시하거나 사용자 선택으로부터 참여자들을 결정하기 위한 어드레스 데이터에 대해, 또다른 뷰잉 디바이스(105B)에 포함되거나 또는 네트워크 서버(130)에 포함된 제2 식별 모듈(135)에 질의할 수 있다. 예에서, 식별 모듈(135)은 (예를 들어, 기준들의 로컬 저장 세트에 기초하여) 참여자들 또는 참여자 뷰잉 디바이스들을 식별하기 위해, 소셜 네트워킹 사이트와 같은 외부 소스에 질의하도록 구성될 수 있다.
애플리케이션 제어 모듈(140)은 복수의 뷰잉 디바이스들 중의 뷰잉 디바이스(105A)로부터 애플리케이션 제어 커맨드를 수신하고 적용하도록 구성될 수 있다. 애플리케이션 제어 모듈에 의해 제어되는 예시적인 애플리케이션들은 비디오 재생기, 비디오 편집기, 및 웹 브라우저를 포함할 수 있다. 예에서, 애플리케이션 제어 커맨드는 애플리케이션의 선택이다. 예에서, 애플리케이션 제어 모듈(135)은 스크린(105A) 상에 제시되는 사용자 인터페이스를 통해 사용자에게 애플리케이션에 대한 애플리케이션 제어를 제공하도록 구성될 수 있다. 사용자는 원격 제어, 키보드 등과 같은 입력 디바이스를 사용하여 제어들과 상호작용할 수 있다. 애플리케이션 제어 모듈(135)은 입력 디바이스로부터 입력들을 수신하고, 입력들을 애플리케이션에 적용할 수 있다. 예에서, 애플리케이션 제어 모듈(140)은 다수의 소스들로부터 애플리케이션 제어 커맨드들을 동시에 수신하고, 상기 애플리케이션 제어 커맨드들의 적용을 조정하도록 구성될 수 있다. 예를 들어, 뷰잉 디바이스(105A 및 105B) 모두에의 참여자들은 시청할 컨텐츠를 선택할 수 있다. 이들 뷰잉 디바이스들 각각에서의 애플리케이션 제어 모듈(140)은 각자의 참여자들의 애플리케이션 제어 커맨드 선택들을 서로 통신하고, 예를 들어, 어느 참여자가 영화를 먼저 선택했는지를 결정할 수 있다. 예에서, 애플리케이션 제어 모듈(140)은 로컬 스크린(110A) 상에 원격 참여자들의 액션들을 디스플레이하도록 구성될 수 있다. 예에서, 컬러 코딩은 상이한 위치들을 차별화하기 위해 사용될 수 있다. 예를 들어, 뷰잉 디바이스(105A)와 상호작용하는 참여자들에는 붉은 색이 할당될 수 있고, 뷰잉 디바이스(105B)와 상호작용하는 참여자들에는 파란 색이 할당될 수 있다. 메뉴 항목들 주위의 포인터 또는 하이라이트 경계와 같은, 이들 상호작용들의 표현들이 이들 컬러로 디스플레이될 수 있다. 예에서, 상이한 형상들(예를 들어, 상이하게 보이는 포인터들, 또는 상이한 코너 디자인 또는 라인 디자인을 가지는 경계들) 또는 투명도, 음영 등과 같은 시각적 효과들과 같은 다른 구별수단(differentiator)들이 사용될 수 있다.
예에서, 애플리케이션 제어 커맨드는 비디오 스트림(예를 들어, 영화, 텔레비전 프로그램 등)의 선택이다. 예를 들어, 참여자들에게는 영화들의 리스트가 제시될 수 있고, 참여자들은 시청을 위해 하나를 선택할 수 있다. 예에서, 애플리케이션 제어 커맨드는 비디오 스트림 제어 동작이다. 예에서, 비디오 스트림 제어 동작은 "재생", "일시정지", "중지", "되감기", "스킵-되감기", "빨리-감기", 및 "스킵 빨리-감기"의 그룹으로부터 선택된다. 이러한 방식으로, 모든 참여자들은 영화를 제어할 수 있다. 예에서, 비디오 스트림은 온라인 소매상과 같은 제3자에 의해 제공된다. 예에서, 네트워크 서버(130)는 제3자에 의해 제공된 비디오 스트림을 수신하고, 비디오 스트림을 복수의 뷰잉 디바이스들에 제공하도록 구성될 수 있다.
예에서, 애플리케이션 제어 커맨드는 비디오 편집 제어 동작이다. 예에서, 비디오 편집 제어 동작은 비디오 클립 선택이다. 예에서 비디오 편집 제어 동작은 잘릴 비디오 부분의 식별이다. 예에서, 비디오 편집 제어 동작은 선택된 비디오 세그먼트에 대한 효과, 필터 또는 다른 조작의 식별 및 적용이다. 예에서, 비디오 편집 제어 동작은 일부 또는 전체 비디오에 대한 하나 이상의 메타-데이터의 적용이다. 예에서, 비디오 편집 제어 동작은 비디오 이음 비디오 클립 및 이음 비디오 클립이 적용될 비디오의 일부분의 식별이다. 예에서, 비디오 편집 제어 동작은 비디오의 저장이다. 비디오 편집 제어 동작들은 공동으로 비디오 컨텐츠를 생성하기 위해 결합될 수 있다. 예를 들어, 제1 주(state)의 부모들은 졸업 비디오를 선택할 수 있다. 이들과 다른 주에 있는 대학생은 비디오로부터 자르거나 친구들 위에 텍스트 풍선을 추가할 순간들을 선택할 수 있다. 완성된 비디오는 이후 다른 사람들과의 추후 시청 또는 공유를 위해 저장될 수 있다.
예에서, 애플리케이션 제어 커맨드는 브라우저 제어 동작이다. 예를 들어, URL(universal resource locator: 유니버설 자원 로케이터), "순방향", "역방향", 링크 상의 클릭, 및 웹 브라우저와 연관된 다른 동작들의 선택. 예에서, 브라우저 제어 동작은 비-브라우저 애플리케이션으로부터 개시될 수 있다. 예를 들어, 공상 과학 영화를 시청하는 동안, 참여자는 장면에 나타나는 우주선을 (예를 들어, 원격 제어를 사용하여) 선택할 수 있다. 이러한 선택은 "일시정지" 비디오 스트림 제어 동작을 개시하고 URL 브라우저 제어 동작을 선택할 수 있다. 브라우저가 론치되어 우주선에 관한 배경 정보를 제공하는 온라인 백과사전 페이지와 같은 URL에서 컨텐츠를 검색하고 디스플레이할 수 있다.
동기화 모듈(145)은 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하도록 구성될 수 있다. 예에서, 동기화 모듈(145)은 복수의 뷰잉 디바이스들(105) 중 하나 이상에 완전히 존재한다. 비디오 스트림은 애플리케이션 제어 커맨드의 결과들을 포함할 수 있다. 예를 들어, 애플리케이션 제어 커맨드가 "재생"일 때, 비디오 스트림은 스크린들(110)에 디스플레이될 수 있다. 예에서, 비디오 스트림의 디스플레이의 동기화는, 참여자들이 비디오 컨텐츠의 동시적인 또는 거의 동시적인 디스플레이를 인지하도록 스크린들(110A 및 110B) 각각 상에 비디오 스트림을 제시하는 것을 포함할 수 있다.
예에서, 동기화 모듈(145)은 각각의 뷰잉 디바이스(105A 및 105B)에서의 동작 조건들을 결정할 수 있다. 예시적인 동작 조건들은 뷰잉 디바이스의 네트워크 접속의 대역폭 또는 레이턴시, 뷰잉 디바이스(105) 상의 버퍼 사이즈, 뷰잉 디바이스(105)의 프로세싱 능력들, 스크린(110) 해상도, 및 뷰잉 디바이스(105)의 출력 타입들을 포함할 수 있다. 동기화 모듈(145)은 동기화된 시청 경험을 유지하기 위해 이들 동작 조건들 중 하나 이상에 기초하여 비디오 컨텐츠의 디스플레이를 조정하도록 구성될 수 있다. 예를 들어, 뷰잉 디바이스(105A)가 뷰잉 디바이스(105B)보다 더 높은 해상도의 디스플레이를 가지는 경우, 동기화 모듈(145)은 뷰잉 디바이스(105A)에 대한 비디오 컨텐츠의 해상도를 감소시키도록 구성될 수 있다.
예에서, 복수의 뷰잉 디바이스들(105)에서의 비디오 스트림의 디스플레이를 동기화하기 위해, 동기화 모듈(145)은 각자의 네트워크 특성들에 기초하여 복수의 뷰잉 디바이스들(105) 각각에 대한 개별 버퍼 길이를 결정하도록 구성될 수 있다. 네트워크 특성들은 동작 조건들의 서브세트일 수 있다. 동기화 모듈(145)은 또한 가장 긴 버퍼 길이를 가지는 뷰잉 디바이스(105A)에 대한 버퍼가 디스플레이 임계에 도달할 때까지 비디오 스트림을 디스플레이하는 것을 억제하기 위해 복수의 뷰잉 디바이스들(105)을 제어하도록 구성될 수 있다. 디스플레이 임계는 버퍼에 대한 메트릭(예를 들어, 채움 백분율, 비트수 등)이다. 버퍼가 이 메트릭까지 또는 이 메트릭을 지나 채워질 때, 디스플레이 임계가 도달된다. 디스플레이 임계가 도달될 때, 뷰잉 디바이스(105)는 시간 기간 동안 중단되지 않는 비디오를 디스플레이할 수 있을 것이다. 예를 들어, 영화는 뷰잉 디바이스(105A)의 버퍼가 비디오 컨텐츠의 중단되지 않는 디스플레이를 허용할 만큼 충분히 찰 때까지 스크린(110B) 상에 디스플레이되지 않을 것이다. 예에서, 동기화 모듈(145)은 다른 동기화 기법들을 구현하도록 구성될 수 있다. 예를 들어, 동기화 모듈(145)은 복수의 뷰잉 디바이스들(105) 상에서 클록들을 동기화하도록 구성될 수 있다. 동기화 모듈(145)은 비디오 컨텐츠의 어느 부분들이 언제 디스플레이되어야 하는지를 비디오 컨텐츠에 타임스탬핑하거나 또는 다른 방식으로 표시할 수 있다. 이들 동기화 기법들 중 하나 이상을 구현함으로써, 동기화 모듈(145)은 다양한 위치들에서 비디오 컨텐츠를 디스플레이할 시에 시간적 차이들이 제거됨을 보장할 수 있다.
환경 임프레션 모듈(150)은 복수의 뷰잉 디바이스들(105) 중의 적어도 하나의 뷰잉 디바이스(105A)로부터 환경 지표를 수신하도록 구성될 수 있다. 환경 임프레션 모듈(150)은 또한 복수의 뷰잉 디바이스들(105) 중에서 적어도 하나의 뷰잉 디바이스(105A)가 아닌 각각의 뷰잉 디바이스(105B)에 환경 지표를 제시하도록 구성될 수 있다. 예를 들어, 위치 A에서의 마이크로폰은 영화를 시청하는 동안 가족의 대화를 캡쳐할 수 있다. 이 대화는, 대화가 부재중인 부모에게 제시되는 위치 B에 전송될 수 있다. 예를 들어, 위치 A에서의 가족의 이미지와 같은 환경 지표는 제시된 환경 지표(120B)로 위치 B에 있는 부재중인 부모에게 제시될 수 있다. 유사하게, 부재중인 부모의 이미지는 제시된 환경 지표(120A)로서 위치 A에 제시될 수 있다.
환경 지표는 이미지들, 비디오, 사운드, 및 온도, 지리적 좌표들 등과 같은 위치의 다른 측정가능한 양상들을 포함할 수 있다. 예에서, 환경 지표는 각자의 스크린(110A)의 환경을 적어도 하나의 뷰잉 디바이스(105A)에 나타내는 적어도 하나의 이미지이다. 예에서, 시스템(100)은, 적어도 하나의 뷰잉 디바이스(105A)에 통신상으로 커플링되고, 각자의 스크린(110A)의 뷰어들을 캡쳐하도록 위치되는 카메라(115A)를 포함할 수 있다. 환경 지표를 나타내는 이미지는 카메라(115A)로부터 얻어질 수 있다. 제시된 환경 지표의 예는 도 2 및 3에 관해 하기에 논의된다.
예에서, 카메라(115A)는 마이크로폰 또는 다른 감지 디바이스들을 포함할 수 있다. 예에서, 환경 지표는 적어도 하나의 뷰잉 디바이스(105A)로의 각자의 스크린(110A)의 환경의 가청적(audible) 표현이다. 예에서, 환경 임프레션 모듈(105)은 가청적 표현을 비디오 스트림의 오디오 스트림으로 통합하도록 구성된다. 예를 들어, 영화가 재생중일 때, 위치 B에 부재중인 부모는 그녀가 장면 내의 주연 배우의 헤어스타일을 좋아한다고 언급할 수 있다. 이러한 코멘트는 영화가 스크린(110A)에 제시될 때 영화의 사운드 트랙에 추가될 수 있다(예를 들어, 그 위에 계층화된다). 예에서, 코멘트(예를 들어, 코멘트를 포함하는 미가공 오디오 데이터)는 오디오 표현을 생성하도록 수정될 수 있다. 이는 비디오 컨텐츠의 오디오에 대한 영향을 감소시키기 위해 수행될 수 있다. 예에서, 미가공 캡쳐 오디오는 속삭임을 시뮬레이팅하도록 수정될 수 있다. 예에서, 미가공 캡쳐 오디오는 주변 잡음을 제거하고 화자의 목소리를 명료화하도록 필터링될 수 있다. 예에서, 필터링된 주변 잡음은, 그것이 여전히 제시되지만 화자의 목소리에 비해 그 영향이 감소되도록, 그 볼륨 또는 피치를 감소시키도록 수정될 수 있다.
시간적으로 동기화된 컨텐츠를 가지는 환경 지표를 제시하는 것은 참여자들로 하여금 이들이 동일한 공간에 함께 있는 것처럼 느끼게 하는 실감 경험을 제공할 수 있다. 애플리케이션의 공유된 제어는, 원격 제어 및 텔레비전 세트의 사용을 통해서와 같은, 원격 파티들의 물리적 존재를 시뮬레이팅함으로써 이러한 인지를 더한다.
도 2 및 3은 공동 엔터테인먼트 시스템에의 참여자들에 제시된 환경 지표들(120)의 예시적인 예이다.
도 2는 제시된 환경 지표(120)를 가지는 동기화된 컨텐츠를 디스플레이하기 위한 스크린(110)의 예를 예시한다. 이 예에서, 환경 임프레션 모듈(150)은 픽쳐-인-픽쳐 포맷으로, 카메라(115)로부터 캡쳐된 적어도 하나의 이미지를 제시하도록 구성된다. 제시된 환경 지표(120)는 픽쳐-인-픽쳐 박스의 디스플레이 영역 내에 변경되지 않은 이미지를 포함할 수 있다. 예에서, 픽쳐-인-픽쳐 박스는 스크린(110)의 임의의 위치에 배치될 수 있다. 예에서, 픽쳐-인-픽쳐 박스는 로컬 참여자들에 의해 이동될 수 있다. 예에서, 제시된 환경 지표(120)는 캡쳐된 이미지의 양식화된 버전을 포함할 수 있다. 예를 들어, 양식화된 버전은 참여자들의 아바타들을 포함할 수 있다. 예에서, 양식화된 버전은 참여자들의 후방-관점을 포함할 수 있다. 예를 들어, 참여자들의 뒤통수들이 시뮬레이팅되고 이미지 내에 배치되어 이들의 캡쳐된 얼굴들에 오버레이할 수 있다. 이것은 제시된 환경 지표(120)의 시청자가 원격 위치에서 참여자들 뒤에 앉아 있다는 인상을 제공할 수 있다. 예에서, 캡쳐된 이미지의 양식화된 버전은 이미지에서 캡쳐된 얼굴들 또는 사람들만을 필터링하고 제시하는 것, 및 가구와 같은 공간의 양상들을 억제하거나, 음영처리하거나, 또는 제거하는 것을 포함할 수 있다. 이들 기법들의 임의의 조합은 원격 참여자들이 한 장소에 함께 있다는 인지를 더하도록 적용될 수 있다.
도 3은 제시된 환경 지표(120)를 가지는 동기화된 컨텐츠를 디스플레이하기 위한 스크린(110)의 예를 예시한다. 이 예에서, 환경 임프레션 모듈은 제시된 환경 지표(120)를 비디오 스트림에 중첩시키도록 구성될 수 있다. 환경 지표는 도 2에 관해 전술된 방식들 중 하나 또는 어느 것으로도 수정될 수 있다. 예에서, 제시된 환경 지표(120)는 비디오 스트림 상에 환경 지표를 제시하는 영향을 감소시키도록 수정될 수 있다. 예를 들어, 제시된 환경 지표(120)는 원격 참여자들의 아웃라인만을 포함할 수 있다. 예에서, 비디오 스트림이 제시된 환경 지표 하에서 여전히 식별가능하도록 이미지에 투명 레벨(예를 들어, 50 퍼센트 투명)이 할당될 수 있다. 예에서, 제시된 환경 지표는 스크린(110) 상의 반영을 시뮬레이팅할 수 있다. 예를 들어, 캡쳐된 이미지는 거의 투명해질 수 있고, 원격 참여자들의 아웃라인들이 증강될 수 있고, 상기 아웃라인들은 로컬 환경의 색온도를 반영하도록 음영처리될 수 있다.
도 4는 공동 엔터테인먼트 플랫폼을 구현하기 위한 방법(400)의 예를 예시하는 흐름도이다. 도 1-3에 관해 전술된 엘리먼트들 중 임의의 것은, 방법(400)의 동작들을 구현하기 위해, 임의의 조합으로 사용될 수 있다.
동작(405)에서, 각자의 스크린들(110)에 이미지들을 디스플레이하도록 구성되는 복수의 뷰잉 디바이스들(105)이 식별될 수 있다.
동작 410에서, 애플리케이션 제어 커맨드는 복수의 뷰잉 디바이스들(105) 중 뷰잉 디바이스(105A)로부터 수신될 수 있다. 예에서, 애플리케이션 제어 커맨드는 비디오 스트림의 선택이다. 예에서, 애플리케이션 제어 커맨드는 비디오 스트림 제어 동작이다. 예에서, 비디오 스트림 제어 동작은 "재생", "일시정지", "중지", "되감기", "스킵-되감기", "빨리-감기" 및 "스킵 빨리-감기"의 그룹으로부터 선택될 수 있다. 예에서, 애플리케이션 제어 커맨드는, 도 1에 관해 전술된 것과 같은, 비디오 편집 제어 동작이다.
동작(415)에서, 환경 지표는 복수의 뷰잉 디바이스들(105) 중의 적어도 하나의 뷰잉 디바이스(105B)로부터 수신될 수 있다. 예에서, 환경 지표는 적어도 하나의 뷰잉 디바이스(105B)에 각자의 스크린(110B)의 환경을 나타내는 적어도 하나의 이미지이다. 예에서, 적어도 하나의 이미지는 각자의 스크린(110B)의 뷰어들을 캡쳐하도록 위치되는 카메라(115B)로부터 얻어질 수 있다. 예에서, 환경 지표는 적어도 하나의 뷰잉 디바이스(110B)에 대한 각자의 스크린(105B)의 환경의 가청적 표현일 수 있다.
동작(420)에서, 비디오 스트림의 디스플레이는 복수의 뷰잉 디바이스들(105)에서 동기화될 수 있다. 비디오 스트림은 애플리케이션 제어 커맨드의 결과들을 포함할 수 있다. 예를 들어, 비디오 스트림은, 애플리케이션 제어 커맨드가 "재생" 비디오 스트림 제어 동작이었을 때 영화를 재생하는 것을 포함할 수 있다.
예에서, 복수의 뷰잉 디바이스들(105)에서 비디오 스트림의 디스플레이를 동기화하는 것은 각자의 네트워크 특성들에 기초하여 복수의 뷰잉 디바이스들 각각에 대한 개별 버퍼 길이를 결정하는 것 및 가장 긴 버퍼 길이를 가지는 뷰잉 디바이스(105A)에 대한 버퍼가 디스플레이 임계에 도달할 때까지 비디오 스트림의 디스플레이를 억제하는 것을 포함할 수 있다. 예에서, 비디오 스트림은 제3자(예를 들어, 비가맹 온라인 컨텐츠 제공자)에 의해 제공될 수 있고, 비디오 스트림의 디스플레이를 동기화하는 것은 복수의 뷰잉 디바이스들(105)에 의해 완전히 조정된다.
동작(425)에서, 환경 지표는 복수의 뷰잉 디바이스들(105) 중에서 적어도 하나의 뷰잉 디바이스(105B)가 아닌 각각의 뷰잉 디바이스(105A)에 제시될 수 있다. 예에서, 환경 지표를 제시하는 것은 픽쳐-인-픽쳐 포맷으로 적어도 하나의 이미지를 제시하는 것을 포함할 수 있다. 예에서, 환경 지표를 제시하는 것은 적어도 하나의 이미지를 비디오 스트림에 중첩시키는 것을 포함할 수 있다. 예에서, 가청적 표현인 환경 지표를 제시하는 것은 오디오 표현을 비디오 스트림의 오디오 스트림으로 통합하는 것을 포함할 수 있다.
도 5는 본원에 논의된 예들(예를 들어, 시스템들, 기법들, 방법들 등) 중 임의의 하나 이상이 수행될 수 있는 예시적인 머신(500)의 블록도를 예시한다. 대안적인 실시예들에서, 머신(500)는 독립형 디바이스로서 동작할 수 있거나, 또는 다른 머신들에 접속(예를 들어, 네트워킹)될 수 있다. 네트워킹된 배치에서, 머신(500)는 서버 머신, 클라이언트 머신의 용량 내에서, 또는 서버-클라이언트 네트워크 환경들 모두에서 동작할 수 있다. 예에서, 머신(500)는 피어-투-피어(P2P)(또는 다른 분산된) 네트워크 환경에서 피어 머신로서 작용할 수 있다. 머신(500)는 개인용 컴퓨터(PC), 태블릿 PC, 셋톱 박스(STB), 개인용 디지털 보조 단말(PDA), 모바일 전화, 웹 어플라이언스, 네트워크 라우터, 스위치 또는 브리지, 또는 그 머신에 의해 취해질 액션들을 특정하는 명령들을 (순차적으로 또는 다른 방식으로) 실행할 수 있는 임의의 머신일 수 있다. 또한, 오직 하나의 머신만이 예시되었지만, 용어 "머신"는 또한 클라우드 컴퓨팅, 서비스형 소프트웨어(SaaS), 다른 컴퓨터 클러스터 구성들과 같은, 본원에 논의된 방법들 중 임의의 하나 이상을 수행하도록 명령들의 세트(또는 복수의 세트들)를 개별적으로 또는 공동으로 실행하는 머신들의 임의의 컬렉션을 포함하도록 취해질 것이다.
본원에 기술된 바와 같은 예들은 로직 또는 다수의 컴포넌트들, 모듈들, 또는 메커니즘을 포함할 수 있거나, 이들 상에서 동작할 수 있다. 모듈들은 특정된 동작들을 수행할 수 있는 유형적(tangible) 엔티티들이며, 특정 방식으로 구성되거나 배열될 수 있다. 예에서, 회로들은 모듈로서 특정된 방식으로 (예를 들어, 내부적으로 또는 다른 회로들과 같은 외부 엔티티들에 대해) 배열될 수 있다. 예에서, 하나 이상의 컴퓨터 시스템들(예를 들어, 독립적인, 클라이언트 또는 서버 컴퓨터 시스템) 또는 하나 이상의 하드웨어 프로세서들의 전부 또는 일부는 특정된 동작들을 수행하도록 동작하는 모듈로서 펌웨어 또는 소프트웨어(예를 들어, 명령들, 애플리케이션 부분, 또는 애플리케이션)에 의해 구성될 수 있다. 예에서, 소프트웨어는 (1) 비-일시적 머신-판독가능한 매체 상에, 또는 (2) 전송 신호에 존재할 수 있다. 예에서, 소프트웨어는, 모듈의 기반 하드웨어에 의해 실행될 때, 하드웨어로 하여금 특정된 동작들을 수행하게 한다.
따라서, 용어 "모듈"은 유형적 엔티티를 포함하며, 특정된 방식으로 동작하거나 본원에 기술된 임의의 동작의 일부 또는 전부를 수행하도록 물리적으로 구성되고, 구체적으로 구성되고(예를 들어, 하드배선되고), 또는 임시로(예를 들어, 일시적으로) 구성되는(프로그래밍되는) 엔티티인 것으로 이해된다. 모듈들이 임시로 구성되는 예들을 고려하면, 모듈들 각각은 시간상 임의의 한 순간에서 예시될 필요가 없다. 예를 들어, 모듈들이 소프트웨어를 사용하여 구성되는 범용 하드웨어 프로세서를 포함하는 경우, 범용 하드웨어 프로세서는 상이한 시간들에 각자의 상이한 모듈들로서 구성될 수 있다. 소프트웨어는 그에 따라, 예를 들어, 한 시점에서 특정 모듈을 구성하고, 상이한 시점에서 상이한 모듈을 구성하도록, 하드웨어 프로세서를 구성할 수 있다.
머신(예를 들어, 컴퓨터 시스템)(500)는 하드웨어 프로세서(502)(예를 들어, 중앙 처리 장치(CPU), 그래픽 처리 장치(GPU), 하드웨어 프로세서 코어, 또는 이들의 임의의 조합), 주 메모리(504) 및 정적 메모리(506)를 포함할 수 있으며, 이들의 일부 또는 전부는 링크(508)(예를 들어, 인터링크, 버스 등)를 통해 서로 통신할 수 있다. 머신(500)은 디스플레이 유닛(510), 영숫자 입력 디바이스(512)(예를 들어, 키보드), 및 사용자 인터페이스(UI) 내비게이션 디바이스(511)(예를 들어, 마우스)를 더 포함할 수 있다. 예에서, 디스플레이 유닛(510), 입력 디바이스(517) 및 UI 내비게이션 디바이스(914)는 터치 스크린 디스플레이일 수 있다. 머신(500)는 추가적으로 저장 디바이스(예를 들어, 드라이브 유닛)(516), 신호 생성 디바이스(518)(예를 들어, 스피커), 네트워크 인터페이스 디바이스(520), 및 글로벌 포지셔닝 시스템(GPS) 센서, 나침반, 가속계 또는 다른 센서와 같은 하나 이상의 센서들(521)을 포함할 수 있다. 머신(500)은 하나 이상의 주변 디바이스들(예를 들어, 프린터, 카드 판독기 등)과 통신하거나 그를 제어하기 위한 직렬(예를 들어, 유니버설 직렬 버스(USB), 병렬 또는 다른 유선 또는 무선(예를 들어, 적외선(IR)) 접속과 같은 출력 제어기(528)를 포함할 수 있다.
저장 디바이스(516)는 본원에 기술된 기법들 또는 기능들 중 임의의 하나 이상에 의해 구현되거나 활용되는 데이터 구조들 또는 명령들(524)(예를 들어, 소프트웨어)의 하나 이상의 세트가 저장된 머신-판독가능한 매체(522)를 포함할 수 있다. 명령들(524)은 또한, 주 메모리(504) 내에, 정적 메모리(506) 내에, 또는 머신(500)에 의한 명령들의 실행 동안 하드웨어 프로세서(502) 내에, 완전히 또는 적어도 부분적으로 존재할 수 있다. 예에서, 하드웨어 프로세서(502), 주 메모리(504), 정적 메모리(506) 또는 저장 디바이스(516) 중 하나 또는 임의의 조합이 머신 판독가능한 매체들을 구성할 수 있다.
머신-판독가능한 매체(522)가 단일 매체로서 예시되어 있지만, 용어 "머신 판독가능한 매체"는 하나 이상의 명령들(524)을 저장하도록 구성되는 단일 매체 또는 다수의 매체들(예를 들어, 중앙화된 또는 분산된 데이터베이스, 및/또는 연관된 캐시들 및 서버들)을 포함할 수 있다.
용어 "머신-판독가능한 매체"는 머신(500)에 의한 실행을 위한 명령들을 저장하거나, 인코딩하거나, 반송할 수 있으며, 머신(500)으로 하여금 본 개시내용의 기법들 중 임의의 하나 이상을 수행하게 하는, 또는 이러한 명령들에 의해 사용된 또는 이러한 명령들과 연관된 데이터 구조들을 저장하거나, 인코딩하거나 반송할 수 있는, 임의의 유형적 매체를 포함할 수 있다. 비-제한적인 머신-판독가능한 매체는 고체-상태 메모리들, 및 광학 및 자기 매체들을 포함할 수 있다. 머신-판독가능한 매체들의 특정 예들은: 반도체 메모리 디바이스들(예를 들어, 전기적 프로그램가능 판독-전용 메모리(EPROM), 전기적 소거가능 프로그램가능 판독-전용 메모리(EEPROM)) 및 플래시 메모리 디바이스들과 같은 비-휘발성 메모리; 내부 하드 디스크들 및 제거가능 디스크들과 같은 자기 디스크들; 자기-광학 디스크들; 및 CD-ROM 및 DVD-ROM 디스크들을 포함할 수 있다.
명령들(524)은 다수의 전송 프로토콜들(예를 들어, 프레임 릴레이, 인터넷 프로토콜(IP), 전송 제어 프로토콜(TCP), 사용자 데이터그램 프로토콜(UDP), 하이퍼텍스트 전송 프로토콜(HTTP) 등) 중 어느 하나를 활용하는 네트워크 인터페이스 디바이스(520)를 통해 전송 매체를 사용하여 통신 네트워크(526)를 통해 추가로 전송되거나 수신될 수 있다. 예시적인 통신 네트워크들은 특히, 로컬 영역 네트워크(LAN), 광역 네트워크(WAN), 패킷 데이터 네트워크(예를 들어, 인터넷), 모바일 전화 네트워크들(예를 들어, 셀룰러 네트워크들), POTS(Plain Old Telephone: 순수 기존 전화) 네트워크들, 및 무선 데이터 네트워크들(예를 들어, Wi-Fi®로서 공지된 전기 전자 기술자 협회(IEEE) 802.11 표준 계열, WiMax®로서 공지된 IEEE 802.16 표준 계열), 피어-투-피어(P2P) 네트워크들을 포함할 수 있다. 예에서, 네트워크 인터페이스 디바이스(520)는 통신 네트워크(526)에 접속하기 위한 하나 이상의 물리적 잭들(예를 들어, 이더넷, 동축 또는 전화 잭들) 또는 하나 이상의 안테나들을 포함할 수 있다. 예에서, 네트워크 인터페이스 디바이스(520)는 단일-입력 다중-출력(SIMO), 다중-입력 다중-출력(MIMO), 또는 다중-입력 단일-출력(MISO) 기법들 중 적어도 하나를 사용하여 무선으로 통신하기 위해 복수의 안테나들을 포함할 수 있다. 용어 "전송 매체"는 머신(500)에 의한 실행을 위한 명령들을 저장하거나, 인코딩하거나 반송할 수 있는 임의의 비유형적 매체를 포함하도록 취해질 것이며, 이러한 소프트웨어의 통신을 용이하게 하기 위해 디지털 또는 아날로그 통신 신호들 또는 다른 비유형적 매체를 포함한다.
추가적 주석들 & 예들
예 1은 복수의 뷰잉 디바이스들을 포함하는 (장치, 디바이스, 머신 또는 시스템과 같은) 발명 대상을 포함할 수 있고, 복수의 뷰잉 디바이스들 각각은 각자의 스크린에 접속되고 각자의 스크린에 이미지들을 디스플레이하도록 구성된다. 예 1은 또한 복수의 뷰잉 디바이스들을 식별하도록 구성되는 식별 모듈을 포함할 수 있다. 예 1은 또한 복수의 뷰잉 디바이스들 내이 뷰잉 디바이스로부터 수신된 애플리케이션 제어 커맨드를 수신하고 적용하도록 구성되는 애플리케이션 제어 모듈을 포함할 수 있다. 예 1은 또한 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하도록 구성되는 동기화 모듈을 포함할 수 있고, 비디오 스트림은 애플리케이션 제어 커맨드의 결과들을 포함한다. 예 1은 또한 복수의 뷰잉 디바이스들 내의 적어도 하나의 디바이스로부터 환경 지표를 수신하고, 복수의 뷰잉 디바이스들 중에서 적어도 하나의 뷰잉 디바이스가 아닌 하나 이상의 뷰잉 디바이스에 환경 지표를 제시하도록 구성되는 환경 임프레션 모듈을 포함할 수 있다.
예 2에서, 예 1의 발명 대상은 선택적으로 애플리케이션 제어 커맨드가 비디오 스트림의 선택인 경우를 포함할 수 있다.
예 3에서, 예 1-2 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 애플리케이션 제어 커맨드가 비디오 스트림 제어 동작이고, 비디오 스트림 제어 동작이 재생, 일시정지, 중지, 되감기, 스킵-되감기, 빨리-감기, 및 스킵 빨리-감기의 그룹으로부터 선택되는 경우를 포함할 수 있다.
예 4에서, 예 1-3 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 애플리케이션 제어 커맨드가 비디오 편집 제어 동작인 경우를 포함할 수 있다.
예 5에서, 예 1-4 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 환경 지표가 적어도 하나의 뷰잉 디바이스에 각자의 스크린의 환경을 나타내는 적어도 하나의 이미지인 경우를 포함한다.
예 6에서, 예 5의 발명 대상은 선택적으로, 적어도 하나의 뷰잉 디바이스에 통신상으로 커플링되며 각자의 스크린의 뷰어들을 캡쳐하도록 위치되는 카메라를 포함하고, 적어도 하나의 이미지는 카메라로부터 얻어진다.
예 7에서, 예 5-6 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 환경 지표를 제시하기 위해, 환경 임프레션 모듈이 픽쳐-인-픽쳐 포맷으로 적어도 하나의 이미지를 제시하도록 구성되는 경우를 포함할 수 있다.
예 8에서, 예 5-7 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 환경 지표를 제시하기 위해, 환경 임프레션 모듈이 적어도 하나의 이미지를 비디오 스트림으로부터 얻어진 이미지들에 중첩시키도록 구성되는 경우를 포함할 수 있다.
예 9에서, 예 1-8 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 환경 지표가 적어도 하나의 뷰잉 디바이스에 대한 각자의 스크린의 환경의 가청적 표현인 경우를 포함할 수 있다.
예 10에서, 예 9의 발명 대상은 선택적으로, 환경 임프레션 모듈이 가청적 표현을 비디오 스트림의 오디오 스트림 내에 통합하도록 구성되는 경우를 포함할 수 있다.
예 11에서, 예 1-10 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하는 것을 포함할 수 있다. 동기화 모듈은 각자의 네트워크 특성들에 기초하여 복수의 뷰잉 디바이스들 각각에 대한 개별 버퍼 길이를 결정하고, 가장 긴 버퍼 길이를 가지는 뷰잉 디바이스에 대한 버퍼가 디스플레이 임계에 도달할 때까지 비디오 스트림을 디스플레이하는 것을 억제하도록 복수의 뷰잉 디바이스들을 제어하도록 구성될 수 있다.
예 12에서, 예 1-11 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 비디오 스트림이 제3자에 의해 제공되며, 동기화 모듈이 복수의 뷰잉 디바이스들 중 하나 이상에 완전히 존재하는 경우를 포함할 수 있다.
예 13에서, 예 1-2 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 동기화 모듈을 포함하는 네트워크 서버를 포함할 수 있다. 네트워크 서버는 제3자에 의해 제공되는 비디오 스트림을 수신하고, 복수의 뷰잉 디바이스들에 비디오 스트림을 제공하도록 구성될 수 있다.
예 14는, 식별 모듈을 사용하여, 각자의 스크린들에 이미지들을 디스플레이하도록 구성되는 복수의 뷰잉 디바이스들을 식별하는 것, 복수의 뷰잉 디바이스들 중의 뷰잉 디바이스로부터, 애플리케이션 제어 커맨드를 수신하는 것, 복수의 뷰잉 디바이스들 중의 적어도 하나의 뷰잉 디바이스로부터 환경 지표를 수신하는 것, 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화시키는 것 ― 비디오 스트림은 애플리케이션 제어 커맨드의 결과들을 포함함 ― , 및 복수의 뷰잉 디바이스들 중에서 상기 적어도 하나의 뷰잉 디바이스가 아닌 각각의 뷰잉 디바이스에 환경 지표를 제시하는 것을 포함하는 (방법, 동작들을 수행하기 위한 수단, 또는 머신에 의해 수행될 때 머신로 하여금 동작들을 수행하게 하는 명령들을 포함하는 머신-판독가능한 매체와 같은) 발명 대상을 포함하도록 예 1-13 중 하나 또는 임의의 것의 발명 대상을 포함할 수 있거나, 또는 선택적으로 이들과 결합될 수 있다.
예 15에서, 예 14의 발명 대상은 선택적으로, 애플리케이션 제어 커맨드가 비디오 스트림의 선택인 경우를 포함할 수 있다.
예 16에서, 예 14-15 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 애플리케이션 제어 커맨드가 비디오 스트림 제어 동작이며, 비디오 스트림 제어 동작이 재생, 일시정지, 중지, 되감기, 스킵 되감기, 빨리-감기, 및 스킵 빨리-감기의 그룹으로부터 선택되는 경우를 포함할 수 있다.
예 17에서, 예 14-16 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 애플리케이션 제어 커맨드가 비디오 편집 제어 동작인 경우를 포함할 수 있다.
예 18에서, 예 14-17 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 환경 지표가 적어도 하나의 뷰잉 디바이스에 각자의 스크린의 환경을 나타내는 적어도 하나의 이미지인 경우를 포함할 수 있다.
예 19에서, 예 18의 발명 대상은 선택적으로, 적어도 하나의 이미지가 각자의 스크린의 뷰어들을 캡쳐하도록 위치되는 카메라로부터 얻어지는 경우를 포함할 수 있다.
예 20에서, 예 18-19 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 환경 지표를 제시하는 것이 적어도 하나의 이미지를 픽쳐-인-픽쳐 포맷으로 제시하는 것을 포함하는 경우를 포함할 수 있다.
예 21에서, 예 18-20 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 환경 지표를 제시하는 것이 적어도 하나의 이미지를 비디오 스트림으로부터 얻어진 이미지들에 중첩시키는 것을 포함하는 경우를 포함할 수 있다.
예 22에서, 예 14-21 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 환경 지표가 적어도 하나의 뷰잉 디바이스에 각자의 스크린의 환경의 가청적 표현인 경우를 포함할 수 있다.
예 23에서, 예 22의 발명 대상은 선택적으로, 환경 지표를 제시하는 것이 가청적 표현을 비디오 스트림의 오디오 스트림 내로 통합시키는 것을 포함하는 경우를 포함할 수 있다.
예 24에서, 예 14-23 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하는 것이 각자의 네트워크 특성들에 기초하여 복수의 뷰잉 디바이스들 각각에 대한 개별 버퍼 길이를 결정하는 것, 및 가장 긴 버퍼 길이를 가지는 뷰잉 디바이스에 대한 버퍼가 디스플레이 임계에 도달할 때까지 비디오 스트림의 디스플레이를 억제하는 것을 포함하는 경우를 포함할 수 있다.
예 25에서, 예 14-24 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 비디오 스트림이 제3자에 의해 제공되고, 비디오 스트림의 디스플레이를 동기화하는 것이 복수의 뷰잉 디바이스들에 의해 완전히 조정되는 경우를 포함할 수 있다.
예 26에서, 예 14-25 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 비디오 스트림이 제3자에 의해 네트워크 서버에 제공되고, 비디오 스트림의 디스플레이를 동기화하는 것이 복수의 뷰잉 디바이스들 각각에 대해 네트워크 서버에 의해 조정되는 경우를 포함할 수 있다.
예 27은 각자의 스크린들에 이미지들 디스플레이하도록 구성된 복수의 뷰잉 디바이스들을 식별하는 것, 복수의 뷰잉 디바이스들 내의 디바이스로부터 애플리케이션 제어 커맨드를 수신하는 것, 복수의 뷰잉 디바이스들 중의 적어도 하나의 뷰잉 디바이스로부터 환경 지표를 수신하는 것, 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하는 것 ― 비디오 스트림은 애플리케이션 제어 커맨드의 결과들을 포함함 ―, 복수의 뷰잉 디바이스들 중에서 적어도 하나의 뷰잉 디바이스가 아닌 각각의 뷰잉 디바이스에 환경 지표를 제시하는 것을 포함하는 (방법, 동작들을 수행하기 위한 수단, 또는 머신에 의해 수행될 때 머신로 하여금 동작들을 수행하게 하는 명령들을 포함하는 머신-판독가능한 매체와 같은) 발명 대상을 포함할 수 있거나, 또는 이를 포함하도록 예 1-26 중 하나 또는 임의의 조합의 발명 대상과 선택적으로 결합될 수 있다.
예 28은 스크린에 접속된, 그리고 스크린 상에 이미지들을 디스플레이하고, 애플리케이션 제어 커맨드를 수신하고, 애플리케이션 제어 모듈에 애플리케이션 제어 커맨드를 통신하고, 그리고 스크린에 환경 지표 ― 환경 지표는 환경 임프레션 모듈에 의해 제시됨 ― 를 제시하도록 구성되는, 공동 엔터테인먼트 플랫폼에 대한 (장치, 디바이스, 뷰잉 디바이스, 머신 또는 시스템과 같은) 발명 대상을 포함할 수 있거나, 또는 이를 포함하도록 예 1-27 중 하나 또는 임의의 조합의 발명 대상과 선택적으로 결합될 수 있다.
예 29에서, 예 28의 발명 대상은 선택적으로 애플리케이션 제어 모듈을 포함할 수 있고, 애플리케이션 제어 모듈은 애플리케이션 제어 커맨드를 적용하도록 구성된다.
예 30에서, 예 28-29 중 하나 또는 임의의 것의 발명 대상은 선택적으로 환경 임프레션 모듈을 포함할 수 있다. 환경 임프레션 모듈은 복수의 뷰잉 디바이스들 중의 적어도 하나의 뷰잉 디바이스로부터 환경 지표를 수신하고 ― 복수의 뷰잉 디바이스들은 뷰잉 디바이스를 포함함 ― , 복수의 뷰잉 디바이스들 중에서 상기 적어도 하나의 뷰잉 디바이스가 아닌 하나 이상의 뷰잉 디바이스에 환경 지표를 제시하도록 구성될 수 있다.
예 31에서, 예 28-30 중 하나 또는 임의의 것의 발명 대상은 선택적으로 복수의 뷰잉 디바이스들을 식별하도록 구성되는 식별 모듈을 포함할 수 있다.
예 32에서, 예 28-31 중 하나 또는 임의의 것의 발명 대상은 선택적으로, 동기화 모듈을 포함하고, 동기화 모듈은 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하도록 구성되고, 복수의 뷰잉 디바이스들은 뷰잉 디바이스를 포함하고, 비디오 스트림은 애플리케이션 제어 커맨드의 결과들을 포함한다.
위의 상세한 설명은 상세한 설명의 일부를 형성하는 첨부 도면들에 대한 참조들을 포함한다. 도면들은, 예시에 의해, 구현될 수 있는 특정 실시예들을 도시한다. 이들 실시예들은 또한 "예들"로서 본원에서 지칭된다. 이러한 예들은 도시되거나 기술된 것에 추가하여 엘리먼트들을 포함할 수 있다. 그러나, 본 발명자들은 또한 도시되거나 기술된 엘리먼트들만이 제공되는 예들을 참작한다. 또한, 본 발명자들은, 본원에 도시되거나 기술된, 특정 예(또는 특정 예의 하나 이상의 양상들)에 관해, 또는 다른 예들(예를 들어, 다른 예들의 하나 이상의 양상들)에 관해, 도시되거나 기술된 엘리먼트들의 임의의 결합 또는 치환을 사용하는 예들(또는 이들의 하나 이상의 양태)을 참작한다.
이 문서에서 참조되는 모든 공보들, 특허들, 또는 특허 문서들은 인용에 의해 개별적으로 포함되는 것처럼, 그 전체가 본원에 인용에 의해 포함된다. 이 문서 및 인용에 의해 포함된 문서들 간의 부합하지 않은 사용들의 경우, 포함된 레퍼런스(들)에서의 사용이 이 문서의 사용에 대해 보충적인 것으로 간주되어야 하며; 양립불가능한 모순에 대해, 이 문서에서의 사용을 제어한다.
이 문서에서, 단수("a" 또는 "an")는, 특허 문서들에서 일반적인 바와 같이, "적어도 하나" 또는 "하나 이상"의 임의의 다른 경우들 또는 사용들과는 독립적으로, 하나 또는 하나 초과를 포함하도록 사용된다. 이 문서에서, 용어 "또는"은 다른 방식으로 표시되지 않는 한, "A 또는 B"가 "B가 아닌 A", "A가 아닌 B", 및 "A 및 B"를 포함하도록, 비배타적 또는을 지칭하도록 사용된다. 첨부된 청구항들에서, 용어 "포함하는(including)" 및 "여기서(in which)"는 각자의 용어들 "포함하는(comprising)" 및 "여기서(wherein)"의 순수-영어 등가물로서 사용된다. 또한, 후속하는 청구항들에서, 용어 "포함하는(including 및 comprising)"은 확장가능(open-ended)한데, 즉, 청구항 내의 이러한 용어 다음에 열거되는 것에 추가하여 엘리먼트들을 포함하는 시스템, 디바이스, 물품, 또는 프로세스는 그 청구항의 범위 내에 드는 것으로 여전히 간주된다. 또한, 후속하는 청구항들에서, 용어들 "제1", "제2" 및 "제3" 등은 단지 라벨들로서 사용되며, 그 객체들에 대해 수치적 요건들을 부과하도록 의도되지는 않는다.
위의 기재는 제한적인 것이 아니라 예시적인 것으로 의도된다. 예를 들어, 전술된 예들(또는 전술된 예들의 하나 이상의 양상들)은 서로 결합되어 사용될 수 있다. 다른 실시예들은, 위 기재를 리뷰할 시에 당업자에 의해서와 같이 사용될 수 있다. 요약은 독자가 기술적 개시내용의 속성을 신속하게 확인하게 하기 위해 37 C.F.R.§1.72(b)에 순응하도록 제공된다. 그것이 청구항들의 범위 또는 의미를 분석하거나 제한하도록 사용되지 않을 것이라는 점이 이해된다. 또한, 위의 상세한 설명에서, 다양한 특징들은 개시내용을 간소화하기 위해 함께 그룹화될 수 있다. 이는 청구되지 않은 개시된 특징이 임의의 청구항에 대해 필수적임을 의도하는 것으로서 해석되지 않아야 한다. 오히려, 발명 대상은 특정 개시된 실시예의 전체보다 더 적은 특징들에 존재할 수 있다. 따라서, 후속하는 청구항들은 이에 의해 상세한 설명에 포함되며, 각각의 청구항은 그 자체가 별도의 실시예로서 존재한다. 청구된 발명 대상의 범위는, 이러한 청구항들에 자격을 부여하는 등가물들의 전체 범위와 함께, 첨부된 청구항들에 관련되어 결정되어야 한다.

Claims (32)

  1. 공동 엔터테인먼트 플랫폼을 위한 시스템으로서,
    복수의 뷰잉(viewing) 디바이스들을 식별하도록 구성된 식별 모듈 ― 상기 복수의 뷰잉 디바이스들 각각은 각자의 스크린에 접속되고 상기 각자의 스크린에 이미지들을 디스플레이하도록 구성됨 ― ;
    상기 복수의 뷰잉 디바이스들 중의 뷰잉 디바이스로부터 비디오 스트림에 관한 애플리케이션 제어 커맨드를 수신하고 상기 애플리케이션 제어 커맨드를 적용하도록 구성된 애플리케이션 제어 모듈;
    상기 복수의 뷰잉 디바이스들에서 상기 비디오 스트림의 디스플레이를 동기화하도록 구성된 동기화 모듈 ― 상기 비디오 스트림은 상기 애플리케이션 제어 커맨드의 결과들을 포함함 ― ; 및
    환경 임프레션(environmental impression) 모듈
    을 포함하고, 상기 환경 임프레션 모듈은:
    상기 복수의 뷰잉 디바이스들 중의 적어도 하나의 뷰잉 디바이스로부터 환경 지표를 수신하고 - 상기 환경 지표는 상기 적어도 하나의 뷰잉 디바이스의 위치에서 캡쳐된 이미지들, 비디오, 또는 사운드 중 적어도 하나임 - ; 그리고
    상기 복수의 뷰잉 디바이스들 중에서 상기 적어도 하나의 뷰잉 디바이스가 아닌 하나 이상의 뷰잉 디바이스에 상기 비디오 스트림에 중첩된 상기 환경 지표를 제시하도록 구성되는 시스템.
  2. 제1항에 있어서,
    상기 애플리케이션 제어 커맨드는 상기 비디오 스트림의 선택인 시스템.
  3. 제1항에 있어서,
    상기 애플리케이션 제어 커맨드는 비디오 스트림 제어 동작이고, 상기 비디오 스트림 제어 동작은 재생, 일시정지, 중지, 되감기, 스킵-되감기, 빨리-감기, 및 스킵 빨리-감기의 그룹으로부터 선택되는 시스템.
  4. 제1항에 있어서,
    상기 애플리케이션 제어 커맨드는 비디오 편집 제어 동작인 시스템.
  5. 제1항에 있어서,
    상기 환경 지표는 상기 각자의 스크린의 환경을 상기 적어도 하나의 뷰잉 디바이스에 나타내는 적어도 하나의 이미지를 포함하는 시스템.
  6. 제5항에 있어서,
    상기 적어도 하나의 뷰잉 디바이스에 통신상으로 커플링되고 상기 각자의 스크린의 뷰어들을 캡쳐하도록 위치되는 카메라를 포함하고, 상기 적어도 하나의 이미지는 상기 카메라로부터 얻어지는 시스템.
  7. 삭제
  8. 제5항에 있어서,
    상기 환경 지표를 제시하기 위해, 상기 환경 임프레션 모듈은 상기 비디오 스트림으로부터 얻어진 이미지들에 상기 적어도 하나의 이미지를 중첩시키도록 구성되는 시스템.
  9. 삭제
  10. 삭제
  11. 제1항에 있어서,
    상기 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화시키기 위해, 상기 동기화 모듈은:
    각자의 네트워크 특성들에 기초하여 상기 복수의 뷰잉 디바이스들 각각에 대한 개별 버퍼 길이를 결정하고; 그리고
    가장 긴 버퍼 길이를 가지는 뷰잉 디바이스에 대한 버퍼가 디스플레이 임계에 도달할 때까지 상기 비디오 스트림을 디스플레이하는 것을 억제하도록 상기 복수의 뷰잉 디바이스들을 제어하도록 구성되는 시스템.
  12. 제1항에 있어서,
    상기 비디오 스트림은 제3자에 의해 제공되고, 상기 동기화 모듈은 상기 복수의 뷰잉 디바이스들 중 하나 이상에 완전히 존재하는 시스템.
  13. 삭제
  14. 공동 엔터테인먼트 플랫폼을 위한 방법으로서,
    식별 모듈을 사용하여, 각자의 스크린들에 이미지들을 디스플레이하도록 구성된 복수의 뷰잉 디바이스들을 식별하는 단계;
    상기 복수의 뷰잉 디바이스들 중의 뷰잉 디바이스로부터 비디오 스트림에 관한 애플리케이션 제어 커맨드를 수신하는 단계;
    상기 복수의 뷰잉 디바이스들 중의 적어도 하나의 뷰잉 디바이스로부터 환경 지표를 수신하는 단계 - 상기 환경 지표는 상기 적어도 하나의 뷰잉 디바이스의 위치에서 캡쳐된 이미지들, 비디오, 또는 사운드 중 적어도 하나임 - ;
    상기 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하는 단계 ― 상기 비디오 스트림은 상기 애플리케이션 제어 커맨드의 결과들을 포함함 ― ; 및
    상기 복수의 뷰잉 디바이스들 중에서 상기 적어도 하나의 뷰잉 디바이스가 아닌 각각의 뷰잉 디바이스에 상기 비디오 스트림에 중첩된 상기 환경 지표를 제시하는 단계를 포함하는 방법.
  15. 삭제
  16. 제14항에 있어서,
    상기 애플리케이션 제어 커맨드는 비디오 스트림 제어 동작이고, 상기 비디오 스트림 제어 동작은 재생, 일시정지, 중지, 되감기, 스킵-되감기, 빨리-감기, 및 스킵 빨리-감기의 그룹으로부터 선택되는 방법.
  17. 제14항에 있어서,
    상기 애플리케이션 제어 커맨드는 비디오 편집 제어 동작인 방법.
  18. 제14항에 있어서,
    상기 환경 지표는 상기 각자의 스크린의 환경을 상기 적어도 하나의 뷰잉 디바이스에 나타내는 적어도 하나의 이미지를 포함하는 방법.
  19. 제18항에 있어서,
    상기 적어도 하나의 이미지는 상기 각자의 스크린의 뷰어들을 캡쳐하도록 위치되는 카메라로부터 얻어지는 방법.
  20. 제18항에 있어서,
    상기 환경 지표를 제시하는 단계는 픽쳐-인-픽쳐(PIP) 포맷으로 상기 적어도 하나의 이미지를 제시하는 단계를 포함하는 방법.
  21. 삭제
  22. 제14항에 있어서,
    상기 환경 지표는 상기 적어도 하나의 뷰잉 디바이스로의 상기 각자의 스크린의 환경의 가청적 표현을 포함하는 방법.
  23. 제22항에 있어서,
    상기 환경 지표를 제시하는 단계는 상기 가청적 표현을 상기 비디오 스트림의 오디오 스트림 내로 중첩하는 단계를 포함하는 방법.
  24. 제14항에 있어서,
    상기 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하는 단계는 각자의 네트워크 특성들에 기초하여 상기 복수의 뷰잉 디바이스들 각각에 대한 개별 버퍼 길이를 결정하는 단계, 및 가장 긴 버퍼 길이를 가지는 뷰잉 디바이스에 대한 버퍼가 디스플레이 임계에 도달할 때까지 상기 비디오 스트림을 디스플레이하는 것을 억제하는 단계를 포함하는 방법.
  25. 제14항에 있어서,
    상기 비디오 스트림은 제3자에 의해 제공되고, 상기 비디오 스트림의 디스플레이를 동기화하는 단계는 상기 복수의 뷰잉 디바이스들에 의해 완전히 조정되는 방법.
  26. 삭제
  27. 복수의 명령들을 포함하는 비일시적 머신-판독가능한 매체로서,
    상기 복수의 명령들은, 컴퓨팅 디바이스 상에서 실행되는 것에 응답하여, 상기 컴퓨팅 디바이스로 하여금,
    식별 모듈을 사용하여, 각자의 스크린들에 이미지들을 디스플레이하도록 구성된 복수의 뷰잉 디바이스들을 식별하는 동작;
    상기 복수의 뷰잉 디바이스들 중의 뷰잉 디바이스로부터 비디오 스트림에 관한 애플리케이션 제어 커맨드를 수신하는 동작;
    상기 복수의 뷰잉 디바이스들 중의 적어도 하나의 뷰잉 디바이스로부터 환경 지표를 수신하는 동작 - 상기 환경 지표는 상기 적어도 하나의 뷰잉 디바이스의 위치에서 캡쳐된 이미지들, 비디오, 또는 사운드 중 적어도 하나임 - ;
    상기 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하는 동작 ― 상기 비디오 스트림은 상기 애플리케이션 제어 커맨드의 결과들을 포함함 ― ; 및
    상기 복수의 뷰잉 디바이스들 중에서 상기 적어도 하나의 뷰잉 디바이스가 아닌 각각의 뷰잉 디바이스에 상기 비디오 스트림에 중첩된 상기 환경 지표를 제시하는 동작
    을 포함하는 동작들을 수행하게 하는 비일시적 머신-판독가능한 매체.
  28. 스크린에 접속된 공동 엔터테인먼트 플랫폼에 대한 뷰잉 디바이스로서,
    상기 뷰잉 디바이스는:
    상기 스크린 상에 이미지들을 디스플레이하고;
    비디오 스트림에 관한 애플리케이션 제어 커맨드를 수신하고,
    상기 뷰잉 디바이스로부터 떨어져 있는 애플리케이션 제어 모듈에 상기 애플리케이션 제어 커맨드를 통신하고; 그리고
    상기 스크린에 상기 애플리케이션 제어 모듈로부터 수신되는 환경 지표를 제시 - 상기 환경 지표는 환경 임프레션 모듈에 의해 제시됨 - 하도록 구성되는 뷰잉 디바이스.
  29. 제28항에 있어서,
    상기 애플리케이션 제어 모듈은 상기 애플리케이션 제어 커맨드를 적용하도록 구성되는 뷰잉 디바이스.
  30. 제28항에 있어서,
    상기 환경 지표를 제시하기 위해, 상기 환경 임프레션 모듈은:
    복수의 뷰잉 디바이스들 중의 적어도 하나의 뷰잉 디바이스로부터 환경 지표를 수신하고 ― 상기 복수의 뷰잉 디바이스들은 상기 뷰잉 디바이스를 포함함 ― ; 그리고
    상기 복수의 뷰잉 디바이스들 중에서 상기 적어도 하나의 뷰잉 디바이스가 아닌 하나 이상의 뷰잉 디바이스에 상기 환경 지표를 제시하도록 구성되는 뷰잉 디바이스.
  31. 제30항에 있어서,
    상기 복수의 뷰잉 디바이스들을 식별하도록 구성된 식별 모듈을 포함하는 뷰잉 디바이스.
  32. 제28항에 있어서,
    동기화 모듈을 포함하고, 상기 동기화 모듈은 복수의 뷰잉 디바이스들에서 비디오 스트림의 디스플레이를 동기화하도록 구성되고, 상기 복수의 뷰잉 디바이스들은 상기 뷰잉 디바이스를 포함하고, 상기 비디오 스트림은 상기 애플리케이션 제어 커맨드의 결과들을 포함하는 뷰잉 디바이스.
KR1020147017981A 2011-12-22 2011-12-22 공동 엔터테인먼트 플랫폼 KR101598486B1 (ko)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/US2011/066856 WO2013095512A1 (en) 2011-12-22 2011-12-22 Collaborative entertainment platform

Publications (2)

Publication Number Publication Date
KR20140092412A KR20140092412A (ko) 2014-07-23
KR101598486B1 true KR101598486B1 (ko) 2016-02-29

Family

ID=48669153

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020147017981A KR101598486B1 (ko) 2011-12-22 2011-12-22 공동 엔터테인먼트 플랫폼

Country Status (7)

Country Link
US (1) US9106791B2 (ko)
EP (1) EP2795914A4 (ko)
JP (1) JP2015507406A (ko)
KR (1) KR101598486B1 (ko)
CN (1) CN104012103B (ko)
TW (1) TWI515032B (ko)
WO (1) WO2013095512A1 (ko)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006041885A (ja) * 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US9026370B2 (en) 2007-12-18 2015-05-05 Hospira, Inc. User interface improvements for medical devices
US8848024B2 (en) * 2011-03-08 2014-09-30 CSC Holdings, LLC Virtual communal television viewing
AU2012299169B2 (en) 2011-08-19 2017-08-24 Icu Medical, Inc. Systems and methods for a graphical interface including a graphical representation of medical data
WO2013090709A1 (en) 2011-12-16 2013-06-20 Hospira, Inc. System for monitoring and delivering medication to a patient and method of using the same to minimize the risks associated with automated therapy
CN104012103B (zh) * 2011-12-22 2017-11-17 英特尔公司 协作式娱乐平台
ES2741725T3 (es) 2012-03-30 2020-02-12 Icu Medical Inc Sistema de detección de aire y método para detectar aire en una bomba de un sistema de infusión
US10463788B2 (en) 2012-07-31 2019-11-05 Icu Medical, Inc. Patient care system for critical medications
US10547713B2 (en) 2012-11-20 2020-01-28 Nvidia Corporation Method and system of transmitting state based input over a network
US20140195594A1 (en) * 2013-01-04 2014-07-10 Nvidia Corporation Method and system for distributed processing, rendering, and displaying of content
JP6470694B2 (ja) * 2013-02-01 2019-02-13 パーラー ラブズ、インコーポレイテッド リーダ・アクティビティを評価するためのシステム及び方法
WO2014186662A1 (en) * 2013-05-17 2014-11-20 Aereo, Inc. Method and system for displaying speech to text converted audio with streaming video content data
WO2014190264A1 (en) 2013-05-24 2014-11-27 Hospira, Inc. Multi-sensor infusion system for detecting air or an occlusion in the infusion system
EP3003442B1 (en) 2013-05-29 2020-12-30 ICU Medical, Inc. Infusion system and method of use which prevents over-saturation of an analog-to-digital converter
CA2913915C (en) 2013-05-29 2022-03-29 Hospira, Inc. Infusion system which utilizes one or more sensors and additional information to make an air determination regarding the infusion system
US9640084B2 (en) * 2013-09-24 2017-05-02 Xerox Corporation Computer-based system and method for creating customized medical video information using crowd sourcing
EP3110474B1 (en) 2014-02-28 2019-12-18 ICU Medical, Inc. Infusion system and method which utilizes dual wavelength optical air-in-line detection
JP2017517302A (ja) 2014-05-29 2017-06-29 ホスピーラ インコーポレイテッド 構成可能閉ループ送達速度キャッチアップを有する注入システムおよびポンプ
CN104079863B (zh) * 2014-06-27 2018-04-27 联想(北京)有限公司 一种信息处理方法及电子设备
US10462505B2 (en) * 2014-07-14 2019-10-29 Sonos, Inc. Policies for media playback
US11344668B2 (en) 2014-12-19 2022-05-31 Icu Medical, Inc. Infusion system with concurrent TPN/insulin infusion
US10850024B2 (en) 2015-03-02 2020-12-01 Icu Medical, Inc. Infusion system, device, and method having advanced infusion features
US10630773B2 (en) 2015-11-12 2020-04-21 Nvidia Corporation System and method for network coupled cloud gaming
US11027199B2 (en) 2015-11-12 2021-06-08 Nvidia Corporation System and method for network coupled gaming
CN105812943B (zh) * 2016-03-31 2019-02-22 北京奇艺世纪科技有限公司 一种视频编辑方法及系统
WO2017197024A1 (en) 2016-05-13 2017-11-16 Icu Medical, Inc. Infusion pump system and method with common line auto flush
CA3027176A1 (en) 2016-06-10 2017-12-14 Icu Medical, Inc. Acoustic flow sensor for continuous medication flow measurements and feedback control of infusion
US10291952B2 (en) * 2017-02-24 2019-05-14 Google Llc Multiple-device media swap
US10089055B1 (en) * 2017-12-27 2018-10-02 Icu Medical, Inc. Synchronized display of screen content on networked devices
US11019305B2 (en) * 2018-01-12 2021-05-25 Facebook, Inc. Coordinated effects in videos
US20190394539A1 (en) * 2018-06-22 2019-12-26 At&T Intellectual Property I, L.P. Systems and methods for proximal multimedia event synchronization
US11278671B2 (en) 2019-12-04 2022-03-22 Icu Medical, Inc. Infusion pump with safety sequence keypad
WO2022020184A1 (en) 2020-07-21 2022-01-27 Icu Medical, Inc. Fluid transfer devices and methods of use
US11135360B1 (en) 2020-12-07 2021-10-05 Icu Medical, Inc. Concurrent infusion with common line auto flush

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7475180B2 (en) * 1993-02-10 2009-01-06 Mondis Technology Ltd. Display unit with communication controller and memory for storing identification number for identifying display unit

Family Cites Families (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2513180B2 (ja) * 1986-01-13 1996-07-03 ソニー株式会社 ビデオテックス表示装置
US5038301A (en) * 1987-07-31 1991-08-06 Compaq Computer Corporation Method and apparatus for multi-monitor adaptation circuit
JPH01269539A (ja) 1988-04-22 1989-10-27 Toshin Kogyo Kk 両面プリント方法及び装置
JPH03164791A (ja) * 1989-11-24 1991-07-16 Hitachi Ltd 映像表示装置
JPH0549026A (ja) * 1991-08-13 1993-02-26 Nippon Telegr & Teleph Corp <Ntt> 映像編集再生方法
GB2286322A (en) * 1994-01-29 1995-08-09 Ibm Computer display system
JPH09128330A (ja) * 1995-11-06 1997-05-16 Sony Corp 映像表示装置
US5948091A (en) * 1995-12-01 1999-09-07 Texas Instruments Incorporated Universal digital display interface
JP3097736B2 (ja) * 1996-11-29 2000-10-10 日本電気株式会社 多画面伝送式多地点テレビ会議システム
US6285397B1 (en) * 1997-01-16 2001-09-04 Display Laboratories, Inc. Alignment of cathode ray tube video displays using a host computer processor
JP2000004432A (ja) 1998-06-12 2000-01-07 Mitsubishi Electric Corp 動画像共有システム
JP2002116996A (ja) * 2000-10-05 2002-04-19 Hokkaido Technology Licence Office Co Ltd 協調作業支援方法およびシステム、並びに協調作業用クライアント端末装置および協調作業コーディネータ並びに記録媒体
JP4182464B2 (ja) 2001-02-09 2008-11-19 富士フイルム株式会社 ビデオ会議システム
US20060064342A1 (en) * 2001-06-18 2006-03-23 Quality Resources Worldwide, Llc. Internet based qualitative research method and system and Synchronous and Asynchronous audio and video message board
US20040068756A1 (en) 2002-10-02 2004-04-08 Koninklijke Philips Electronics N.V. Virtual link between CE devices
JP2006041888A (ja) 2004-07-27 2006-02-09 Sony Corp 情報処理装置および方法、記録媒体、並びにプログラム
US20070050822A1 (en) * 2005-08-31 2007-03-01 Cable Television Laboratories, Inc. Method and system of providing shared community experience
CN1928859A (zh) * 2005-09-08 2007-03-14 年代数位媒体股份有限公司 互动式多媒体界面与显示
KR101276833B1 (ko) * 2006-11-10 2013-06-18 엘지전자 주식회사 수신기 및 이 수신기에서 데이터 방송을 시청하는 방법
US9253222B2 (en) * 2007-02-22 2016-02-02 Match.Com. L.L.C. Synchronous delivery of media content in a collaborative environment
US20080209075A1 (en) 2007-02-22 2008-08-28 Yahoo! Inc. Synchronous delivery of media content and real-time communication for online dating
WO2009098878A1 (ja) * 2008-02-06 2009-08-13 Panasonic Corporation 映像音声データ同期方法、映像出力機器、音声出力機器及び映像音声出力システム
JP2009239646A (ja) 2008-03-27 2009-10-15 Fuji Xerox Co Ltd テレビ会議システムおよびテレビ会議装置および画像処理プログラム
JP2009284055A (ja) 2008-05-20 2009-12-03 Tokyo Univ Of Agriculture & Technology プログラム、情報記憶媒体及び動画配信システム
US8593570B2 (en) * 2008-11-07 2013-11-26 Looxcie, Inc. Video recording camera headset
US8157078B1 (en) * 2008-11-25 2012-04-17 Bank Of America Corporation Cash handling device having environmental condition monitoring system
US20100306671A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Avatar Integrated Shared Media Selection
EP2517469A4 (en) * 2009-12-22 2014-01-15 Vidyo Inc SYSTEM AND METHOD FOR INTERACTIVE SYNCHRONIZED VIDEO VISUALIZATION
US8893022B2 (en) * 2010-04-01 2014-11-18 Microsoft Corporation Interactive and shared viewing experience
KR101763593B1 (ko) * 2010-08-24 2017-08-01 엘지전자 주식회사 컨텐츠 동기화 방법 및 그 방법을 채용한 사용자 단말기
MX336565B (es) * 2011-08-24 2016-01-25 Sony Corp Aparato de recepcion, metodo de recepcion, programa y sistema de procesamiento de informacion.
US8870087B2 (en) * 2011-09-12 2014-10-28 Siemens Industry, Inc. Thermostat control device with integrated feedback and notification capability
US20140214673A1 (en) * 2011-12-21 2014-07-31 Jim S. Baca Method for authentication using biometric data for mobile device e-commerce transactions
CN104012103B (zh) * 2011-12-22 2017-11-17 英特尔公司 协作式娱乐平台
CN104025504B (zh) * 2011-12-27 2018-07-31 英特尔公司 用于通过设备特定的一次性密码向网络认证的方法、系统、设备和装置
US20140304076A1 (en) * 2012-04-17 2014-10-09 Jim S. Baca Variable reward offers based on travel route
EP2859433A4 (en) * 2012-06-11 2016-01-27 Intel Corp TECHNIQUES FOR SELECTING-MAINTAINING-RELEASING A NAVIGATION MENU SYSTEM OF AN ELECTRONIC DEVICE
US20140273956A1 (en) * 2013-03-15 2014-09-18 Jim S. Baca Motion initiated teleconference
US9928413B2 (en) * 2013-06-13 2018-03-27 Intel Corporation Techniques for user authentication on a computing device via pattern recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7475180B2 (en) * 1993-02-10 2009-01-06 Mondis Technology Ltd. Display unit with communication controller and memory for storing identification number for identifying display unit

Also Published As

Publication number Publication date
EP2795914A4 (en) 2015-08-12
TW201330907A (zh) 2013-08-01
US9106791B2 (en) 2015-08-11
TWI515032B (zh) 2016-01-01
WO2013095512A1 (en) 2013-06-27
KR20140092412A (ko) 2014-07-23
CN104012103B (zh) 2017-11-17
CN104012103A (zh) 2014-08-27
JP2015507406A (ja) 2015-03-05
US20140267563A1 (en) 2014-09-18
EP2795914A1 (en) 2014-10-29

Similar Documents

Publication Publication Date Title
KR101598486B1 (ko) 공동 엔터테인먼트 플랫폼
US20210306595A1 (en) System and Method for Interactive Video Conferencing
US10033967B2 (en) System and method for interactive video conferencing
US9349414B1 (en) System and method for simultaneous capture of two video streams
US11171893B2 (en) Methods and systems for providing virtual collaboration via network
US8112490B2 (en) System and method for providing a virtual environment with shared video on demand
JP5984840B2 (ja) コンテンツの順序付け
US9883244B2 (en) Multi-source video navigation
US11481983B2 (en) Time shifting extended reality media
EP3342158A1 (en) System and method for interactive video conferencing
US20150195320A1 (en) Method, System and Software Product for Improved Online Multimedia File Sharing
WO2019056001A1 (en) INTERACTIVE VIDEOCONFERENCE SYSTEM AND METHOD
US20120192106A1 (en) Multimedia authoring tool
US10764655B2 (en) Main and immersive video coordination system and method
CN112601110B (zh) 用于内容记录和分享的方法和设备
KR20170085781A (ko) 유무선 통신 네트워크 기반 가상 현실 영상 제공 및 이를 위한 예매 시스템
TW200807325A (en) Method and system for performing image processing via network environment
KR101816446B1 (ko) 평면 디스플레이에서 표시되는 텔레프레전스 이론을 적용한 3 차원 콘텐츠 영상 처리 시스템 및 그 방법
Zoric et al. End User, Production and Hardware and Network Requirements

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20190129

Year of fee payment: 4