KR101826704B1 - 비디오 프로덕션 공유 장치 및 방법 - Google Patents

비디오 프로덕션 공유 장치 및 방법 Download PDF

Info

Publication number
KR101826704B1
KR101826704B1 KR1020167009702A KR20167009702A KR101826704B1 KR 101826704 B1 KR101826704 B1 KR 101826704B1 KR 1020167009702 A KR1020167009702 A KR 1020167009702A KR 20167009702 A KR20167009702 A KR 20167009702A KR 101826704 B1 KR101826704 B1 KR 101826704B1
Authority
KR
South Korea
Prior art keywords
video
data
computer
video stream
block
Prior art date
Application number
KR1020167009702A
Other languages
English (en)
Other versions
KR20160100907A (ko
Inventor
상카 자야람
비카스 케이. 싱
리테시 케일
존 해리슨
찰스 드쉔느
우마 자야람
Original Assignee
인텔 코포레이션
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 인텔 코포레이션 filed Critical 인텔 코포레이션
Publication of KR20160100907A publication Critical patent/KR20160100907A/ko
Application granted granted Critical
Publication of KR101826704B1 publication Critical patent/KR101826704B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • H04N13/0203
    • H04N13/0282
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

비디오 프로덕션 공유 장치로서: 프로세서, 메모리 및 입력 장치를 갖는 제1 컴퓨터를 포함하며, 상기 메모리는 그 내부에 기억된 프로그램을 가지며, 상기 프로그램은 상기 프로세서를 통해 이행되고, 상기 프로세서로 하여금: 1) 적어도 하나의 비디오 스트림에 액세스하게 하고, 2) 상기 제1 컴퓨터의 상기 입력 장치로 적어도 하나의 비디오 스트림의 시청 관점을 조작하여 개별화된 비디오를 생성하게 하고, 또한 3) 적어도 하나의 비디오 스트림을 조작하는데 이용되는 상기 입력 장치로부터 사용자 입력의 데이터 파일을 전송하여 적어도 하나의 비디오 스트림의 개별화된 비디오를 묘사하는 개별화된 비디오를 생성하게 하도록 디자인된다. 방법이 또한 제공된다.

Description

비디오 프로덕션 공유 장치 및 방법{VIDEO PRODUCTION SHARING APPARATUS AND METHOD}
본 발명은 비디오 프로덕션을 기록하고 이 비디오 프로덕션을 원격 위치에서 시청하기 위한 시스템 및 방법에 관한 것이다. 보다 특별하게는, 본 발명은 하나 이상의 파노라마 또는 큰 가시 범위의 비디오 피드와 관련된 메타데이터를 기록하고 비디오 프로덕션 데이터를 갖는 기록된 메타데이터 및 상이한 소스로부터 유래된 오리지널 비디오 피드를 이용하여 비디오 프로덕션을 재현하는 것과 관련된다.
비디오를 캡쳐링하고 기록하는 기술들이 공지되어 있다. 대부분의 기술은 비디오를 캡쳐하고 비디오 카메라로부터 비디오 스트림(또는 피드)를 생성하는 비디오 캡쳐 시스템을 포함한다. 시청자는 비디오 카메라 조작자에 의해 구현되는 카메라 배향, 위치, 및 줌에 의해 제한된다. 시청자가 대형 가시 범위의 비디오 스트림을 다른 사용자에 의해 공유되고 재현될 수 있는 고유한 비디오 프로덕션에 맞추는 것을 가능하게 하기 위한 개선이 필요하다.
하나 이상의 파노라마 및/또는 고 해상도 비디오 피드로부터 비디오 프로덕션을 기록하고 메타데이터, 제작 데이터, 및 원격 소스로부터의 비디오 피드를 이용하여 원격 위치에서 비디오 프로덕션을 재현하기 위한 장치 및 방법이 제공된다.
본 발명은, 비디오 프로덕션 공유 장치로서, 프로세서, 메모리 및 입력 장치를 갖는 제1 컴퓨터를 포함하며, 상기 메모리는 그 내부에 기억된 프로그램을 가지며, 상기 프로그램은 상기 프로세서를 통해 이행되고, 상기 프로세서로 하여금: 1) 적어도 하나의 비디오 스트림에 액세스하게 하고, 2) 상기 제1 컴퓨터의 상기 입력 장치로 적어도 하나의 비디오 스트림의 시청 관점(viewing perspective)을 조작하여, 팬(pan), 틸트(tilt), 줌(zoom) 및 시간적 시청 방향 및/또는 속도에서의 변화를 포함하는, 상기 비디오 스트림 내에서의 탐색(navigation)에 의해 생성되는 개별화된 비디오를 랜더링하게 하고, 또한 3) 비디오 프로덕션 데이터 및 비디오 전송 제어 데이터를 포함하는 사용자 입력의 데이터 파일을 적어도 하나의 클라이언트에게 전송하게 하도록 디자인되는 ― 상기 입력 장치로부터의 상기 비디오 프로덕션 데이터는 상기 비디오 스트림 내를 탐색하여 상기 개별화된 비디오를 랜더링하는데 이용되며, 상기 비디오 전송 제어 데이터는 상기 비디오 프로덕션 데이터, 상기 비디오 전송 제어 데이터, 및 상기 비디오 스트림을 포함하는 전송된 데이터 파일을 이용하여 상기 적어도 하나의 클라이언트에서 상기 비디오 스트림이 상기 개별화된 비디오를 생성하도록 특징지워짐 ― , 비디오 프로덕션 공유 장치를 제공한다. 상기 비디오 프로덕션 공유 장치는, 제1 컴퓨터와 소통하며, 프로세서, 메모리 및 출력 장치를 갖는 제2 컴퓨터를 더 포함하며, 상기 메모리는 그 내부에 기억된 프로그램을 가지며, 상기 프로그램은 상기 프로세서를 통해 이행되며, 상기 프로세서로 하여금: 1) 상기 적어도 하나의 비디오 스트림으로부터 랜더링된 비디오 및 상기 데이터 파일을 수신하게 하고, 2) 상기 적어도 하나의 비디오 스트림의 렌더링을 상기 데이터 파일로 조작함에 의해 상기 제2 컴퓨터에서의 시청(viewing)을 위해 개인 비디오를 생성하게 하고, 또한 3) 상기 제2 컴퓨터의 출력 장치 상에서 상기 개인 비디오를 시청할 수 있게 하도록 디자인된다. 본 발명은 또한, 비디오 프로덕션을 공유하기 위한 방법으로서, 비디오 스트림, 입력 장치를 갖는 적어도 하나의 컴퓨터, 및 적어도 하나의 클라이언트를 제공하는 단계; 상기 적어도 하나의 컴퓨터에서 상기 비디오 스트림에 액세스하는 단계; 상기 적어도 하나의 컴퓨터의 상기 입력 장치로 팬, 틸트, 줌 및 시간적 시청 방향 및/또는 속도에서의 변화를 포함하는 입력 제어를 이용하여 상기 비디오 스트림의 시청 관점을 조작하여 개별화된 비디오를 생성하는 단계; 및 고유의 개별화된 클립을 생성하는 개별화된 시청(view)의 제어를 가능하게 하는 상기 입력 장치에 대한 입력 제어를 포함하는, 상기 입력 장치로부터의 비디오 프로덕션 데이터와 상기 비디오 스트림의 상기 개별화된 비디오를 묘사하는 비디오 전송 제어 데이터를 포함하는 데이터 파일의 형태로 상기 개별화된 비디오를 랜더링하기 위해 상기 비디오 스트림 내에서 탐색하는데 이용되는, 상기 입력 장치로부터의 사용자 입력을 캡처링하는 단계; 비디오 프로덕션 데이터 및 비디오 전송 제어 데이터를 포함하는 사용자 입력의 상기 데이터 파일, 및 상기 비디오 스트림을 상기 클라이언트에서 수신하는 단계; 및 상기 데이터 파일 및 상기 비디오 스트림을 이용하여 상기 적어도 하나의 클라이언트에서 상기 개별화된 비디오를 생성하는 단계를 포함하는, 비디오 프로덕션을 공유하기 위한 방법을 제공한다. 상기 방법에서, 적어도 하나의 뷰 스트림은 복수개의 비디오 스트림을 포함하며, 상기 시청 관점을 조작하는 단계는 복수개의 비디오 스트림을 포함하는 시간에 걸쳐서 시청 관점을 생성하는 단계를 포함하고, 각각의 시청 관점은 상기 복수개의 비디오 스트림 각각의 이미지 공간 내에 이미지 서브-공간을 캡쳐하도록 각각의 비디오 스트림을 조작하기 위하여 사용자 입력을 포함하며, 각각의 이미지 서브-공간은 주어진 시간의 인스턴스(instance)에서의 각 비디오 스트림의 전체 이미지 공간을 포함한다. 단일 비디오 디텍터 또는 스테레오스코픽 쌍의 비디오 디텍터를 위한 것을 넘어서는 범위로부터의 모노스코픽 이미지 또는 스테레오스코픽 이미지 및 오디오 입력과 같은 주변 환경으로부터의 시간에 걸친 정보를 캡쳐하기 위하여 하나 이상의 고유 장소(또는 동작)에 비디오 디텍터의 스테레오스코픽 쌍의 어레이 외에도, 모노스코픽 비디오 디텍터가 제공된다. 하나 이상의 대형 가시 범위 비디오 피드로부터 비디오 프로덕션을 생성하기 위하여 사용자에 의해 사용자 인터페이스에서 하나 이상의 비디오 디텍터로부터 출력되는 비디오가 액세스된다. 생성된 비디오 프로덕션은 다음으로 비디오 피드 및 제작 데이터와 관련된 기록된 메타데이터와 사용자와는 상이한 소스로부터 유래한 오리지널 비디오 피드를 이용하여 원격 장소에서 동일 또는 다른 사용자에 의해 재현된다.
일 측면에 따르면, 비디오 프로덕션 공유 장치는 프로세서, 메모리, 입력 장치를 갖는 제1 컴퓨터를 구비하며, 상기 메모리는 그 내부에 프로그램이 기억되고, 상기 프로그램은 상기 프로세서를 통해 이행되며, 상기 프로세서가 1) 적어도 하나의 비디오 스트림에 액세스하고, 2) 개별화된 비디오를 생성하기 위하여 제1 컴퓨터의 입력 장치를 이용하여 적어도 하나의 비디오 스트림의 시청 관점을 조작하고, 또한 3) 적어도 하나의 비디오 스트림의 개별화된 비디오를 묘사하는 개별화된 비디오를 생성하도록 적어도 하나의 비디오 스트림을 조작하는데 이용되는 입력 장치로부터 사용자 입력의 데이터 파일을 전송하도록 디자인된다.
다른 측면에서, 비디오 프로덕션을 공유하기 위한 방법이 제공되는데, 상기 방법은: 적어도 하나의 비디오 스트림 및 적어도 하나의 컴퓨터를 제공하는 단계; 적어도 하나의 컴퓨터에서 적어도 하나의 비디오 스트림에 액세스하는 단계; 개별화된 비디오를 생성하기 위하여 적어도 하나의 컴퓨터의 입력 장치를 이용하여 적어도 하나의 비디오 스트림의 시청 관점을 조작하는 단계; 및 적어도 하나의 비디오 스트림의 개별 비디오를 묘사하는 데이터 파일의 형태로 개별 비디오를 생성하도록 적어도 하나의 비디오 스트림을 조작하는데 이용되는 입력 장치로부터 사용자 입력을 랜더링하는 단계를 포함한다.
다른 측면에서, 하나 이상의 파노라마 및/또는 고해상도 비디오 피드로부터 비디오 프로덕션을 기록하고, 메타데이터, 제작 데이터, 및 원격 소스로부터의 비디오 피드를 이용하여 원격 장소에서 비디오 프로덕션을 재현하기 위한 장치 및 방법이 제공된다. 다른 측면에서, 각각의 이미지 서브-공간이, 주어진 시간의 인스턴스(instance)에서의 각 비디오 스트림의 전체 이미지 공간을 포함하는, 비디오 프로덕션을 공유하기 위한 방법이 제공된다.
본 발명의 양호한 실시예가 아래의 첨부된 도면을 참조로 이하 설명된다.
도 1은 하나 이상의 파노라마 및/또는 고해상도 비디오 피드로부터 비디오 프로덕션을 기록하고 메타데이터, 제작 데이터, 및 원격 소스로부터의 비디오 피드를 이용하여 원격 위치에서 비디오 프로덕션을 재현하기 위한 장치 및 방법을 도시하는 개략도이다.
도 2는 제1 사용자가 개인 비디오 프로덕션을 생성 및 기록할 수 있도록 하고 또한 제2 사용자가 개인 비디오 프로덕션에 액세스 및/또는 개조할 수 있도록 프로덕션 데이터 및 비디오 피드와 결합하는 제2 사용자 메타데이터를 이용하여 제1 사용자에 의한 공유할 수 있도록 하는 도 1의 장치 및 방법의 구현을 도시하는 기능적 블럭도이다.
도 3은 도 1의 시스템(10)을 이용하여 비디오 클립을 기록 및 생성하는데 포함되는 단계를 도시하는 흐름도이다.
도 4는 도 1의 시스템(10)을 이용하여 비디오 클립을 공유하는데 포함되는 단계를 도시하는 흐름도이다.
도 5는 도 1의 시스템(10)을 이용하여 소셜 미디어 네트워크에 포스트되는 비디오 클립을 재생하는데 포함되는 단계를 도시하는 흐름도이다.
도 6은 사용자에 의해 트리거되는 비디오 재생 상태 변화 이벤트를 처리하는데 있어 포함되는 단계를 도시하는 흐름도이다.
도 7은 개인 사용자 비디오를 생성하는 경우 캡쳐된 이미지 공간 내로부터 사용자 결정 방향 및 가시 범위를 갖는 풀세트 또는 부분세트으로서 일련의 고유 기간에서 이미지 공간(전체 이미지 공간 포함) 내에 이미지 서브-공간으로서 사용자가 캡쳐할 수 있는 이미지 공간을 규정하는 파노라마 및/또는 고해상도 비디오 피드를 생성하는데 이용되는 비디오 이미지를 캡쳐하기 위한 카메라 어레이 캡쳐 시스템을 도시하는 간략화된 개략도이다.
도 8은 스스로와 또는 제2 사용자와 개인 사용자 비디오를 공유하기 원하는 제1 사용자에 의해 생성되는 개별 캡쳐된 이미지 서브-공간(또는 서브-영역)를 위한 메타데이터의 선택된 세그먼트의 샘플이다.
본 발명은 미국 특허법의 "과학 및 유용한 기술의 진보를 촉진하기 위하여"(아티클 1, 섹션 8)라는 입법 목적의 발전을 위하여 제출된 것이다.
실시예는 복수개의 파노라마 비디오 카메라로부터 또는 로컬 스토리지 디스크로부터 비디오 스트림을 수신하고, 로컬 메모리 버퍼에 비디오 데이터를 기억하고, 인터넷 및 소셜 미디어를 통해 공유될 수 있는 개인 비디오를 생성하도록 비디오를 조작하고, 생성된 개인 비디오를 시청하기 위한 장치 및 방법을 개시한다. 하나 이상의 파노라마 및/또는 고해상도 비디오 피드로부터의 비디오 프로덕션을 기록하고 메타데이터, 제작 데이터 및 원격 소스로부터의 비디오 피드를 이용하여 원격 장소에서 비디오 프로덕션을 재현하기 위한 장치 및 방법이 제공된다.
이미지 입력의 경우에 대해, 스테레오스코픽 쌍의 비디오 카메라가 어레이로 제공된다. 파노라마 비디오를 위한 파노라마 이미지 데이터를 생성하기 위한 프로세싱 회로를 갖는 모노스코픽 또는 스테레오스코픽 비디오 디텍터의 조합 유닛이 파노라마 비디오 카메라 헤드(Panoramic Video Camera Head)로 칭한다. 파노라마 비디오 카메라 헤드로부터의 비디오 데이터가 시청자에게 스트리밍되거나 또는 컴퓨터 메모리 또는 스토리지 내에 기록되고 시청자에 의해 검색되고 제어를 위하어 사용자 인터페이스 장치를 이용하여 시청된다.
여기에 설명된 각종 실시예가 도면을 참조로 설명된다. 그러나, 특정 실시예는 하나 이상의 이러한 구체적 상세 없이 또는 다른 공지된 방법 및 구성과 결합하여 실시될 수 있다. 아래의 설명에서, 본 발명의 완전한 이해를 제공하기 위하여 특정 구성 및 방법과 같은 각종 특정 상세가 설명된다. 다른 예로서, 불필요하게 본 발명에 혼돈을 주지 않기 위하여 공지된 구성 기술 및 방법은 특히 상세하게 설명하지 않는다. 명세서 전체에 걸쳐서 "일 실시예" 또는 "한 실시예" 라는 것은 실시예와 결합하여 설명되는 본 발명의 적어도 하나의 실시예에 특별한 특징, 구성, 조성, 또는 특성이 적어도 하나의 실시예에 포함된다는 것을 의미한다. 그러므로, 본 명세서 전체에 걸친 각종 위치에서의 "일 실시예에서" 또는 "한 실시예에서" 라는 표현의 등장은 반드시 본 발명의 동일한 실시예를 칭하지는 않는다. 더욱이, 특별한 특징, 구성, 조성, 또는 특성이 하나 이상의 실시예에서 적절한 방식으로 조합될 수 있다.
도 1은 하나 이상의 파노라마 및 고해상도 비디오 피드로부터 비디오 프로덕션을 기록하고 메타데이터, 프로덕션 데이터, 및 원격 소스로부터의 비디오 피드를 이용하여 원격 장소에서 비디오 프로덕션을 재현하기 위한 장치(10) 및 방법을 제공한다. 카메라 또는 카메라 어레이(또는 스테레오스코픽 카메라 쌍)와 같은 기록 장치(16)는 기록 장치(16)에 의해 캡쳐되는 장면에서의 하나 이상의 이미지 오브젝트(18)를 캡쳐한다. 하나 이상의 기록 장치(16)는 오브젝트(18)에 대한 비디오/미디어를 캡쳐하고 이를 하나 이상의 서버(12)에 전송한다. 비디오 스트림/비디오 클립/미디어 개체(20)가 카메라(16)에 의해 생성된다.
도 1에 도시된 것처럼, 하나 이상의 서버(12)가 비디오 스트림(20)을 수신한다. 서버(12)에 상주하는 비디오/미디어 클립(22)은 휴대용 전자 장치 또는 태블릿 컴퓨터(32)에서 제1 사용자(32)에 제공된다. 태블릿 컴퓨터(28)는 입력 장치(30)를 갖는다. 태블릿 컴퓨터(28)는 서버(12)로부터 비디오 피드 또는 비디오 클립 형태의 미디어를 획득하는 이동 장치 상의 개체이다. 서버(12)로부터 미디어를 수신했으므로, 이동 장치(28)는 이제 메타데이터(42)에 의해 규정되는 자체-제작된 클립 또는 세그먼트를 생성 및 기록할 수 있다.
도 1의 사용자 인터페이스(30)는 파노라마 비디오(22)와 인터렉트하도록 하는 인터렉션 장치를 도시한다. 장치(28)의 사용자 인터페이스(30)는 개체의 고유 시청 관점을 캡쳐하는 이러한 고유한 개별화된 클립(24)의 동시 발생하는 기록을 따라 시청의 개인 제어를 제공한다. 개별화된 클립(24)은 저장되고 공유된다. 저장 및 공유시에, 도면 번호 42인 메타데이터(42)가 공유된다. 메타데이터(42)는 클라우드(14) 내에 제공된 임의 종류의 데이터 스토어에 기억을 위하여 클라우드(14)(인터넷에 걸쳐 분산된)로 전송된다. 또한, 메타데이터(42)는 페이스북®(26)과 같은 소셜 미디어로 갈 수 있다. 이어서, 공유 및 분산을 위하여 인터넷(40)으로 간다. 인터넷(40)을 통해, 메타데이터(42)를 통해 랜더링된 결과적 비디오(24)는 인터넷을 통해 수신할 수 있는 모든이에게로 간다.
다른 이동 장치(34)(및 사용자 입력 장치(36)) 상의 다른 사용자(38)는 사용자(38)가 사용자(32)로부터의 자체-제작된 클립 또는 세그먼트를 볼 수 있도록 하는 메타데이터(42) 및 비디오 클립(22)를 수신할 수 있다. 사용자(또는 개체)(38)는 이동 장치(28)에 의해 생성된 메타데이터(42)를 수신하고, 추가로 서버(12)로부터 얻어진 비디오 클립(22)을 수신한다. 메타데이터(44)와 서버(12)로부터의 직접 비디오 클립(22)을 가지는 것은 비디오/미디어에 대한 개인적으로 생성된 개조의 일 대 다수의 공유 활동을 위해 필요한 시간 및 데이터를 현저히 감소시키는 것에 대한 효율성을 가능하게 한다. 장치(36)를 이용하는 개체(38)는 클립(24)을 더욱 개조하는 능력을 가지며, 잇따른 공유 및 스토리지를 위한 소셜 미디어 사이트 및 클라우드에 메타데이터(44)를 역으로 전송한다.
도 2에 도시된 것처럼, 개체, 또는 사용자(32)는 클라이언트 어플리케이션(46)으로의 액세스를 갖는다. 다중 카메라로부터의 비디오 피드(22)는 이러한 클라이언트 어플리케이션을 이용하여 액세스된다. 어플리케이션을 이용하여, 개체 또는 사용자는 기록 옵션(78)을 선택한다. 기록된 패킷(76)은 시작 시간, 사용자 이벤트 및 종료 시간과 같은 메타데이터로 구성된다. 메타데이터는 파일(75)과 같은 스토리지 메카니즘내에 기억된다. 이는 데이터를 전용 데이터 스토어(74) 내에 저장하거나 또는 개체/사용자가 이러한 기록된 유닛(48)을 공유하는 옵션을 선택하도록 하는 것에 대한 선택을 포함하는 수개의 선택을 자체로 하도록 한다.
공유시, 도 2에 도시된 것처럼 소셜 미디어로 플러그-인되는 네트워크가 메타데이터 파일(50)과 함께 런치된다. 이러한 메타데이터는 친구 및 소셜 네트워크(52)에 포스트되고, 소셜 네트워크(54)로 간다. 다른 옵션은 소셜 네트워크를 우회하고, 3D4U 뷰어(60)와 같은 전용 앱으로 가는 것이다. 이 앱은 다른 사용자(38)에 의해 이용되는 앱 내에서의 기록으로 링크(62)를 전송한다.
도 2의 개체 또는 사용자(38)는 또한 클라이언트 어플리케이션(56)을 런칭한다. 이러한 클라이언트 어플리케이션은 앱(62) 에서의 기록으로의 링크를 수신하고 및/또는 소셜 네트워크 인터페이스(58) 내의 기록으로의 링크를 수신한다. 앱은 메타데이터(24)로부터 재작된 비디오를 재현한다. 이는 다중 카메라(22) 및 파일 또는 메타데이터(74)를 위한 등가의 스토리지 메카니즘으로부터의 비디오 피드를 이용하여 수행된다.
개체(38)는 이하를 포함하는 도 2에 도시된 것과 같은 수개의 선택을 갖는다: 일 선택은 시청 및 팔로우(66)이다. 다른 선택은 공유된 데이터(68)에 데이터를 더욱 추가하는 것이다. 이는 파일(74)과 같은 스토리지 메카니즘으로 전송된다. 제3 선택은 개조(70)이다. 이는 신규 메타데이터(72)를 생성한다. 이러한 신규 메타데이터(72)는 친구에 및 소셜 미디어(53)에 포스트될 수 있고, 소셜 네트워크(54)로 전송된다.
도 3은 (도 1의) 시스템(10)을 이용하여 비디오 클립을 기록 및 생성하기 위한 논리 프로세싱을 도시하는 프로세스 흐름도를 형성한다. 보다 특별하게는, 도 3은 클립을 기록 및 생성하는데 이용되는 논리 프로세싱을 도시한다.
도 3에 도시된 것처럼, 논리 흐름도는 비디오 클립을 기록하는 경우 본 출원인의 발명에 따른 시스템에 의해 이행되는 단계를 도시한다.
단계 S1에서, 개인은 시각적으로 민감한 매체를 이용하여 비디오 기록의 시작을 요청한다. 사용자 인터페이스 내에 위치된 링크, 배너, 버튼, 클릭 가능한 아이콘, 클릭 가능한 그래픽, 또는 사용자 인터페이스 상에 위치된 하이퍼텍스트 링크를 포함하는 시각적으로 민감한 매체의 각종 형태가 상상될 수 있다. 단계 S1을 수행한 이후에, 공정은 단계 S2로 진행된다.
단계 S2에서, 메타데이터가 장치 메모리 내의 비디오 클립을 위해 생성된다. 메타데이터는 Enumerations, Dictionaries, Hashtable, Arrays, Lists 또는 Binary Trees 또는 file의 하나 이상의 조합을 포함하는 데이터 스토리지의 임의의 형태일 수 있다. 단계 S2를 수행한 이후에, 공정은 단계 S3으로 진행된다.
단계 S3에서, 공정은 현재 재생 시간을 획득하고, 이를 단계 S2에서 생성된 메타데이터에 추가한다. 이는 스트링 또는 정수 또는 이진 형태로서 추가될 수 있다. 단계 S3를 수행한 후에, 공정은 단계 S4로 진행한다.
단계 S4에서, 공정은 사용자 이벤트 모두를 기록 또는 캡쳐를 시작한다. 공정은 기록이 시작되었음을 나타내도록 변수에 값을 설정할 수 있다. 변수는 스트링, 부울 대수(boolean), 정수 또는 이진수와 같은 임의 형태의 데이터 스토리지일 수 있다. 단계 S4를 수행한 이후에, 공정은 단계 S5로 진행된다.
단계 S5에서, 공정은 이벤트를 저장하기 위한 데이터 스토리지를 생성한다. Enumerations, Dictionaries, Hashtable, Arrays, Lists 또는 Binary Trees 또는 file의 하나 이상의 조합을 포함하는 다양한 형태의 스토리지가 가능하다. 단계 S5를 수행한 이후에, 공정은 단계 S6으로 진행된다.
단계 S6에서, 공정은 기록 시간을 추적하기 위하여 타이머를 시작한다. 이 단계는 시간 지속기간을 추적하기 위한 기능성을 제공하는 클래스의 오브젝트를 초기화하거나 또는 개수를 초기화할 수 있다. 단계 S6을 수행한 이후에, 공정은 단계 S7으로 진행된다.
단계 S7에서, 공정은 기록이 진행중인지 여부를 질의한다. 공정이 단계 S4에서 설정된 변수의 값을 획득하고, 단계 S4에서 설정한 것과 동일한 값을 가지는 경우, 기록이 진행중임을 나타내고 아닌 경우 기록은 중지된다. 예를 들면, 사용자가 기록을 중지하는 경우 공정은 단계 S4에서 "참"으로 설정된 부울 대수를 거짓으로 설정하여 기록이 중지됨을 알린다. 장치와의 특별한 물리적 인터렉션 또는 삼성 장치와 같은 장치와의 눈을 통한 인터렉션에 의해 사용자는 기록을 중지할 수 있다. 예를 들면, 사용자가 기록을 이미 시작한 이후에 기록 버튼을 다시 클릭하는 경우, 공정의 기록 변수는 기록이 중지되었음을 나타내도록 설정될 것이다. 단계 S7 이후에, 기록이 진행중인 경우, 공정은 단계 S8으로 진행되고 아니라면 단계 S16으로 진행된다.
단계 S8에서, 공정은 사용자 이벤트가 발생했는지를 질의한다. 사용자 이벤트는 물리적 인터렉션 또는 삼성 장치와 같은 장치와의 사용자에 의한 눈을 통한 인터렉션일 수 있다. 이벤트는 포즈, 플레이, 포워드, 리와인드, 카메라 스위치, 줌 또는 팬을 초래할 수 있다. 예를 들면, 사용자가 "포즈"로 라벨링된 버턴을 클릭하는 경우, 비디오의 포즈를 초래하고 공정은 이 이벤트를 캡쳐할 것이다. 사용자 이벤트가 발생한 경우, 공정은 단계 S9로 진행하고 아니라면 다시 단계 S7으로 진행한다.
단계 S9에서, 공정은 단계 S8에서 발생한 이벤트에 대한 데이터 스토리지를 생성한다. Enumerations, Dictionaries, Hashtable, Arrays, Lists 또는 Binary Trees 또는 file의 하나 이상의 조합을 포함하는 다양한 형태의 스토리지가 가능하다. 단계 S9를 수행한 이후에, 공정은 단계 S10으로 진행한다.
단계 S10에서, 공정은 단계 S9에서 생성한 데이터 스토리지에 이벤트와 관련된 정보를 저장한다. 정보는 이벤트의 유형을 고유하게 식별하기 위한 상세와 함께 이벤트가 발생하는 경우의 시간을 포함할 수 있다. 예를 들면, 공정은 기록의 현재 지속 기간 및 이벤트 id에 따른 비디오의 현재 재생 시간을 획득할 수 있다. 단계 S10을 수행한 이후에, 공정은 단계 S11로 진행된다.
단계 S11에서, 공정은 이벤트가 스크린이 팬(PAN)을 하도록 하는 사용자 이벤트의 리스트에 속하는지를 질의한다. 결과가 스크린이 팬을 하도록 하는 것이라면, 공정은 단계 S14로 진행하고 아니라면 단계 S12로 진행한다. 예를 들면, 사용자가 그의 손가락을 우측 또는 좌측으로 수평으로 슬라이드하는 경우 및 이 제스츄어가 팬을 초래하는 사용자 이벤트 리스트에 속하는 경우, 공정은 단계 S14로 진행한다.
단계 S14에서, 공정은 오프셋 값(X 및 Y)을 단계 S9에서 생성된 이벤트 데이터 스토리지에 저장한다. 단계 S14를 수행한 이후에, 공정은 단계 S15로 진행한다.
단계 S12에서, 공정은 이벤트가 스크린이 줌(Zoom)을 하도록 하는 사용자 이벤트의 리스트에 속하는지를 질의한다. 결과가 스크린이 줌을 하는 것이라면, 공정은 단계 S13로 진행하고 아니라면 단계 S15로 진행된다. 예를 들면, 사용자가 그의 두 손가락을 서로로부터 멀어지게 슬라이드하고 그 제스츄어가 스크린이 줌하도록 하는 사용자 이벤트 리스트에 속하는 경우, 공정은 단계 S13로 이동한다.
단계 S13에서, 공정은 줌 스케일 및 오프셋 값(X 및 Y)을 단계 S9에서 생성된 이벤트 데이터 스토리지에 저장한다. 단계 S13를 수행한 이후에, 공정은 단계 S15로 진행된다.
단계 S15에서, 공정은 단계 S9에서 생성된 이벤트 스토리지를 전체 이벤트에 대해 단계 S5에서 생성된 데이터 스토리지에 추가한다. 단계 S15를 수행한 이후에, 공정은 다시 단계 S7로 진행된다.
단계 S16에서, 공정은 사용자가 기록을 중지하는 경우 사용자에게 다양한 옵션을 제공한다. 옵션은 저장, 공유 또는 폐기를 포함한다. 각각의 옵션은 시각적으로 민감한 매체를 이용하여 제공된다. 각종 형태의 시각적으로 민감한 매체는 사용자 인터페이스 내에 위치된 링크, 배너, 버튼, 클릭 가능한 아이콘, 클릭가능한 그래픽, 또는 사용자 인터페이스 상에 위치된 하이퍼텍스트 링크를 포함한다. 단계 S16 이후에, 공정은 사용자가 클립 저장을 선택하는 경우에 단계 S17로, 사용자가 클립 공유를 선택하는 경우 단계 S18로, 사용자가 클립 폐기를 선택하는 경우 단계 S19로 진행한다.
단계 S17에서, 공정은 클립에 관련된 메타데이터가 저장될 필요가 있는지를 식별한다. 단계 S17 이후에, 공정은 단계 S20로 진행된다.
단계 S18에서, 공정은 기록을 공유한다. 단계 S18 이후에, 공정은 단계 S22로 진행된다.
단계 S19에서, 공정은 기록을 폐기한다. 단계 S19 이후에, 공정은 단계 S19.5로 진행되어, 메모리가 기록이 소거(또는 삭제)된다.
단계 S20에서, 공정은 장치 디스크 상의 파일 내에 메타데이터를 저장한다. 파일은 xml, text, word, 또는 excel 파일을 포함하는 임의 유형일 수 있다. 단계 S20를 수행한 이후에, 공정은 단계 S21로 진행된다.
단계 S21에서, 개인은 가시적으로 민감한 매체를 이용하여 비디오 클립을 공유한다. 각종 형태의 시각적으로 민감한 매체는 사용자 인터페이스 내에 위치된 링크, 배너, 버튼, 클릭 가능한 아이콘, 클릭가능한 그래픽, 또는 사용자 인터페이스 상에 위치된 하이퍼텍스트 링크를 포함한다. 단계 S21를 수행한 이후에, 공정은 도 3a에 도시된 것처럼 공유 공정으로 진행된다.
도 3은 시스템(10)(도 1의)을 이용하여 비디오 클립을 공유하기 위한 논리 처리를 도시하는 공정 흐름도를 형성한다. 보다 특별하게는, 도 3은 비디오 클립을 공유하는데 이용되는 논리 공정을 도시한다.
도 4에 도시된 것처럼, 논리 흐름도는 비디오 클립을 공유하는 경우 출원인의 발명의 시스템에 의해 이행되는 단계를 도시한다.
단계 S22에서, 공정은 메타데이터를 공유된 서버에 전송하고, 비디오 클립 공유를 위한 고유 링크를 수신한다. 메타데이터는 스트링 또는 xml을 포함하는 각종 형태로 공유된 서버에 전송될 수 있다. 단계 S22를 수행한 이후에, 공정은 단계 S23로 진행된다.
단계 S23에서, 공정은 공유된 클립에 대한 썸네일을 생성한다. 단계 S23를 수행한 이후에, 공정은 단계 S24로 진행된다.
단계 S24에서, 공정은 사용자에게 비디오 클립에 대한 코멘트를 입력하도록 요청하고 이 코멘트를 메모리 내에 저장한다. 코멘트는 가시적으로 민감한 매체에 의해 요청될 수 있다. 각종 형태의 시각적으로 민감한 매체는 텍스트박스를 포함하는 것으로 상상된다. 단계 S24를 수행한 이후에, 공정은 단계 S25로 진행된다.
단계 S25에서, 공정은 사용자에게 사용자가 클립을 공유하고 싶은 소셜 네트워크 미디어를 선택하도록 요청한다. 옵션은 페이스북®, 트위터®, Orkut® 또는 구글+®를 포함하는 모든 유용한 소셜 미디어를 포함할 것이다. 단계 S25를 수행한 이후에, 선택된 소셜 미디어 네트워크 각각에 대해, 공정은 단계 S26로 진행된다.
단계 S26에서, 공정은 사용자가 그의 API 기능을 이용하여 이미 로그인 했는지를 소셜 미디어 네트워크에 질의한다. 예를 들면, 공정은 페이스북®에 사용자가 현재 페이스북® API를 이용하여 로그인 중인지를 질의할 것이다. 단계 S26를 수행한 이후에, 사용자가 로그인 이라면 다음으로 공정은 단계 S27로 진행되고 아니라면 공정은 단계 S29로 진행된다.
단계 S29에서, 공정은 사용자가 소셜 미디어 네트워크로 로그인하도록 프롬프트한다. 입력할 사용자 이름 및 비밀번호는 소셜 미디어 네트워크에 의존할 것이다. 예를 들면, 공정은 클립을 페이스북®에 공유하기 위하여 페이스북® 로그인 ID 및 비밀번호를 요청할 것이다. 단계 S29를 수행한 이후에, 공정은 단계 S30로 진행한다.
단계 S30에서, 공정은 사용자에게 소셜 미디어 네트워크에 대해 3D4U 어플리케이션을 위한 허락을 요청한다. 단계 S30 이후에, 공정은 단계 S31로 진행된다.
단계 S31에서, 공정은 사용자에게 소셜 네트워킹 미디어로부터의 소셜 네트워크 정보를 요청한다. 이 정보는 프로파일 사진, 사용자의 친구 리스트 또는 UserID를 포함할 수 있다. 단계 S31를 수행한 이후에, 공정은 단계 S27로 진행된다.
단계 S27에서, 공정은 사용자 정보를 3D4U 공유된 서버에 업로드한다. 단계 S27를 수행한 이후에, 공정은 단계 S28로 진행된다.
단계 S28에서, 공정은 코멘트 및 썸네일과 함께 고유 링크를 소셜 미디어 네트워크 상에 포스트한다. 선택된 소셜 미디어 네트워크 각각에 대해 단계 S28를 수행한 이후에, 공정은 종료한다.
도 4는 시스템(10)(도 1의)을 이용하여 소셜 미디어 네트워크에 포스트된 비디오 클립을 재생하기 위한 논리 공정을 도시하는 공정 흐름도를 형성한다. 보다 특별하게는, 도 4는 소셜 미디어 네트워크 상에 포스트된 비디오 클립을 재생하는데 이용되는 논리 공정을 도시한다.
도 4에 도시된 것처럼, 논리 흐름도는 소셜 미디어 네트워크 상에 포스트된 비디오 클립을 재생하는 경우 본 출원인의 발명의 시스템에 의해 이행되는 단계를 도시한다.
단계 SS1에서, 어플리케이션은 사용자에게 시각적으로 민감한 매체로서 나타나는 링크를 이용하는 비디오 클립을 재생하도록 요청한다. 사용자 인터페이스 내에 위치된 링크, 배너, 버튼, 클릭 가능한 아이콘, 클릭 가능한 그래픽, 또는 사용자 인터페이스 상에 위치된 하이퍼텍스트 링크를 포함하는 시각적으로 민감한 매체의 각종 형태가 상상될 수 있다. 단계 SS1를 수행한 이후에, 공정은 단계 SS2로 진행된다.
단계 SS2에서, 공정은 3D4U 어플리케이션을 런치하기 위하여 링크로부터 mime 타입 정보를 이용한다. 단계 SS2를 수행한 이후에, 공정은 단계 SS3로 진행된다.
단계 SS3에서, 공정은 장치에게 어플리케이션이 장치 상에 이미 설치되었는지를 질의한다. 단계 SS3를 수행한 이후에, 어플리케이션이 설치되고, 다음으로 공정은 단계 SS6로 진행되고 아니라면 공정은 단계 SS4로 진행된다.
단계 SS4에서, 공정은 장치 서버를 3D4U 어플리케이션 다운로드 웹사이트로 리다이렉트한다. 다운로드 웹사이트는 장치에 의존한다. 예를 들면, 애플® 장치에서, 공정은 애플® 3D4U 어플리케이션으로 리다이렉트한다. 단계 SS4를 수행한 이후에, 공정은 단계 SS5로 진행된다.
단계 SS5에서, 공정은 장치에 3D4U 어플리케이션을 설치한다. 단계 SS5를 수행한 이후에, 공정은 단계 SS6로 진행된다.
단계 SS6에서, 공정은 3D4U 어플리케이션을 시작한다. 단계 SS6를 수행한 이후에, 공정은 단계 SS7로 진행된다.
단계 SS7에서, 공정은 클립이 장치에 이미 다운로드되었는지를 질의한다. 단계 SS7 이후에, 클립이 이미 다운로드되었다면, 단계 SS9로 진행되고, 아니라면 단계 SS8로 진행된다.
단계 SS8에서, 공정은 어플리케이션 공유 서버에 대해 클립 메타데이터를 요청하고, 이를 장치 상에서 다운로드한다. 단계 SS8를 수행한 이후에, 공정은 단계 SS9로 진행된다.
단계 SS9에서, 공정은 단계 SS8에서 다운로드된 메타데이터로부터 전체 비디오 ID를 판독한다. 단계 SS9를 수행한 이후에, 공정은 단계 SS10로 진행된다.
단계 SS10에서, 공정은 전체 비디오 ID를 기초로 전체 비디오를 개방한다. 단계 SS10를 수행한 이후에, 공정은 단계 SS11로 진행된다.
단계 SS11에서, 공정은 메타데이터로부터 클립 시작 시간을 획득한다. 단계 SS11를 수행한 이후에, 공정은 SS12로 진행된다.
단계 SS12에서, 공정은 클립의 메타데이터로부터 전체 이벤트를 획득한다. 단계 SS12를 수행한 이후에, 공정은 단계 SS13로 진행된다.
단계 SS13에서, 공정은 단계 SS11에서 얻어진 시작 시간으로부터 전체 비디오 재생을 시작한다. 단계 SS13를 수행한 이후에, 공정은 단계 SS14로 진행된다.
단계 SS14에서, 공정은 비디오의 현재 타임스탬프를 요청한다. 단계 SS14를 수행한 이후에, 공정은 단계 SS15로 진행된다.
단계 SS15에서, 공정은 이벤트 시작 시간이 단계 SS14에서 획득된 현재 비디오 시간 보다 적은 경우 이벤트 수집을 질의한다. 단계 SS15를 수행한 이후에, 현재 비디오 시간 보다 적은 시작 시간을 갖는 이벤트가 존재한다면, 이벤트 데이터 스토리지를 판독할 것이며, 단계 SS16로 진행하고, 아니라면 단계 SS14로 진행된다.
단계 SS16에서, 공정은 단계 SS15에서 획득한 이벤트 데이터 스토리지로부터 유용한 이벤트 id를 기초로 이벤트 유형을 판독한다. 단계 SS16를 수행한 이후에, 공정은 단계 SS17로 진행된다.
단계 SS17에서, 공정은 이벤트가 스크린이 팬하도록 하는 사용자 이벤트의 리스트에 속하는지를 질의한다. 결과가 스크린이 팬하도록 하는 경우, 공정은 단계 SS20로 진행되고, 아니라면 단계 SS18로 진행된다.
단계 SS20에서, 공정은 단계 SS15에서 획득된 이벤트 데이터 스토리지로부터 오프셋 값(X 및 Y)을 판독한다. 단계 SS20를 수행한 이후에, 공정은 단계 SS21로 진행된다.
단계 SS18에서, 공정은 이벤트가 스크린이 줌하도록 하는 사용자 이벤트의 리스트에 속하는지를 질의한다. 결과가 스크린이 줌하도록 하는 경우, 공정은 단계 SS19로 진행되고, 아니라면 단계 SS21로 진행된다.
단계 SS21에서, 공정은 비디오에 이벤트를 적용한다. 예를 들면, 이벤트가 줌의 유형이라면, 공정은 오프셋 및 줌 스케일 값을 적용하고, 다음으로 스크린을 줌한다. 단계 SS21를 수행한 이후에, 공정은 단계 SS22로 진행된다.
단계 SS22에서, 공정은 단계 SS12에서 판독된 이벤트 데이터 스토리지의 콜렉션으로부터 단계 SS15에서 얻어진 이벤트 스토리지를 삭제한다. 단계 SS22를 수행한 이후에, 공정은 다시 단계 SS14로 진행된다.
도 5는 3D-4U 공유 소셜 미디어 네트워크 및 정규 비디오 피드에 대한 개별 인증 및 이들의 조합으로 완전한 인증을 제공하는 공정을 보여주는 공정 흐름도를 형성한다. 보다 상세하게는, 도 5는 3D-4U 공유 소셜 미디어 네트워크 및 정규 비디오 피드에 대한 개별 인증 및 이들의 조합으로 완전한 인증을 제공하는데 이용되는 논리 공정을 도시한다.
단계 SSS1에서, 사용자는 3D4U로부터 또는 페이스북®, 트위터® 등과 같은 다른 소셜 미디어 네트워크로부터 또는 3D-4U 앱에서 시청을 위한 공유된 클립을 선택한다. 사용자는 시각적으로 민감한 매체를 이용하는 링크로서 표시되는 비디오 클립을 선택한다. 각종 형태의 시각적으로 민감한 매체는 사용자 인터페이스 내에 위치된 링크, 배너, 버튼, 클릭 가능한 아이콘, 썸네일, 클릭가능한 그래픽, 또는 사용자 인터페이스 상에 위치된 하이퍼텍스트 링크를 포함한다. 링크는 도 2에 도시된 공정을 통하여 다른 사용자 또는 동일한 사용자에 의해 공유되는 비디오를 향한다. 시스템은 데이터베이스(500)와 소통하고, 공유되는 메타데이터와 무관하게 기초 비디오 피드를 시청하기 위하여 사용자에게 필요한 허락을 입증한다. 이는 미디어 업체에 의해 이용되는 통상 인증 공정(예를 들면, 로그 인 공정, 위치 기반 인증, 네트워크 기반 인증 등)을 포함한다. 단계 SSS1를 수행고, 비디오 시청에 대한 사용자 허락을 입증한 이후에, 공정은 단계 SSS2로 진행된다.
단계 SSS2에서, 공정은 3D-4U 공유된 클립을 시청하거나 또는 3D-4U공유 데이터베이스(502)를 통해 공유될 클립을 생성할 수 있도록 사용자의 허락을 입증한다. 단계 SSS2를 수행한 이후에, 공정은 단계 SSS3로 진행된다.
단계 SSS3에서, 공정은 단계 SSS2와 단계 SSS3에서 얻어진 허락 모두를 입증한다. 단계 SSS3을 수행한 이후에, 공정은 단계 SSS4로 진행된다.
단계 SSS4에서, 공정은 메타데이터가 장치에 이미 있는지 또는 스트리밍인지를 장치에 질의한다. 단계 SSS4를 수행한 이후에, 메타데이터가 장치 상에서 유용한 경우, 공정은 단계 SSS6으로 진행되거 아니라면 공정은 단계 SSS5로 진행된다.
단계 SSS5에서, 공정은 메타데이터를 다운로드하거나 또는 메타데이터 스토리지 데이터베이스(504)로부터 메타데이터 스트리밍을 시작한다.
단계 SSS6에서, 공정은 비디오가 장치 상에 이미 있는지 또는 스트리밍되는 것인지를 장치에 질의한다. 단계 SSS6를 수행한 이후에, 비디오가 장치 상에서 유용한 경우 공정은 단계 SSS8로 진행되고 아니라면 공정은 단계 SSS7로 진행된다.
단계 SSS7에서, 공정은 비디오를 다운로드하거나 또는 비디오 스토리지 데이터베이스(506)로부터 비디오를 스트리밍하는 것을 시작한다.
단계 SSS8에서, 공정은 주문형 클립의 사용자 생성 및 공유의 공정을 진행하거나 또는 공유된 주문형 클립의 시청의 공정을 진행한다.
도 6은 다중 카메라로부터 사용자로 비디오를 피딩하기 위한 공정을 도시하는 개략도이다. 보다 특별하게는, 도 6은 다중 카메라로부터 비디오 피드를 생성하고 사용자가 피드를 선택하고 이를 시청하는데 이용되는 논리 공정을 도시한다. 블록 250에서, 공정은 프로듀서에 의해 수행되는 사용자 이벤트를 기록한다. 이벤트는 팬, 틸트, 줌, 스위치 카메라, 포즈, 리플레이 등을 포함할 수 있다. 블록 250을 수행한 이후에, 공정은 블록 252로 진행된다. 블록 252에서, 메타데이터는 스트리밍되고, 인터넷(40)을 통해 사용자에 대해 유용하게 된다. 블록 254에서, 다중 카메라로부터의 비디오 피드가 인터넷(40)으로부터 수신된다. 블록 254을 수행한 이후에, 공정은 블록 256으로 진행된다. 블록 256에서, 프로듀서는 3D4U 프로듀서 어플리케이션을 이용하여 비디오 피드를 제작한다. 블록 256을 수행한 이후에, 공정은 블록 250 및 블록 248로 진행된다. 블록 248에서, 공정은 프로듀서에 의해 수행된 사용자 이벤트를 기록한다. 이벤트는 팬, 틸트, 줌, 스위치 카메라, 포즈, 리플레이 등을 포함할 수 있다. 블록 250을 수행한 이후에, 공정은 블록 246으로 진행된다. 블록 246에서, 공정은 다중 카메라로부터 제공된 비디오 피드 내에 미디어 데이터를 기억한다. 블록 246을 수행한 이후에, 공정은 블록 244로 진행된다. 블록 244에서, 공정은 프로듀서(258) 메타데이터가 내장된 다중 카메라로부터 얻어진 비디오 피드를 전송하고, 이를 인터넷(40)을 통해 유용하게 한다.
도 7은 카메라 어레이(16)(결과적인 결합된 파노라마 시야(field of view)를 제공하기 위하여 인접 및 연속 시야를 갖는 인접 카메라의 어레이를 포함함)에 의해 캡쳐되는 파노라마 및/또는 고해상도 비디오에 대한 시야를 도시하는 180° 모노스코픽(또는 스테레오스코픽 쌍) 카메라 어레이(16)의 간략화된 개략도이다. 파노라마 이미지 영역(102)은 (카메라 어레이(16)로부터의 설정된 방사 방향에 있는)이미지 영역을 나타내고, 임의의 주어진 시점에 대한 카메라 어레이(16)로부터 취해진 전체 파노라마 비디오(또는 이미지 )를 나타낸다. 서브-비디오(또는 서브-이미지)(104)는 시기 t=1에서의 이미지 영역(102)의 서브-세트인 사용자 선택(줌 및 이미지 부분 선택을 통한) 비디오 성분(또는 이미지)를 나타낸다. 이후 주기, t=5, 에서, 서브-비디오(또는 서브-이미지)(106)는 이후의 시기 t=5에서의 사용자 선택된 비디오 성분(또는 이미지)를 나타낸다. 이후 주기, t=n, 에서도, 서브-비디오(또는 이미지)(108)는 사용자 선택 성분(또는 이후 주기 t=n에서의 이미지)을 나타낸다. 이러한 방식으로, 사용자는 파노라마 이미지 영역(102)으로부터 개인 비디오를 제공하도록 카메라(16)로부터의 비디오 피드로부터 (시간에 걸친)그들 자신의 이미지를 제작할 수 있게 된다. 최대로는, 이미지(104, 106 및 108)가 임의의 선택된 주기에 대해 이미지 영역(102) 전체를 커버할 수 있다.
도 8은 도 3에 도시된 것과 같은 클립 기록 또는 생성의 공정 동안 시스템에 의해 생성되는 클립의 메타데이터를 도시하는 샘플 메타데이터 파일이다. 이하에서 도 3에 도시된 공정 동안 어떻게 도 x 가 생성되는지에 대해 설명된다.
메타데이터 파일은 먼저 메모리 내에서 생성되고, 다음으로 블록 A0가 공정의 단계 S2에서의 메타데이터에 추가된다.
블록 A2는 단계 S3에서의 데이터 스토리지를 위한 공정에 의해 생성된다. 동일한 단계에서, 블록(A3)가 카메라 태그 상세를 이용하는 공정에 의해 생성되며, 다음으로 A3가 A2에 추가된다. 다음으로, 공정은 현재 재생 시간을 획득하고, 현재 재생 시간을 위한 A4 및 A5를 생성하고, A4 및 A5를 A2에 추가한다. 공정은 또한 하나의 값과 함께 디폴트 이벤트 ID를 추가하여 A6 및 A7 데이터 스토리지를 생성하고, A2에 추가된다. 공정은 오프셋에 대한 초기 값을 획득하고, 키를 이용하여 A8을 생성하고, 값을 이용하여 A9을 생성하며, 이들을 A2에 추가한다. 공정은 playstate에 대한 초기값을 획득하고, 키를 이용하여 A10을 생성하고, 값을 이용하여 A11을 생성하고, 이들을 A2에 추가한다. 공정은 기록된 장치 콘텐트 변환을 위한 초기값을 획득하고, 키를 이용하여 A11을 생성하고, 값을 이용하여 A12를 생성하며, 이들을 A2에 추가한다. 공정은 어플리케이션의 버전을 획득하고, 키를 이용하여 A13를 값을 이용하여 A14를 생성하고, 이들 모두를 A2에 추가한다. 공정은 재생되는 전체 비디오의 비디오 id를 획득하고, 키를 이용하여 A15를, 값을 이용하여 A16을 생성하고, 이들 모두를 A2에 추가한다. 공정은 현재 줌 스케일을 획득하고, 키를 이용하여 A17을 및 값을 이용하여 A18을 생성하고, 이들 모두를 A2에 추가한다.
블록 A1이 단계 S5에서의 공정에 의해 생성된다. 다음으로, 블록 A2가 블록 A1에 추가되고, 블록 A1이 블록 A0에 추가된다.
블록 A21이 사용자가 비디오를 팬하는 경우 단계 S9에서의 공정에 의해 생성된다. 동일 단계에서, 블록 A22 및 블록 A23이 현재 재생 시간을 이용하는 공정에 의해 생성된다. 또한, 블록 A24 및 블록 A25는 이벤트 id를 이용하는 공정에 의해 생성된다. 블록 A26 및 블록 A27은 오프셋 값을 이용하는 단계 S14에서의 공정에 의해 생성된다. 또한, 블록 A28 및 블록 A29는 기록 기간을 이용하는 공정에 의해 생성된다. 따라서, 블록 A21은 사용자 이벤트가 19.883273696 초에서 이벤트 id=109를 가지며 발생하고, 이는 오프셋 값(453.5, 0)인 팬에 대응하고 기록 기간은 1.7666667588055134이다. 블록 A21가 단계 S15에서 블록 A1에 추가된다.
블록 A30이 사용자가 비디오를 팬하는 경우 단계 S9에서의 공정에 의해 생성된다. 동일한 단계에서, 블록 A31 및 블록 A32가 현재 재생 시간을 이용하는 공정에 의해 생성된다. 또한, 블록 A33 및 블록 A34가 이벤트 id를 이용하는 공정에 의해 생성된다. 블록 A35 및 블록 A36은 오프셋 값을 이용하는 단계 S14에서의 공정에 의해 생성된다. 또한, 블록 A37 및 블록 A38이 기록 기간을 이용하는 공정에 의해 생성된다. 따라서, 블록 A30은 사용자 이벤트가 이벤트 id=109를 갖는 전체 비디오의 19.883273696 초에서 발생했음을 도시하고, 이는 오프셋 값(457, 0)인 팬에 대응하고, 기록의 기간이 1.8000000938773155 이다. 블록 A30 이 단계 S15에서의 블록 A1에 추가된다.
블록 A39가 사용자가 비디오를 팬하는 경우에 단계 S9에서의 공정에 의해 생성된다. 동일 단계에서, 블록 A40 및 블록 A41가 현재 재생 시간을 이용하는 공정에 의해 생성된다. 또한, 블록 A42 및 블록 A43이 이벤트 id를 이용하는 공정에 의해 생성된다. 블록 A44 및 블록 A45가 오프셋 값을 이용하는 단계 S14에서의 공정에 의해 생성된다. 또한, 블록 A46 및 블록 A47이 기록 기간을 이용하는 공정에 의해 생성된다. 따라서, 블록 A39는 사용자 이벤트가 이벤트 id=109를 갖는 전체 비디오의 19.915203333000001 초에서 발생했고, 이는 오프셋 값(460.5, 0)인 팬에 대응하고 기록 기간은 1.8000000938773155이다. 블록 A39는 단계 S15에서 블록 A1에 추가된다.
블록 A48이 사용자가 비디오를 줌하는 경우 단계 S9에서의 공정에 의해 생성된다. 동일 단계에서, 블록 A49 및 블록 A50이 현재 재생 시간을 이용하는 공정에 의해 생성된다. 또한, 블록 A51 및 블록 A52가 이벤트 id를 이용하는 공정에 의해 생성된다. 블록 A53 및 블록 A54가 오프셋 값을 이용하는 단계 S13에서의 공정에 의해 생성된다. 동일 단계에서, 블록 A55 및 블록 A56이 기록 값의 기간을 이용하는 공정에 의해 생성된다. 블록 A57 및 블록 A58은 줌 스케일 값을 이용하는 공정에 의해 생성된다. 따라서, 블록 A48은 사용자 이벤트가 이벤트 id=100을 갖는 전체 비디오의 23.910301570000001초에서 발생했고, 이는 오프셋 값(1548.03, 335.527), 줌 스케일이 1.7527990341186523 및 기록의 기간이 5.4333336167037487인 줌에 대응한다. 블록 A48이 단계 S15에서의 블록 A1에 추가된다.
블록 A59가 사용자가 비디오를 줌 하는 경우에 단계 S9에서의 공정에 의해 생성된다. 동일 단계에서, 블록 A60 및 블록 A61은 현재 재생 시간을 이용하는 공정에 의해 생성된다. 또한, 블록 A62 및 블록 A63이 이벤트 id를 이용하는 공정에 의해 생성된다. 블록 A64 및 블록 A65가 오프셋 값을 이용하는 단계 S13에서의 공정에 의해 생성된다. 블록 A66 및 블록 A67이 기록 값의 기간을 이용하는 공정에 의해 생성된다. 블록 A68 및 블록 A69가 줌 스케일 값을 이용하는 공정에 의해 생성된다. 따라서, 블록 A59는 사용자 이벤트가 이벤트 id=100를 갖는 전체 비디오의 23.942486532 초에서 발생하고, 이는 오프셋 값(1550.33, 336.157), 1.7550586462020874의 줌 스케일 및 기록의 기간이 5.4666669517755508인 줌에 대응한다. 블록 A59가 단계 S15에서 블록 A1에 추가된다.
블록 A70이 사용자가 비디오를 줌하는 경우에 단계 S9에서의 공정에 의해 생성된다. 동일한 단계에서, 블록 A71 및 블록 A72가 현재 재생 시간을 이용하는 공정에 의해 생성된다. 또한, 블록 A73 및 블록 A74가 이벤트 id를 이용하는 공정에 의해 생성된다. 블록 A75 및 블록 A76이 오프셋 값을 이용하는 단계 S13에서의 공정에 의해 생성된다. 동일한 단계에서, 블록 A77 및 블록 A78이 기록 값의 기간을 이용하는 공정에 의해 생성된다. 블록 A79 및 블록 A80이 줌 스케일 값을 이용하는 공정에 의해 생성된다. 따라서, 블록 A70은 이벤트 id=100을 갖는 전체 비디오의 23.974900081000001 초에서 발생했고, 이는 오프셋 값(1550.41, 336.268), 1.7553437948226929의 줌 스케일인 줌에 대응하고 기록 기간이 5.500000286847353이다. 블록 A70이 단계 S15에서 블록 A1에 추가된다.
블록 A81이 사용자가 비디오를 포즈하는 경우에 단계 S9에서의 공정에 의해 생성된다. 동일한 단계에서, 블록 A82 및 블록 A83이 현재 재생 시간을 이용하는 공정에 의해 생성된다. 또한, 블록 A84 및 블록 A85가 이벤트 id를 이용하는 공정에 의해 생성된다. 블록 A86 및 블록 A87이 기록 값의 기간을 이용하는 공정에 의해 생성된다. 따라서, 블록 A81은 이벤트 id=101인 전체 비디오의 25.072922040000002 초에서 발생했고, 이는 포즈에 대응하고, 기록 기간이 6.5000003390014172이다. 블록 A81가 단계 S15에서 블록 A1에 추가된다.
블록 A88이 사용자가 기록을 중지하는 경우 단계 S9에서의 공정에 의해 생성된다. 동일 단계에서, 블록 A89 및 블록 A90이 현재 재생 시간을 이용하는 공정에 의해 생성된다. 또한, 블록 A91 및 블록 A92가 이벤트 id를 이용하는 공정에 의해 생성된다. 블록 A93 및 블록 A94가 기록값의 기간을 이용하는 공정에 의해 생성된다. 따라서, 블록 A81이 이벤트 id=9999인 전체 비디오의 25.488877777777777 초에서 발생했고, 이는 기록 정지에 대응하고, 기록 기간은 8.2000004276633263 이다. 블록 A88이 단계 S15에서 블록 A1에 추가된다.
기록 및 제작 장치가 실제 장면(컴퓨터 생성 장면 제외)의 파노라마 비디오 또는 실제 장면의 파노라마 이미지를 기록하고 시청자에게 디지털 공간 내에서 카메라 팬, 틸트 및 줌을 제어하는 느낌을 주는 파노라마 비디오 또는 파노라마 이미지의 서브-세트(서브-영역)을 선택함에 의해 TV 및 컴퓨터 모니터 및 이동장치의 표준 가로 세로 비에 맞는 정규 비디오 및 이미지를 제작하기 위하여 제공된다. 비디오 프로덕션은 비디오의 특정 타임 스탬프에서 가상 카메라를 제어하기 위한 적어도 하나의 팬, 틸트 및 줌을 포함하는 메타데이터 세트을 통해 비디오의 파노라마 이미지로부터 생성된다. 메타데이터 세트는 또한 시작 시간, 종료 시간, 기간 및 전송 이벤트(포즈, 플레이, 포워드 플레이, 리버스 플레이)의 재생 속도 및 카메라 제어 이벤트(팬, 틸트 및 줌 변화) 중 적어도 하나를 포함하는 비디오 전송 제어 데이터로 구성된다. 하나의 경우에, 메타데이터 세트는 비디오 또는 이미지 데이터에 내장된 데이터로서 전송된다. 다른 경우에, 메타데이터 세트는 비디오 데이터의 전송과는 별개의 데이터로서 전송되며, 메타데이터 및 비디오 데이터는 비디오 데이터 내의 타임스탬프 데이터를 이용하여 메타데이터 내의 타임스탬프 정보와 동기화된다.
기록 및 제작 장치가 실제 장면의 파노라마 비디오 또는 실제 장면(컴퓨터 생성 장면 제외)의 파노라마 이미지를 기록하고 시청자에게 디지털 공간 내에서 카메라 팬, 틸트 및 줌을 제어하는 느낌을 주는 파노라마 비디오 또는 파노라마 이미지의 서브-세트(서브-영역)을 인터렉티브하게 선택함에 의해 텔레비젼 및 컴퓨터 모니터 및 이동장치의 표준 가로 세로 비에 맞는 정규 비디오 및 이미지를 제작하기 위하여 제공된다. 장치는 제작되는 파노라마 비디오 또는 파노라마 이미지의 서브 영역을 선택하기 위하여 카메라 팬, 틸트 및 줌을 선택하기 위한 사용자 인터페이스를 포함한다. 사용자 인터페이스는 포즈, 순방향 플레이, 역방향 플레이 및 플레이 속도와 같은 비디오 전송 제어를 규정하기 위하여 제공된다. 제작되는 비디오는 이미지 또는 비디오 데이터를 포함하는 비디오 클립으로서 생성되지 않는다. 제작되는 비디오는 비디오의 특정 타임스탬프에서의 가상 카메라의 제어를 위한 팬, 틸트 및 줌 제어 중 적어도 하나를 포함하는 메타데이터로서 기억된다. 기억된 메타데이타는 또한 적어도 시작 시간, 종료 시간, 기간 및 전송 이벤트(포즈, 플레이, 포워드 플레이, 리버스 플레이) 및 카메라 제어 이벤트(팬, 틸트 및 줌 변화) 중 적어도 하나를 포함하는 비디오 전송 제어 데이터로 구성된다. 기억된 메타데이터는 제작된 비디오를 재현하기 위하여 파노라마 비디오 또는 파노라마 이미지와 결합하여 활용된다. 파노라마 비디오 데이터는 실시간 스트리밍 데이터, 하드 디스크로부터 불려진 기록된 데이터 또는 메모리내의 버퍼링된 데이터이다.
하나의 경우에, 메타데이터가 동일 비디오 시청 장치 상에서 생성되고 활용된다. 다른 경우에, 메타데이타는 제1 장치 상에서 생성되고, 다음으로 상이한 제2 장치 상에서 활용된다. 일부 경우에, 메타데이터는 제1 장치로부터 전송되고, 비디오 데이타의 전송과는 별개인 데이터로서 전송된다. 다른 경우에, 메타데이터 및 비디오 데이터는 메타데이터 내의 타임스탬프 정보를 갖는 비디오 데이터 내의 타임스탬프 데이터를 이용하여 제2 장치 상에서 동기화된다. 특정 다른 경우에, 제1 장치로부터 전송된 메타데이터는 제2 장치에 전송된 비디오 데이터에 내장된다.
입력 장치, 출력 그래픽 장치, 메모리 장치 및 하나 이상의 프로세서를 포함하는 장치가 제공된다. 입력 장치는 하나 이상의 프로세서와 소통하도록 제공된다. 출력 그래픽 장치는 하나 이상의 프로세서와 소통하도록 제공된다. 메모리 장치는 하나 이상의 프로세서와 소통하도록 제공된다. 메모리는 그 내부에 기억되는 프로그램을 가지고, 프로그램은 하나 이상의 프로세서를 통해 이행되고 컴퓨터가 1) 사용자가 실제 장면의 비디오를 시청하도록 하고; 2) 사용자가 디지털 공간(제작된 비디오) 내에서 카메라 팬, 틸트 및 줌을 제어하는 느낌을 시청자에게 주는 파노라마 비디오 또는 파노라마 이미지의 서브-세트(서브-영역)을 선택함에 의해 텔레비젼, 컴퓨터 모니터 또는 이동 장치의 표준 가로 세로 비에 맞는 정규 비디오 또는 이미지를 제작하도록 하고; 3) 입력 장치를 통해 하나 이상의 프로세서를 이용하는 메타데이터로서 제작된 비디오를 생성하는데 이용되는 사용자의 입력을 동시에 기록하고; 또한 4) 상이한 사용자가 제작된 비디오("재생 비디오")를 자동으로 시청하도록 한다. 재생된 비디오는 비디오의 특정 타임스탬프에서 가상 카메라를 제어하기 위한 팬, 틸트 및 줌 제어 중 적어도 하나를 포함하는 메타데이터 세트를 통해 원래의 비디오로부터 생성된다. 메타데이터 세트는 또한 시작 시간, 종료 시간, 기간, 및 전송 이벤트(포즈, 플레이, 전방향 플레이. 역방향 플레이) 및 카메라 제어 이벤트(팬, 틸트, 및 줌 변화) 중 적어도 하나를 포함하는 비디오 전송 제어 데이터로 구성된다.

Claims (21)

  1. 비디오 프로덕션 공유 장치로서:
    프로세서, 메모리 및 입력 장치를 갖는 제1 컴퓨터를 포함하며, 상기 메모리는 그 내부에 기억된 프로그램을 가지며, 상기 프로그램은 상기 프로세서를 통해 이행되고, 상기 프로세서로 하여금: 1) 적어도 하나의 비디오 스트림에 액세스하게 하고, 2) 상기 제1 컴퓨터의 상기 입력 장치로 적어도 하나의 비디오 스트림의 시청 관점(viewing perspective)을 조작하여, 팬(pan), 틸트(tilt), 줌(zoom) 및 시간적 시청 방향 및/또는 속도에서의 변화를 포함하는, 상기 비디오 스트림 내에서의 탐색(navigation)에 의해 생성되는 개별화된 비디오를 랜더링하게 하고, 또한 3) 비디오 프로덕션 데이터 및 비디오 전송 제어 데이터를 포함하는, 사용자 입력의 데이터 파일을 적어도 하나의 클라이언트에게 전송하게 하도록 디자인되는 ― 상기 입력 장치로부터의 상기 비디오 프로덕션 데이터는 상기 비디오 스트림 내를 탐색하여 상기 개별화된 비디오를 랜더링하는데 이용되며, 상기 비디오 전송 제어 데이터는 상기 비디오 프로덕션 데이터, 상기 비디오 전송 제어 데이터, 및 상기 비디오 스트림을 포함하는 전송된 데이터 파일을 이용하여 상기 적어도 하나의 클라이언트에서 상기 비디오 스트림이 상기 개별화된 비디오를 생성하도록 특징지워짐 ― , 비디오 프로덕션 공유 장치.
  2. 청구항 1에 있어서, 상기 제1 컴퓨터와 소통하며, 프로세서, 메모리 및 출력 장치를 갖는 제2 컴퓨터를 더 포함하며, 상기 메모리는 그 내부에 기억된 프로그램을 가지며, 상기 프로그램은 상기 프로세서를 통해 이행되며, 상기 프로세서로 하여금: 1) 상기 적어도 하나의 비디오 스트림으로부터 랜더링된 비디오 및 상기 데이터 파일을 수신하게 하고, 2) 상기 적어도 하나의 비디오 스트림의 렌더링을 상기 데이터 파일로 조작함에 의해 상기 제2 컴퓨터에서의 시청(viewing)을 위해 개인 비디오를 생성하게 하고, 또한 3) 상기 제2 컴퓨터의 출력 장치 상에서 상기 개인 비디오를 시청할 수 있게 하도록 디자인되는, 비디오 프로덕션 공유 장치.
  3. 청구항 2에 있어서, 상기 제1 컴퓨터의 상기 프로세서를 통해 이행되는 상기 프로그램은 상기 프로세서로 하여금 4) 상기 제1 컴퓨터로부터 상기 제2 컴퓨터로 상기 데이터 파일을 전송하게 하도록 또한 디자인되는, 비디오 프로덕션 공유 장치.
  4. 청구항 2에 있어서, 상기 제1 컴퓨터의 프로세서를 통해 이행되는 상기 프로그램은 상기 프로세서로 하여금 4) 상기 제2 컴퓨터에서 상기 데이터 파일 및 상기 적어도 하나의 비디오 스트림을 수신하게 하도록 또한 디자인되는, 비디오 프로덕션 공유 장치.
  5. 청구항 4에 있어서, 클라이언트 어플리케이션이 상기 프로그램을 제공하는, 비디오 프로덕션 공유 장치.
  6. 청구항 1에 있어서, 상기 프로그램은 상기 프로세서를 통해 이행되고, 상기 프로세서가 각각의 비디오 스트림에 의한 고유 시청 관점으로부터 캡쳐된 하나의 이벤트의 복수개의 동시 비디오 스트림에 액세스하도록 디자인되는, 비디오 프로덕션 공유 장치.
  7. 청구항 1에 있어서, 각각이 고유 시청 관점을 가지는 장소 주위의 환경 내에 분산되는 복수개의 카메라들을 더 포함하는, 비디오 프로덕션 공유 장치.
  8. 청구항 1에 있어서, 적어도 하나의 비디오 스트림으로부터의 비디오 데이터를 기억하도록 구성된 메모리를 갖는 서버를 더 포함하는, 비디오 프로덕션 공유 장치.
  9. 청구항 1에 있어서, 상기 데이터 파일을 비디오 전송 제어 데이터의 형태로 기억하도록 구성된 인터넷 클라우드 기반 데이터 스토어를 더 포함하는, 비디오 프로덕션 공유 장치.
  10. 비디오 프로덕션을 공유하기 위한 방법으로서:
    비디오 스트림, 입력 장치를 갖는 적어도 하나의 컴퓨터, 및 적어도 하나의 클라이언트를 제공하는 단계;
    상기 적어도 하나의 컴퓨터에서 상기 비디오 스트림에 액세스하는 단계;
    상기 적어도 하나의 컴퓨터의 상기 입력 장치로 팬, 틸트, 줌 및 시간적 시청 방향 및/또는 속도에서의 변화를 포함하는 입력 제어를 이용하여 상기 비디오 스트림의 시청 관점을 조작하여 개별화된 비디오를 생성하는 단계; 및
    고유의 개별화된 클립을 생성하는 개별화된 시청(view)의 제어를 가능하게 하는 상기 입력 장치에 대한 입력 제어를 포함하는, 상기 입력 장치로부터의 비디오 프로덕션 데이터와 상기 비디오 스트림의 상기 개별화된 비디오를 묘사하는 비디오 전송 제어 데이터를 포함하는 데이터 파일의 형태로 상기 개별화된 비디오를 랜더링하기 위해 상기 비디오 스트림 내에서 탐색하는데 이용되는, 상기 입력 장치로부터의 사용자 입력을 캡처링하는 단계;
    비디오 프로덕션 데이터 및 비디오 전송 제어 데이터를 포함하는 사용자 입력의 상기 데이터 파일, 및 상기 비디오 스트림을 상기 클라이언트에서 수신하는 단계; 및
    상기 데이터 파일 및 상기 비디오 스트림을 이용하여 상기 적어도 하나의 클라이언트에서 상기 개별화된 비디오를 생성하는 단계를 포함하는,
    비디오 프로덕션을 공유하기 위한 방법.
  11. 청구항 10에 있어서, 제1 클라이언트로부터 제2 클라이언트로 상기 데이터 파일을 전송하는 단계를 더 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  12. 청구항 11에 있어서, 상기 제2 클라이언트에서 상기 데이터 파일 및 상기 적어도 하나의 비디오 스트림을 수신하는 단계를 더 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  13. 청구항 12에 있어서, 상기 제2 클라이언트에서의 시청을 위하여 상기 데이터 파일로 상기 적어도 하나의 비디오 스트림을 조작함에 의해 개인 비디오를 생성하는 단계를 더 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  14. 청구항 13에 있어서, 상기 적어도 하나의 컴퓨터의 출력 장치에서 상기 개인 비디오를 시청하는 단계를 더 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  15. 청구항 10에 있어서, 상기 액세스하는 단계는 상기 적어도 하나의 컴퓨터에서 상기 비디오 스트림을 수신하는 단계를 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  16. 청구항 10에 있어서, 상기 적어도 하나의 컴퓨터에서 상기 적어도 하나의 비디오 스트림을 저장하는 단계를 더 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  17. 청구항 10에 있어서, 적어도 하나의 뷰 스트림은 복수개의 비디오 스트림을 포함하며, 상기 시청 관점을 조작하는 단계는 복수개의 비디오 스트림을 포함하는 시간에 걸쳐서 시청 관점을 생성하는 단계를 포함하고, 각각의 시청 관점은 상기 복수개의 비디오 스트림 각각의 이미지 공간 내에 이미지 서브-공간을 캡쳐하도록 각각의 비디오 스트림을 조작하기 위하여 사용자 입력을 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  18. 청구항 17에 있어서, 각각의 이미지 서브-공간은 주어진 시간의 인스턴스(instance)에서의 각 비디오 스트림의 전체 이미지 공간을 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  19. 청구항 17에 있어서, 각각의 이미지 서브-공간은 제1 클라이언트 및 제2 클라이언트의 사용자에게 디지털 공간 내에서 카메라 팬, 틸트 및 줌을 제어하는 느낌을 제공하는, 비디오 프로덕션을 공유하기 위한 방법.
  20. 청구항 10에 있어서, 개인 비디오를 생성하기 위하여 적어도 하나의 컴퓨터의 입력 장치로 적어도 하나의 비디오 스트림의 시청 관점을 조작하는 단계는 상기 비디오 스트림의 특정 타임스탬프에서 비디오 스트림의 전체 이미지 공간 내에서 사용자의 시청 관점을 제어하기 위한 팬, 틸트, 및 줌 제어 중 적어도 하나를 포함하는 비디오 전송 제어 데이터 세트를 생성하는 단계를 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
  21. 청구항 20에 있어서, 상기 비디오 전송 제어 데이터 세트는 포즈, 플레이, 전방향 플레이, 역방향 플레이 중 적어도 하나를 포함하는 전송 이벤트 및 팬, 틸트, 및 줌 변화 중 적어도 하나를 포함하는 카메라 제어 이벤트의 재생 속도, 시작 시간, 종료 시간, 및 기간 중 적어도 하나를 포함하는 비디오 전송 제어 데이터를 더 포함하는, 비디오 프로덕션을 공유하기 위한 방법.
KR1020167009702A 2013-09-13 2014-09-12 비디오 프로덕션 공유 장치 및 방법 KR101826704B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361877879P 2013-09-13 2013-09-13
US61/877,879 2013-09-13
PCT/US2014/055518 WO2015038976A1 (en) 2013-09-13 2014-09-12 Video production sharing apparatus and method

Publications (2)

Publication Number Publication Date
KR20160100907A KR20160100907A (ko) 2016-08-24
KR101826704B1 true KR101826704B1 (ko) 2018-02-08

Family

ID=52666354

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020167009702A KR101826704B1 (ko) 2013-09-13 2014-09-12 비디오 프로덕션 공유 장치 및 방법

Country Status (8)

Country Link
US (3) US10009596B2 (ko)
EP (1) EP3044965A4 (ko)
JP (1) JP6434034B2 (ko)
KR (1) KR101826704B1 (ko)
CN (1) CN106576191B (ko)
CA (1) CA2924504A1 (ko)
IL (1) IL244574B (ko)
WO (1) WO2015038976A1 (ko)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3044965A4 (en) 2013-09-13 2017-03-01 Voke Inc. Video production sharing apparatus and method
FR3012279B1 (fr) * 2013-10-23 2017-02-17 Vogo Procede de diffusion multipoints
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
EP3059949A1 (en) * 2015-02-23 2016-08-24 Thomson Licensing Method and apparatus for generating lens-related metadata
JP6726931B2 (ja) * 2015-03-20 2020-07-22 キヤノン株式会社 画像処理装置およびその方法、並びに、画像処理システム
EP3345184A1 (en) * 2015-09-02 2018-07-11 THOMSON Licensing Method, apparatus and system for facilitating navigation in an extended scene
JP6124985B1 (ja) * 2015-12-24 2017-05-10 株式会社コロプラ 映像コンテンツ配信システム及びコンテンツ管理サーバ
JP6040328B1 (ja) * 2016-02-10 2016-12-07 株式会社コロプラ 映像コンテンツ配信システム及びコンテンツ管理サーバ
US10348907B1 (en) * 2016-05-12 2019-07-09 Antony P. Ng Collaborative data processing
KR102567002B1 (ko) * 2016-08-16 2023-08-14 삼성전자주식회사 영상 표시 장치 및 그 동작방법
CN109362242B (zh) * 2016-10-10 2021-05-14 华为技术有限公司 一种视频数据的处理方法及装置
JP6853013B2 (ja) * 2016-10-26 2021-03-31 グリー株式会社 情報処理システム、情報処理方法、および情報処理プログラム
CN108271068B (zh) * 2016-12-30 2020-04-03 华为技术有限公司 一种基于流媒体技术的视频数据的处理方法及装置
US20190289204A1 (en) * 2018-01-03 2019-09-19 Gopro, Inc. Systems and methods for tagging highlights within spherical videos
US10587855B1 (en) 2018-12-20 2020-03-10 Gopro, Inc. Systems and methods for providing punchouts of videos

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050286759A1 (en) * 2004-06-28 2005-12-29 Microsoft Corporation Interactive viewpoint video system and process employing overlapping images of a scene captured from viewpoints forming a grid
US20100149338A1 (en) 2008-12-16 2010-06-17 Mamigo Inc Method and apparatus for multi-user user-specific scene visualization
WO2013093176A1 (en) 2011-12-23 2013-06-27 Nokia Corporation Aligning videos representing different viewpoints
US20130222369A1 (en) * 2012-02-23 2013-08-29 Charles D. Huston System and Method for Creating an Environment and for Sharing a Location Based Experience in an Environment

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946688A (ja) * 1995-07-26 1997-02-14 Fujitsu Ltd ビデオ情報提供/受信システム
JP2004104556A (ja) * 2002-09-11 2004-04-02 Nippon Telegr & Teleph Corp <Ntt> 映像再生方法,映像再生装置,映像再生プログラムおよび映像再生プログラムの記録媒体
US8307273B2 (en) * 2002-12-30 2012-11-06 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive network sharing of digital video content
US7683937B1 (en) * 2003-12-31 2010-03-23 Aol Inc. Presentation of a multimedia experience
JP2006345071A (ja) * 2005-06-07 2006-12-21 Canon Inc 動画再生装置、動画再生方法、記録媒体及びコンピュータプログラム
US20070079321A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Picture tagging
US20110107369A1 (en) 2006-03-28 2011-05-05 O'brien Christopher J System and method for enabling social browsing of networked time-based media
WO2007127905A2 (en) * 2006-04-27 2007-11-08 Fujifilm Graphic Systems U.S.A., Inc System and method for remote monitoring of print systems
US7893999B2 (en) 2006-05-22 2011-02-22 Broadcom Corporation Simultaneous video and sub-frame metadata capture system
CN100587793C (zh) * 2006-05-22 2010-02-03 美国博通公司 视频处理方法、电路和系统
US20100274820A1 (en) * 2007-03-28 2010-10-28 O'brien Christopher J System and method for autogeneration of long term media data from networked time-based media
US7853669B2 (en) * 2007-05-04 2010-12-14 Microsoft Corporation Mesh-managing data across a distributed set of devices
JP5288827B2 (ja) * 2008-02-22 2013-09-11 キヤノン株式会社 表示処理装置及びその制御方法並びに表示処理システム、プログラム
JP4669890B2 (ja) 2008-10-06 2011-04-13 三菱樹脂株式会社 熱成形体の製造方法
JP4623201B2 (ja) * 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8340654B2 (en) * 2009-05-26 2012-12-25 Lextech Labs Llc Apparatus and method for video display and control for portable device
EP2460349A4 (en) 2009-07-31 2013-08-07 Citizenglobal Inc Systems and methods for collecting, processing and distributing content
MTP4301B (en) 2010-03-25 2011-10-26 Securency Int Pty Ltd High refractive index coatings and their use in the protection of surface relief structures
SG188630A1 (en) * 2010-09-24 2013-04-30 Gnzo Inc Video bit stream transmission system
US8763068B2 (en) * 2010-12-09 2014-06-24 Microsoft Corporation Generation and provision of media metadata
US8836771B2 (en) * 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays
US20130300821A1 (en) * 2012-05-10 2013-11-14 Qualcomm Incorporated Selectively combining a plurality of video feeds for a group communication session
KR101389841B1 (ko) * 2012-05-16 2014-04-29 주식회사바텍 파노라마 영상 데이터 제공 방법 및 장치
US9204041B1 (en) * 2012-07-03 2015-12-01 Gopro, Inc. Rolling shutter synchronization
CN102915669A (zh) * 2012-10-17 2013-02-06 中兴通讯股份有限公司 一种实景地图的制作方法和装置
US9210477B2 (en) * 2012-11-29 2015-12-08 Fanvision Entertainment Llc Mobile device with location-based content
US9210470B2 (en) * 2013-03-08 2015-12-08 Verizon Patent And Licensing Inc. User censoring of content delivery service streaming media
US9635252B2 (en) * 2013-04-16 2017-04-25 Disney Enterprises, Inc. Live panoramic image capture and distribution
EP3044965A4 (en) 2013-09-13 2017-03-01 Voke Inc. Video production sharing apparatus and method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050286759A1 (en) * 2004-06-28 2005-12-29 Microsoft Corporation Interactive viewpoint video system and process employing overlapping images of a scene captured from viewpoints forming a grid
US20100149338A1 (en) 2008-12-16 2010-06-17 Mamigo Inc Method and apparatus for multi-user user-specific scene visualization
WO2013093176A1 (en) 2011-12-23 2013-06-27 Nokia Corporation Aligning videos representing different viewpoints
US20130222369A1 (en) * 2012-02-23 2013-08-29 Charles D. Huston System and Method for Creating an Environment and for Sharing a Location Based Experience in an Environment

Also Published As

Publication number Publication date
US10009596B2 (en) 2018-06-26
WO2015038976A1 (en) 2015-03-19
IL244574A0 (en) 2016-04-21
CN106576191A (zh) 2017-04-19
CA2924504A1 (en) 2015-03-19
US20210099690A1 (en) 2021-04-01
US20150082364A1 (en) 2015-03-19
EP3044965A1 (en) 2016-07-20
CN106576191B (zh) 2020-07-14
KR20160100907A (ko) 2016-08-24
IL244574B (en) 2021-04-29
JP6434034B2 (ja) 2018-12-05
US10812781B2 (en) 2020-10-20
EP3044965A4 (en) 2017-03-01
US20190037206A1 (en) 2019-01-31
JP2016534674A (ja) 2016-11-04

Similar Documents

Publication Publication Date Title
KR101826704B1 (ko) 비디오 프로덕션 공유 장치 및 방법
US9684432B2 (en) Web-based system for collaborative generation of interactive videos
US9530452B2 (en) Video preview creation with link
US10334300B2 (en) Systems and methods to present content
CN109145248A (zh) 用于记录、编辑和再现计算机会话的方法
US8737820B2 (en) Systems and methods for recording content within digital video
CN107920274B (zh) 一种视频处理方法、客户端及服务器
US9524278B2 (en) Systems and methods to present content
US10600448B2 (en) Streaming digital media bookmark creation and management
KR20110040882A (ko) 미디어 컨텐츠 아이템에 주석 달기
TWI540890B (zh) 用以處理動作視訊之方法及裝置
TW201141216A (en) Content providing server, content reproducing apparatus, content providing method, content reproducing method, program, and content providing system
US20190199763A1 (en) Systems and methods for previewing content
TW201707466A (zh) 視訊回放裝置及方法(二)
Potetsianakis et al. SWAPUGC: software for adaptive playback of geotagged UGC
CN117786159A (zh) 文本素材获取方法、装置、设备、介质和程序产品
Turnidge Hypervideo: interface design for collaborative documentaries: exegesis submitted in partial fulfilment of the Master of Design at Massey University, Wellington, New Zealand
EP3228117A1 (en) Systems and methods to present content

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
GRNT Written decision to grant