JP6434034B2 - 映像生成物共有装置及び方法 - Google Patents

映像生成物共有装置及び方法 Download PDF

Info

Publication number
JP6434034B2
JP6434034B2 JP2016542835A JP2016542835A JP6434034B2 JP 6434034 B2 JP6434034 B2 JP 6434034B2 JP 2016542835 A JP2016542835 A JP 2016542835A JP 2016542835 A JP2016542835 A JP 2016542835A JP 6434034 B2 JP6434034 B2 JP 6434034B2
Authority
JP
Japan
Prior art keywords
video
computer
video stream
data
client
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2016542835A
Other languages
English (en)
Other versions
JP2016534674A (ja
Inventor
ジャヤラン,サンカー
ケー. シン,ヴィカース
ケー. シン,ヴィカース
ケール,リテシュ
ハリソン,ジョン
デシェンネ,チャールズ
ジャヤラン,ユマ
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2016534674A publication Critical patent/JP2016534674A/ja
Application granted granted Critical
Publication of JP6434034B2 publication Critical patent/JP6434034B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/231Content storage operation, e.g. caching movies for short term storage, replicating data over plural servers, prioritizing data for deletion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • H04N21/2353Processing of additional data, e.g. scrambling of additional data or processing content descriptors specifically adapted to content descriptors, e.g. coding, compressing or processing of metadata
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/23614Multiplexing of additional data and video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2387Stream processing in response to a playback request from an end-user, e.g. for trick-play
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/462Content or additional data management, e.g. creating a master electronic program guide from data received from the Internet and a Head-end, controlling the complexity of a video stream by scaling the resolution or bit-rate based on the client capabilities
    • H04N21/4622Retrieving content or additional data from different sources, e.g. from a broadcast channel and the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/47205End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4788Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/63Control signaling related to video distribution between client, server and network components; Network processes for video distribution between server and clients or between remote clients, e.g. transmitting basic layer and enhancement layers over different transmission paths, setting up a peer-to-peer communication via Internet between remote STB's; Communication protocols; Addressing
    • H04N21/643Communication protocols
    • H04N21/64322IP
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/84Generation or processing of descriptive data, e.g. content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Television Signal Processing For Recording (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Studio Devices (AREA)

Description

この開示は、映像生成物を記録し、遠隔地でその映像生成物を視聴するためのシステム及び方法に関する。より詳細には、この開示は、1以上のパノラマ的な、または、広視野映像フィードに関するメタデータを記録することと、映像生成物データと、異なるソース由来のオリジナルの映像フィードと共に、記録されたメタデータを用いて、映像生成物を再生成することによる、映像生成物の記録に関する。
映像を撮影し、記録する技術が知られている。殆どの技術は、映像を撮影し、ビデオカメラからの映像ストリーム(またはフィード)を生成する映像捕捉システムを含む。視聴者は、(複数の)映像カメラオペレータによって映像化される、カメラの方向、位置、及びズームによって制限される。視聴者が、広視野映像ストリームを、他のユーザと共有し、再生成できる独自の映像生成物にカスタムメイドすることが出来るようにする、改善へのニーズがある。
1以上のパノラマ的な、及び/または、高解像度映像フィードからの映像生成物を記録し、メタデータ、生成物データ、及び、遠隔のソースからの映像フィードを用いて、遠隔地で、映像生成物を再生成するための装置と方法が提供される。
モノスコピック画像またはステレオスコピック画像などの、周囲の環境からのある時間に渡る情報と、単一の映像検出器、または、映像検出器のステレオスコピックな組からの音声入力を越える範囲からの音声入力とを取得するために、1以上の一意的な場所(あるいは、動き)において、映像検出器のステレオスコピックな組のアレイと共に、モノスコピックな映像検出器のアレイが提供される。1以上の映像検出器からの映像出力は、1以上の広視野映像フィードから映像生成物を生成するために、ユーザによって、ユーザインタフェースにおいてアクセスされる。生成された映像生成物は、その後、(複数の)映像フィードに関する記録されたメタデータと、生成物データと、ユーザとは異なるソースに由来する(複数の)オリジナルな映像フィードとを用いて、遠隔地において、同一のユーザまたは他のユーザによって再生成される。
一態様によると、映像生成物共有装置は、プロセッサ、メモリ、及び入力デバイスを有する第1のコンピュータが設けられ、メモリは、内部にプログラムを格納し、プログラムは、プロセッサによって実装され、プロセッサに、1)少なくとも1つの映像ストリームにアクセスさせ、2)個人化された映像を生成するために、第1のコンピュータの入力デバイスを用いて、少なくとも1つの映像ストリームの視聴眺望を操作させ、及び、3)少なくとも1つの映像ストリームの個人化映像を記述する個人化映像を生成するために、少なくとも1つの映像ストリームを操作するために用いられる入力デバイスからのユーザ入力のデータファイルを転送させる、ように設計される。
他の態様によると、映像生成物を共有する方法が提供され、その方法は、少なくとも1つの映像ストリームと、少なくとも1つのコンピュータとを用意することと;少なくとも1つのコンピュータにおいて、少なくとも1つの映像ストリームにアクセスすることと;個人化された映像を生成するために、少なくとも1つのコンピュータの入力デバイスによって、少なくとも1つの映像ストリームの視聴眺望を操作することと;及び、個人映像を生成するために、少なくとも1つの映像ストリームを操作するために用いられる入力デバイスからのユーザ入力を、少なくとも1つの映像ストリームの個人映像を記述するデータファイルの形式にレンダリングすることと、を含む。
更に他の態様によると、1以上のパノラマ的な、及び/または、高解像度映像フィードからの映像生成物を記録し、遠隔のソースからのメタデータ、生成物データ、及び映像フィードを用いて、遠隔地において、映像生成物を再生成するための装置と方法が提供される。
本開示の好適な実施形態が、以下の添付の図面を参照して、以下に記述される。
1以上のパノラマ的な、及び/または高解像度映像フィードからの映像生成物を記録し、遠隔のソースからのメタデータ、生成物データ、及び映像フィードを用いて、遠隔地において、映像生成物を再生成するための装置と方法を示す模式図である。 第1のユーザが個人の映像生成物を生成し、記録することを可能とし、更に、第2のユーザが、個人映像生成物にアクセスし、及び/または、改変することを可能とするように、生成物データと映像フィードとを結合したメタデータの、第1のユーザによる、第2のユーザとの共有を可能にする、図1の装置と方法の実装を示す機能ブロック図である。 図1のシステム10を用いた、ビデオクリップを記録し、生成することに含まれるステップを示すフローチャートである。 図1のシステム10を用いたビデオクリップを共有することに含まれるステップを示すフローチャートである。 図1のシステム10を用いた、ソーシャルメディアネットワーク上に投稿されるビデオクリップを再生することに含まれるステップを示すフローチャートである。 ユーザによって開始される、映像再生状態変更イベント(Video Playback State Changed Event)を扱うことに含まれるステップを示すフローチャートである。 個人ユーザビデオを生成するときに、撮影された画像空間内から、ユーザによって決定された方向と視野とを有するフルセットまたはサブセットのいずれかとして、一意的な時間列における、(全画像空間を含む)画像空間内の画像部分空間として、ユーザが撮影することが出来る画像空間を規定するパノラマ的な、及び/または、高解像度映像フィードを生成するために用いられる、ビデオ画像を撮影するための、カメラアレイ撮影システムを図示する単純化された模式図である。 自分で、あるいは、第2のユーザと、個人のユーザビデオを共有したい第1のユーザによって生成される個々に撮影された画像の部分空間(または部分領域)用のメタデータの選択されたセグメントのサンプルである
この開示は、米国特許法の「科学及び有用な技術の発展を促進する」(第1条、第8項)の憲法目的の促進のために、提出される。
実施形態は、複数のパノラマビデオカメラヘッドから、または、ローカルな格納ディスクからの映像ストリームを受信し、ローカルメモリバッファに映像データを格納し、インターネット及びソーシャルメディアを介して、供給されることが出来る個人ビデオを生成するために、映像を操作し、生成された個人ビデオを視聴するための装置と方法を開示する。1以上のパノラマ的な、及び/または、高解像度映像フィードからの映像生成物を記録し、遠隔のソースからのメタデータ、生成物データ、及び、映像フィードを用いて、遠隔地で、映像生成物を再生成するための装置と方法が提供される。
画像入力の場合、ビデオカメラのステレオスコピックな組がアレイ状に提供される。パノラマビデオのためのパノラマ画像データを生成するための処理回路と、モノスコピックまたはステレオスコピックな映像検出器との組み合わされたユニットは、パノラマビデオカメラヘッドと呼ばれる。パノラマビデオカメラヘッドからの映像データは、視聴者にストリーミングされるか、または、コンピュータメモリもしくはストレージに記録され、視聴者によって取得され、制御用のユーザインタフェースデバイスを用いて視聴されることが出来る。
ここに記述する様々な実施形態は、図を参照して記述される。しかし、ある実施形態は、これらの1以上の特定の詳細事項がなくても、または、他の既知の方法及び構成と組み合わせて、実施されることが出来る。以下の記述においては、本発明の完全な理解を提供するために、特定の構成及び方法などの、多くの特定の詳細が説明される。他の場合には、既知の構成技術及び方法は、本発明を不必要に分かりづらくしないように、特に詳細には記述されていない。この明細書に渡る「一実施形態」または「ある実施形態」への参照は、実施形態との関連で記述される特定のフィーチャ、構成、組成、もしくは、特性が、本発明の少なくとも1つの実施形態に含まれることを意味する。従って、この明細書に渡る様々な場所での「一実施形態において」または「ある実施形態」という語句の出現は、必ずしも本発明の同一の実施形態を指し示すものではない。更に、特定のフィーチャ、構成、組成、または、特性は、1以上の実施形態において、任意の適切な方法で、組み合わされることが出来る。
図1は、1以上のパノラマ的な、及び/または、高解像度映像フィードから映像生成物を記録し、遠隔のソースからのメタデータ、生成物データ、及び、映像フィードを用いて、遠隔地において、映像生成物を再生成するための装置10と方法を提供する。カメラまたはカメラのアレイ(または、ステレオスコピックなカメラの組)などの記録デバイス16は、記録デバイス16によって撮影されるシーンにおける1以上の画像オブジェクト18を撮影する。1以上の記録デバイス16は、オブジェクト18についての映像/メディアを取得し、それを1以上のサーバ12に送信する。映像ストリーム/ビデオクリップ/メディアエンティティ20は、(複数の)カメラ16によって生成される。
図1に示されるように、1以上のサーバ12は、映像ストリーム20を受信する。サーバ12上にあるビデオ/メディアクリップ22は、携帯電子デバイスまたはタブレットコンピュータ32において、第1のユーザ32に提供される。タブレットコンピュータ28は、入力デバイス30を有する。タブレットコンピュータ28は、サーバ12から映像フィードまたはビデオクリップの形態でメディアを得る携帯デバイス上のエンティティである。サーバ12からメディアを受信すると、携帯デバイス28は、メタデータ42によって規定される、自己生成クリップまたはセグメントを生成し、記録することが出来る。
図1のユーザインタフェース30は、パノラマ映像22と相互作用できるようにする相互作用デバイスを示す。デバイス28のユーザインタフェース30は、エンティティの独自の視点を捕捉するこの独自に個人化されたクリップ24の同時の記録と共に、視野の個別の制御を提供する。個人化されたクリップ24は、保存され、共有される。保存され、共有されると、共有されるのは、コンポーネント#42である、メタデータ42である。メタデータ42は、クラウド14に提供される任意の種類のデータストアにおけるストレージのためのクラウド14(インターネット上に拡散される)に送信される。更に、メタデータ42は、Facebook(登録商標)26のようなソーシャルメディアに到達することが出来る。続いて、メタデータ42は、共有と拡散のために、インターネット40に到達する。インターネット40を介して、メタデータ42を介してレンダリングされた結果のビデオ24は、インターネットを介して受信することが出来る全ての人のところに到達する。
他の携帯デバイス34(及び、ユーザの入力デバイス36)上の他のユーザ38は、ユーザ32からの自己生成クリップまたはセグメントをユーザ38が見ることが出来るように、メタデータ42とビデオクリップ22とを受信することができる。ユーザ(または、エンティティ)38は、携帯デバイス28によって生成されたメタデータ42を受信し、更に、(複数の)サーバ12から取得されるビデオクリップ22を受信する。サーバ12から直接得られるビデオクリップ22とメタデータ44とを有することにより、ビデオ/メディアへの、個人的に生成された改変の1対多共有アクティビティのための時間とデータ要件を大きく減少させることで、効率性を可能とする。デバイス36を用いるエンティティ38は、クリップ24を更に改変する能力を有しており、続く共有と格納のために、メタデータ44を、ソーシャルメディアサイト及びクラウドに返送する。
図2に示されるように、エンティティ、または、ユーザ32は、クライアントアプリケーション46へのアクセスを有する。複数のカメラ22からの映像フィードは、このクライアントアプリケーションを用いてアクセスされる。このアプリケーションを使うことによって、エンティティまたはユーザは、記録オプション78を選択する。記録されたパケット76は、開始時間、ユーザイベント、及び、終了時間などのメタデータのみからなる。メタデータは、ファイル75などの格納機構に格納される。これにより、専用データストア74にデータを保存する選択を含む幾つかの選択肢が示され、エンティティ/ユーザが、この記録されたユニット48を共有するためのオプションを選択可能とする。
共有する際には、ソーシャルデータへのネットークプラグインが、図2に示されるように、メタデータファイル50と共に起動される。このメタデータは、友人とソーシャルネットワーク52とに投稿され、ソーシャルネットワーク54に到達する。他の選択肢は、ソーシャルネットワークをバイパスし、3D4Uビューア60などの専用アプリへ到達することである。このアプリは、他のユーザ38によって使用されるアプリにおける記録へのリンク62を送信する。
図2のエンティティ、または、ユーザ38は、また、クライアントアプリケーション56を起動する。このクライアントアプリケーションは、アプリ62における記録へのリンクを受信し、及び/または、ソーシャルネットワークインタフェース58における記録へのリンクを受信する。アプリは、メタデータ24から生成されたビデオを再生成する。これは、複数のカメラ22からの映像フィード、及び、メタデータ74に対する、ファイルまたは、同等な格納機構を用いて行われる。
エンティティ38は、今度は、図2に示すように、以下を含む幾つかの選択肢を有することが出来る:一つの選択肢は、閲覧し、フォローすること66である。他の選択肢は、データを共有データ68にさらに追加することである。これは、ファイル74などの格納機構に送信される。第3の選択肢は、改変すること70である。これは新しいメタデータ72を生成する。この新しいメタデータ72は、友人へ、及び、ソーシャルネットワーク53上に投稿されることができ、ソーシャルネットワーク54に送信されることが出来る。
図3は、(図1の)システム10を用いて、ビデオクリップを記録し、生成するための論理処理を示す処理フロー図を形成する。より詳しくは、図3は、クリップを記録し、生成するために用いられるロジック処理を図示する。
図3に示されるように、論理フロー図は、ビデオクリップを記録するとき、出願人の発明のシステムによって実装されるステップを図示する。
ステップ「S1」においては、個人は、仮想的に知覚可能な媒体を用いて、ビデオの記録を開始することを要求する。仮想的に知覚可能な媒体の様々な形態は、ユーザインタフェース内に配置されたリンク、バナー、ボタン、クリック可能なアイコン、クリック可能なグラフィック、または、ユーザインタフェース上に配置されたハイパーテキストリンクを含むと、考えられる。ステップ「S1」を実行した後、処理は、ステップ「S2」に進む。
ステップ「S2」においては、メタデータが、デバイスメモリ内のビデオクリップ用に生成される。メタデータは、一覧表、辞書、ハッシュテーブル、アレイ、リストもしくはバイナリツリーまたはファイルの1以上の組み合わせを含むデータストレージの任意の形態とすることが出来る。ステップ「S2」の実行後、処理は、ステップ「S3」に進む。
ステップ「S3」においては、処理は、現在の再生時間を得、ステップ「S2」において生成されたメタデータにそれを追加する。現在の再生時間は、ストリングとして、または、整数、もしくは、二値形式として追加されることが出来る。ステップ「S3」を実行後、処理は、ステップ「S4」に進む。
ステップ「S4」において、処理は、全てのユーザイベントを記録し、または、捕捉し始める。処理は、記録が開始したことを示すため、変数に値を設定するかもしれない。変数は、ストリング、ブーリアン、整数、または、二値数などの任意の形式のデータストレージとすることが出来る。ステップ「S4」を実行後、処理は、ステップ「S5」に進む。
ステップ「S5」において、処理は、イベントを保存するために、データストレージを生成する。ストレージの様々な形態は、一覧表、辞書、ハッシュテーブル、アレイ、リストもしくはバイナリツリーまたはファイルの1以上の組み合わせを含むと、考えられる。ステップ「S5」を実行後、処理は、ステップ「S6」に進む。
ステップ「S6」において、処理は、記録時間を追跡し続けるために、タイマをスタートさせる。このステップは、数字を初期化する、または、期間を追跡し続ける機能を提供するクラスのオブジェクトを初期化するかもしれない。ステップ「S6」の実行後、処理は、ステップ「S7」に進む。
ステップ「S7」において、記録が進んでいるのであれば、処理は問い合わせを行う。処理は、ステップ「S4」で設定された変数の値を得るかも知れず、ステップ「S4」で設定された値と同じ値を有し、その後、記録が継続中、または、記録が停止していることを示す。例えば、ユーザが記録を停止すると、処理は、ステップ「S4」で「真」に設定されたブーリアンを偽に設定し、記録が停止されていることを示すかもしれない。ユーザは、デバイスとの特定の物理的相互作用、または、サムソンデバイスのように、目によるデバイスとの相互作用のいずれかによって、記録を停止することが出来る。例えば、記録を既に開始した後、ユーザが再び記録ボタンをクリックすると、処理の記録変数が、記録が停止されたことを示すために、設定されるだろう。ステップ「S7」の後、記録が進行中の場合、処理は、ステップS8に進み、そうでない場合には、ステップ「S16」に進む。
ステップ「S8」においては、ユーザイベントが発生したら、処理は問い合わせを行う。ユーザイベントは、ユーザによるデバイスとの、物理的相互作用、または、サムソンデイバスにおけるような目による相互作用の任意の種類のものとすることが出来る。イベントは、ポーズ、再生、先送り、巻き戻し、カメラスイッチ、ズームまたはパンとなるかもしれない。例えば、ユーザが、ラベル「ポーズ」のあるボタンをクリックすると、その結果、ビデオのポーズになるかも知れず、処理は、このイベントを捕捉するだろう。ユーザイベントが発生すると、処理は、ステップS9に進み、そうでない場合は、再び、ステップ「S7」に進む。
ステップ「S9」において、処理は、ステップ「S8」で発生したイベント用のデータストレージを生成する。データストレージの様々な形態は、一覧表、辞書、ハッシュテーブル、アレイ、リストもしくはバイナリツリーまたはファイルの1以上の組み合わせを含むと、考えられる。ステップ「S9」を実行後、処理は、ステップ「S10」に進む。
ステップ「S10」において、処理は、イベントに関する情報を、ステップ「S9」において生成されたデータストレージに保存する。情報は、イベントの種類を一意に特定する詳細と共に、イベントが発生したときの時刻を含むかもしれない。例えば、処理は、記録の現在の時間とイベントidと共に、ビデオの現在の再生時間を得るかもしれない。ステップ「S10」の実行後、処理は、ステップ「S11」に進む。
ステップ「11」において、イベントが、スクリーンをパンさせるユーザイベントのリストに属する場合、処理は問い合わせをする。それによって、スクリーンをパンすることになる場合、処理は、ステップ「S14」に進み、そうでない場合には、ステップ「S12」に進む。例えば、ユーザが、指を水平方向に、右または左にスライドさせ、このジェスチャが、パンをさせるユーザイベントリストに属する場合、処理は、ステップ「S14」に移る。
ステップ「S14」において、処理は、オフセット値(X及びY)を、ステップ「S9」において生成されたイベントデータストレージに保存する。ステップ「S14」を実行後、処理は、ステップ「S15」に進む。
ステップ「12」において、イベントが、スクリーンをズームさせるユーザイベントのリストに属する場合、処理は問い合わせをする。それによってスクリーンをズームすることになる場合、処理は、ステップ「S13」に進み、そうでない場合には、ステップ「S15」に進む。例えば、ユーザが、2つの指を、互いに離れるようにスライドし、このジェスチャが、スクリーンをズームさせるユーザイベントリストに属する場合、処理は、ステップ「S13」に移る。
ステップ「S13」においては、処理は、ズームスケールとオフセット値(X及びY)を、ステップ「S9」で生成されたイベントデータストレージに保存する。ステップ「S13」の実行後、処理は、ステップ「S15」に進む。
ステップ「S15」において、処理は、ステップ「S9」において生成されたイベントストレージを、全てのイベントについて、ステップ「S5」で生成されたデータストレージに追加する。ステップ「S15」を実行後、処理は、ステップ「S7」に再び進む。
ステップ「S16」において、処理は、ユーザが記録を停止する場合、ユーザに、様々なオプションを提供する。オプションは、保存、共有、または、破棄を含む。各オプションは、仮想的に知覚可能な媒体を用いて提供される。仮想的に知覚可能な媒体の様々な形態は、ユーザインタフェース内に配置されたリンク、バナー、ボタン、クリック可能なアイコン、クリック可能なグラフィック、または、ユーザインタフェース上に配置されたハイパーテキストリンクを含むと、考えられる。ステップ「S16」の後、ユーザが、クリップを保存することを選択するならば、ステップ「S17」に進み、ユーザが、クリップを共有することを選択するならば、ステップ「S18」に進み、ユーザが、クリップを破棄することを選択するならば、ステップ「S19」に進む。
ステップ「S17」において、処理は、クリップに関係したメタデータを保存する必要があることを特定する。ステップ「S17」の後、処理は、ステップ「S20」に進む。
ステップ「S18」において、処理は、記録を共有する。ステップ「S18」の後、処理は、ステップ「S22」に進む。
ステップ「S19」において、処理は、記録を破棄する。ステップ「S19」の後、処理は、ステップ「S19.5」に進み、メモリは、記録がクリアされる(または、それは消去される)。
ステップ「S20」において、処理は、デバイスディスク上のファイル内にメタデータを保存する。ファイルは、xml、text、word、または、excelファイルを含む、任意の種類のものとすることが出来る。ステップ「S20」を実行後、処理は、ステップ「S21」に進む。
ステップ「S21」において、個人は、仮想的に知覚可能な媒体を用いて、ビデオクリップを共有することを要求する。仮想的に知覚可能な媒体の様々な形態は、ユーザインタフェース内に配置されたリンク、バナー、ボタン、クリック可能なアイコン、クリック可能なグラフィック、または、ユーザインタフェース上に配置されたハイパーテキストリンクを含むと、理解される。ステップ「S21」を実行後、処理は、図3Aに示されるように、共有処理に進む。
図3は、(図1の)システム10を用いて、ビデオクリップを共有するための論理処理を示す処理フロー図を形成する。より詳しくは、図3は、ビデオクリップを共有するために用いられる論理処理を図示する。
図4に示されるように、論理フロー図は、ビデオクリップを共有する場合に、出願人の発明のシステムによって実装されるステップを図示する。
ステップ「S22」において、処理は、メタデータを共有サーバに送信し、ビデオクリップを共有するための一意的なリンクを受信する。メタデータは、ストリングまたはxmlを含む様々な形態で、共有サーバに送信されることが出来る。ステップ「S22」を実行後、処理は、ステップ「S23」に進む。
ステップ「S23」において、処理は、共有されるクリップのサムネイルを生成する。ステップ「S23」の実行後、処理は、ステップ「S24」に進む。
ステップ「S24」において、処理は、ユーザに、ビデオクリップについてコメントを入力するよう要求し、コメントをメモリに保存する。コメントは、仮想的に知覚可能な媒体によって要求されるかもしれない。仮想的に知覚可能な媒体の様々な形態は、テキストボックスを含むと、考えられる。ステップ「S24」の実行後、処理は、ステップ「S25」に進む。
ステップ「S25」においては、処理は、ユーザがクリップを共有したいソーシャルネットワーキングメディアを選択するようにユーザに要求する。オプションは、Facebook(登録商標),Twitter(登録商標),Orkut(登録商標)または Google+(登録商標)を含む、すべての利用可能なソーシャルメディアを含むだろう。ステップ「S25」の実行後、選択されたソーシャルメディアネットワークのそれぞれについて、処理はステップ「S26」に進む。
ステップ「S26」において、ユーザが、既に、API機能を用いてログインしているなら、処理は、ソーシャルメディアネットワークに問い合わせを行う。例えば、ユーザが、現在、Facebook(登録商標)APIを用いてログインしている場合、処理は、Facebook(登録商標)に問い合わせを行うだろう。ステップ「S26」を実行後、ユーザが、ログインしているならば、処理は、ステップ「S27」に進み、そうでない場合、ステップ「S29」に進む。
ステップ「S29」において、処理は、ユーザに、ソーシャルメディアネットワークにログインするように促す。入力すべきユーザ名とパスワードは、ソーシャルメディアネットワークに依存するだろう。例えば、処理は、Facebook(登録商標)上で、クリップを共有するために、Facebook(登録商標)ログインIDとパスワードを要求するだろう。ステップ「S29」の実行後、処理は、ステップ「S30」に進む。
ステップ「S30」において、処理は、ソーシャルメディアネットワークへの3D4Uアプリケーションのための許可をユーザに要求する。ステップ「S30」の後、処理は、ステップ「S31」に進む。
ステップ「S31」において、処理は、ユーザまたはソーシャルネットワークに、ソーシャルネットワークメディアからの情報を要求する。この情報は、プロフィール写真、ユーザの友人のリストまたはユーザIDを含むことが出来る。ステップ「S31」の実行後、処理は、ステップ「S27」に進む。
ステップ「S27」において、処理は、ユーザ情報を、3D4U共有サーバにアップロードする。ステップ「S27」の実行後、処理は、ステップ「S28」に進む。
ステップ「28」において、処理は、コメント及びサムネイルと共に、ソーシャルメディアネットワーク上に、一意的なリンクを投稿する。ステップ「S28」の実行後、選択されたソーシャルメディアネットワークのそれぞれに対し、処理は終了する。
図4は、(図1の)システム10を用いて、ソーシャルメディアネットワーク上に投稿されたビデオクリップを再生する論理処理を示す処理フロー図を形成する。より詳細には、図4は、ソーシャルメディアネットワーク上に投稿されたビデオクリップを再生するために用いられる論理処理を図示する。
図4に示されているように、論理フロー図は、ソーシャルメディアネットワーク上に投稿されたビデオクリップを再生するときに、出願人の発明のシステムによって実装されるステップを図示する。
ステップ「SS1」において、アプリケーションユーザは、仮想的に知覚可能な媒体として提示されるリンクを用いて、ビデオクリップを再生することを要求する。仮想的に知覚可能な媒体の様々な形態は、ユーザインタフェース内に配置されたリンク、バナー、ボタン、クリック可能なアイコン、サムネイル、クリック可能なグラフィック、または、ユーザインタフェース上に配置されたハイパーテキストリンクを含むと、考えられる。ステップ「SS1」を実行後、処理は、ステップ「SS2」に進む。
ステップ「SS2」において、処理は、3D4Uアプリケーションを実行するために、リンクからの、MIME型情報(mime type information )を用いる。ステップ「SS2」を実行後、処理は、ステップ「SS3」に進む。
ステップ「SS3」において、このアプリケーションが、既に、デバイスにインストールされている場合には、処理はデバイスに問い合わせをする。ステップ「SS3」を実行後、アプリケーションがインストールされている場合には、処理は、ステップ「SS6」に進み、そうでない場合には、処理は、ステップ「SS4」に進む。
ステップ「SS4」において、処理は、デバイスサーバを、3D4Uアプリケーションダウンロードウェブサイトに転送する。ダウンロードウェブサイトは、デバイスに依存するだろう。例えば、Apple(登録商標)デバイス上では、処理は、Apple(登録商標)3D4Uアプリケーションへ転送する。ステップ「SS4」実行後、処理は、ステップ「SS5」に進む。
ステップ「SS5」において、処理は、デバイスに、3D4Uアプリケーションをインストールする。ステップ「SS5」の実行後、処理は、ステップ「SS6」に進む。
ステップ「SS6」において、処理は、3D4Uアプリケーションを開始する。ステップ「SS6」の実行後、処理は、ステップ「SS7」に進む。
ステップ「SS7」において、クリップが、既に、デバイスにダウンロードされている場合、処理は問い合わせを行う。ステップ「SS7」の後、クリップが既にダウンロードされている場合には、ステップ「SS9」に進み、そうでない場合には、処理は、ステップ「SS8」に進む。
ステップ「SS8」においては、処理は、アプリケーション共有サーバに、クリップメタデータを要求し、それをデバイスにダウンロードする。ステップ「SS8」の実行後、処理は、ステップ「SS9」に進む。
ステップ「SS9」において、処理は、ステップ「SS8」においてダウンロードされたメタデータからフルビデオのIDを読み取る。ステップ「SS9」の実行後、処理は、ステップ「SS10」に進む。
ステップ「SS10」において、処理は、フルビデオのIDに基づいて、フルビデオを開く。ステップ「SS10」の実行後、処理は、ステップ「SS11」に進む。
ステップ「SS11」において、処理は、メタデータからクリップスタート時間を得る。ステップ「SS11」の実行後、処理は、ステップ「SS12」に進む。
ステップ「SS12」において、処理は、クリップのメタデータから全てのイベントを得る。ステップ「SS12」の実行後、処理は、ステップ「SS13」に進む。
ステップ「SS13」において、処理は、ステップ「SS11」において得られた開始時間からフルビデオの再生を開始する。ステップ「SS13」の実行後、処理は、ステップ「SS14」に進む。
ステップ「SS14」において、処理は、ビデオの現在のタイムスタンプを要求する。ステップ「SS14」の実行後、処理は、ステップ「SS15」に進む。
ステップ「SS15」において、イベント開始時間が、ステップ「SS14」において得られた現在のビデオ時間より小さい場合には、処理は、イベントコレクションに問い合わせる。ステップ「SS15」の実行後、現在のビデオ時間よりも小さい開始時間を有するイベントがある場合には、イベントデータストレージを読み取り、ステップ「SS16」に進み、そうでない場合には、ステップ「SS14」に進む。
ステップ「SS16」において、処理は、ステップ「SS15」において得られたイベントデータストレージから得られるイベントidに基づいて、イベントタイプを読み取る。ステップ「SS16」の実行後、処理は、ステップ「SS17」に進む。
ステップ「SS17」において、スクリーンをパンさせるユーザイベントのリストにイベントが属する場合、処理は問い合わせを行う。その結果、スクリーンをパンすることになるときは、処理は、ステップ「SS20」に進み、そうでない場合には、ステップ「SS18」に進む。
ステップ「SS20」において、処理は、ステップ「SS15」において得られたイベントデータストレージからオフセット値(X及びY)を読み取る。ステップ「SS20」の実行後、処理は、ステップ「SS21」に進む。
ステップ「SS18」において、スクリーンをズームさせるユーザイベントのリストにイベントが属する場合、処理は問い合わせを行う。その結果、スクリーンをズームさせることになる場合は、処理は、ステップ「SS19」に進み、そうでない場合には、ステップ「SS21」に進む。
ステップ「SS21」において、処理は、イベントをビデオに適用する。例えば、イベントが、ズームのタイプのものである場合、処理は、オフセットとズームスケール値を適用し、スクリーンをズームする。ステップ「SS21」を実行後、処理は、ステップ「SS22」に進む。
ステップ「SS22」において、処理は、ステップ「SS12」において読み込まれたイベントデータストレージのコレクションから、ステップ「SS15」において取得されたイベントストレージを消去する。ステップ「SS22」の実行後、処理は、再び、ステップ「SS14」に進む。
図5は、3D−4U共有ソーシャルメディアネットワークと、標準的な映像フィードとに対する個別の認証のための処理を示し、完全な認証を提供するためにそれらを組み合わせる処理フロー図を形成する。より詳細には、図5は、3D−4U共有ソーシャルメディアネットワークと、標準的な映像フィードとに対する個別の認証、のために用いられ、完全な認証を提供するためにそれらを組み合わせる論理処理を図示する。
ステップ「SSS1」において、ユーザは、3D4Uから、または、Facebook(登録商標)、Twitter(登録商標)などの他のソーシャルメディアネットワークから、または、3D−4Uアプリにおいて、視聴する共有クリップを選択する。ユーザは、仮想的に知覚可能な媒体を用いて、リンクとして提示されるビデオクリップを選択する。仮想的に知覚可能な媒体の様々な形態は、ユーザインタフェース内に配置されたリンク、バナー、ボタン、クリック可能なアイコン、サムネイル、クリック可能なグラフィック、または、ユーザインタフェース上に配置されるハイパーテキストリンクを含むと、考えられる。リンクは、図2に示される処理を介して、他のユーザまたは同一のユーザによって共有されるビデオに向けたものである。システムは、データベース500と通信し、共有されるメタデータに関わらず、基本の映像フィードをユーザが視聴するために必要な許可を確認する。これは、メディア会社によって用いられる通常の認証処理を含む(例えば、ログイン処理、位置に基づく認証、ネットワークに基づく認証など)。ステップ「SSS1」を実行し、ビデオを視聴するユーザの許可を確認した後、処理は、ステップ「SSS2」に進む。
ステップ「SSS2」において、処理は、3D−4U共有クリップを視聴するか、または3D−4U共有データベース502を介して共有される、クリップを生成することが出来るユーザの許可を確認する。ステップ「SSS2」の実行後、処理は、ステップ「SSS3」に進む。
ステップ「SSS3」において、処理は、ステップ「SSS2」とステップ「SSS3」で得られた両方の許可を確認する。ステップ「SSS3」の実行後、処理は、ステップ「SSS4」に進む。
ステップ「SSS4」において、メタデータが、既にデバイス上にあるか、または、それがストリーミングされている場合、処理は、デバイスに問い合わせをする。ステップ「SSS4」の実行後、メタデータがデバイス上で利用可能な場合、処理は、ステップ「SSS6」に進み、そうでない場合には、ステップ「SSS5」に進む。
ステップ「SSS5」において、処理は、メタデータをダウンロードするか、またはメタデータストレージデータベース504からメタデータのストリーミングを開始する。
ステップ「SSS6」において、ビデオが、既にデバイス上にあるか、または、それがストリーミングされている場合、処理は、デバイスに問い合わせをする。ステップ「SSS6」の実行後、ビデオがデバイス上で利用可能な場合、処理は、ステップ「SSS8」に進み、そうでない場合には、ステップ「SSS7」に進む。
ステップ「SSS7」において、処理は、ビデオをダウンロードするか、または、ビデオストレージデータベース506からビデオのストリーミングを開始する。
ステップ「SSS8」において、処理は、カスタマイズされたクリップのユーザ生成及び共有の処理に、または、共有されたカスタマイズされたクリップのユーザ視聴の処理に進む。
図6は、複数のカメラからユーザに、ビデオを供給する処理を示す模式図である。より詳細には、図6は、複数のカメラから映像フィードを生成し、ユーザがフィードを選択し、それを視聴するために用いられる論理処理を図示する。ブロック250において、処理は、プロデューサによって実行されるユーザイベントを記録する。イベントは、パン、チルト、ズーム、カメラ切り替え、ポーズ、再生などを含むことが出来る。ブロック250の実行後、処理は、ブロック252に進む。ブロック252において、メタデータがストリームされ、インターネット40を介して、ユーザに利用可能とされる。ブロック254において、複数のカメラからの映像フィードは、インターネット40から受信される。ブロック254を実行後、処理は、ブロック256に進む。ブロック256において、プロデューサは、映像フィードを生成するために、3D4Uプロデューサアプリケーションを用いる。ブロック256の実行後、処理は、ブロック250とブロック248に進む。ブロック248において、処理は、プロデューサによって実行されるユーザイベントを記録する。イベントは、パン、チルト、ズーム、カメラ切り替え、ポーズ、再生などを含むことが出来る。ブロック250の実行後、処理は、ブロック246に進む。ブロック246において、処理は、複数のカメラから提供される映像フィード内にメディアデータを格納する。ブロック246の実行後、処理は、ブロック244に進む。ブロック244において、処理は、埋め込まれたプロデューサ258メタデータと共に、複数のカメラから得られた映像フィードを送信し、インターネット40を介して、利用可能とする。
図7は、(結果として組み合わされたパノラマ視野を提供するために、隣接し、かつ連続した視野を有する隣接したカメラのアレイを含む)カメラアレイ16によって捕捉されたパノラマ的な、及び/または、高解像度ビデオに対する視野を図示する、180度モノスコピック(または、ステレオスコピックの組)カメラアレイ16の簡単化された模式図である。パノラマ画像領域102は、(カメラアレイ16からの設定された動径距離における)画像領域を表し、任意の与えられた時点における、カメラアレイ16において取得されたフルパノラマビデオ(または画像)を表す。サブビデオ(または、サブ画像)104は、時間t=1における、画像領域102の部分集合である、ユーザが(ズーム、及び、画像部分選択によって)選択したビデオコンポーネント(または、画像)を表す。その後の時間、t=5における、サブビデオ(または、サブ画像)106は、その後の時間t=5における、ユーザが選択したビデオコンポーネント(または、画像)を表す。更にその後の時間、t=nにおける、サブビデオ(または、サブ画像)108は、更に後の時間t=nにおける、ユーザが選択したビデオコンポーネント(または、画像)を表す。このように、ユーザは、パノラマ画像領域102から個人的ビデオを提供するために、カメラ16からの映像フィードから(ある期間に渡った)自分の画像を生成することが出来る。最大で、画像104、106、及び108は、任意の選択された期間について、画像領域102の全体をカバーすることが出来る。
図8は、図3に示されるように、クリップを記録するか、または、生成する処理の間、システムによって生成されるクリップのメタデータを図示するサンプルのメタデータファイルである。以下は、図3に示される処理の間、どのように、図Xが生成されていたかの記述である。
メタデータファイルは、最初、メモリに生成され、それから、ブロックA0が、処理のステップ「S2」において、メタデータに追加される。
ブロック「A2」は、ステップ「S3」におけるデータストレージに対する処理によって生成される。同一のステップにおいて、ブロックA3は、カメラタグの詳細を用いて処理によって生成され、それから、A3がA2に追加される。そして、処理は、現在の再生時間を得、現在の再生時間についてA4とA5を生成し、A4とA5をA2に追加する。処理は、また、後にA2に追加するA6とA7データストレージを生成するための値と共に、デフォルトのイベントIDを追加する。処理は、オフセットに対する初期値を得、キーを用いてA8を生成し、その値を用いてA9を生成し、それらを、A2に追加する。処理は、再生状態に対する初期値を得、キーを用いてA10を生成し、その値を用いてA11を生成し、それらをA2に追加する。処理は、記録されたデバイスコンテンツ変換に対する初期値を得、キーを用いてA11を生成し、その値を用いてA12を生成し、それらをA2に追加する。処理は、アプリケーションのバージョンを得、キーを用いてA13を生成し、その値を用いてA14を生成し、両者をA2に追加する。処理は、再生されるフルビデオのビデオidを得、キーを用いてA15を生成し、その値を用いてA16を生成し、両者をA2に追加する。処理は、現在のズームスケールを得、キーを用いてA17を生成し、その値を用いてA18を生成し、両者をA2に追加する。
ブロック「A1」は、ステップ「S5」の処理で生成される。そして、ブロック「A2」は、ブロック「A1」に追加され、ブロック「A1」は、ブロック「A0」に追加される。
ブロック「A21」は、ユーザがビデオをパンするとき、ステップ「S9」の処理で生成される。同一のステップで、ブロック「A22」とブロック「A23」が、現在の再生時間を用いた処理で生成される。また、ブロック「A24」とブロック「A25」は、イベントidを用いた処理で生成される。ブロック「A26」とブロック「A27」は、オフセット値を用いて、ステップ「S14」における処理で生成される。また、ブロック「A28」とブロック「A29」は、記録時間を用いた処理で生成される。従って、ブロック「A21」は、オフセット値(453.5,0)のパンに対応するイベントid=109で、19.883273696秒にユーザイベントが起こったことと、記録時間が、1.7666667588055134であったことを図示する。ブロック「A21」が、ステップ「S15」で、ブロック「A1」に追加される。
ブロック「A30」が、ユーザがビデオをパンするとき、ステップ「S9」の処理で生成される。同一のステップで、ブロック「A31」とブロック「A32」が、現在の再生時間を用いた処理によって生成される。また、ブロック「A33」とブロック「A34」が、イベントidを用いた処理で生成される。ブロック「A35」とブロック「A36」は、オフセット値を用いた、ステップ「S14」の処理で生成される。また、ブロック「S37」とブロック「A38」は、記録時間を用いた処理によって生成される。従って、ブロック「A30」は、オフセット値(457,0)のパンに対応するイベントid=109で、フルビデオの19.883273696秒にユーザイベントが発生したことと、記録時間が、1.8000000938773155であったことを図示する。ブロック「A30」は、ステップ「S15」において、ブロック「A1」に追加される。
ブロック「A39」は、ユーザがビデオをパンするときに、ステップ「S9」の処理で生成される。同一のステップで、ブロック「A40」とブロック「A41」が、現在の再生時間を用いた処理によって生成される。また、ブロック「A42」とブロック「A43」が、イベントidを用いた処理によって生成される。ブロック「A44」とブロック「A45」が、オフセット値を用いた、ステップ「S14」の処理によって生成される。また、ブロック「A46」とブロック「A47」が、記録時間を用いた処理によって生成される。従って、ブロック「A39」は、オフセット値(460.5,0)のパンに対応するイベントid=109で、フルビデオの19.915203333000001秒にユーザイベントが発生したことと、記録時間が、1.8000000938773155であったことを図示する。ブロック「A39」は、ステップ「S15」において、ブロック「A1」に追加される。
ブロック「A48」は、ユーザがビデオをズームするときに、ステップ「S9」の処理で生成される。同一のステップにおいて、ブロック「A49」とブロック「A50」が、現在の再生時間を用いた処理によって生成される。また、ブロック「A51」とブロック「A52」が、イベントidを用いた処理によって生成される。ブロック「A53」とブロック「A54」が、オフセット値を用いたステップ「S13」の処理によって生成される。同一のステップで、ブロック「A55」とブロック「A56」が、記録時間値を用いた処理によって生成される。ブロック「A57」とブロック「A58」は、ズームスケール値を用いた処理によって生成される。従って、ブロック「A48」は、オフセット値(1548.03,335.527)のズームに対応するイベントid=100で、フルビデオの23.910301570000001秒にユーザイベントが発生したことと、1.7527990341186523のズームスケールで、記録時間が、5.4333336167037487であったことを図示する。ブロック「A48」が、ステップ「S15」でブロック「A1」に追加される。
ブロック「A59」が、ユーザがビデオをズームするときに、ステップ「S9」の処理によって生成される。同一のステップで、ブロック「A60」とブロック「A61」が、現在の再生時間を用いた処理によって生成される。また、ブロック「A62」とブロック「A63」は、イベントidを用いた処理によって生成される。ブロック「A64」とブロック「A65」が、オフセット値を用いたステップ「S13」の処理によって生成される。同一のステップにおいて、ブロック「A66」とブロック「A67」が、記録時間値を用いた処理によって生成される。ブロック「A68」とブロック「A69」は、ズームスケール値を用いた処理によって生成される。従って、ブロック「A59」は、オフセット値(1550.33,336.157)のズームに対応するイベントid=100で、フルビデオの23.942486532秒にユーザイベントが発生したことと、1.7550586462020874のズームスケールで、記録時間が、5.4666669517755508であったことを図示する。ブロック「A59」は、ステップ「S15」で、ブロック「A1」に追加される。
ブロック「A70」は、ユーザがビデオをズームするとき、ステップ「S9」の処理によって生成される。同一のステップで、ブロック「A71」とブロック「A72」が、現在の再生時間を用いた処理によって生成される。また、ブロック「A73」とブロック「A74」が、イベントidを用いた処理によって生成される。ブロック「A75」とブロック「A76」は、オフセット値を用いたステップ「S13」の処理によって生成される。同一のステップにおいて、ブロック「A77」とブロック「A78」が、記録時間値を用いた処理によって生成される。ブロック「A79」とブロック「A80」が、ズームスケール値を用いた処理によって生成される。従って、ブロック「A70」は、オフセット値(1550.41,336.268)のズームに対応するイベントid=100で、フルビデオの23.974900081000001秒にユーザイベントが発生したことと、1.7553437948226929のズームスケールで、記録時間が、5.500000286847353であったことを図示する。ブロック「A70」は、ステップ「S15」においてブロック「A1」に追加される。
ブロック「A81」は、ユーザがビデオをポーズするとき、ステップ「S9」の処理によって生成される。同一のステップにおいて、ブロック「A82」とブロック「A83」は、現在の再生時間を用いた処理によって生成される。また、ブロック「A84」とブロック「A85」は、イベントidを用いた処理によって生成される。ブロック「A86」とブロック「A87」は、記録時間値を用いた処理によって生成される。従って、ブロック「A81」は、ポーズに対応するイベントid=101で、フルビデオの25.072922040000002秒にユーザイベントが発生したことと、記録時間が、6.5000003390014172であったことを図示する。ブロック「A81」は、ステップ「S15」において、ブロック「A1」に追加される。
ブロック「A88」は、ユーザが記録を停止するときに、ステップ「S9」の処理によって生成される。同一のステップにおいて、ブロック「A89」とブロック「A90」は、現在の再生時間を用いた処理によって生成される。また、ブロック「A91」とブロック「A92」が、イベントidを用いた処理によって生成される。ブロック「A93」とブロック「A94」は、記録時間値を用いた処理によって生成される。従って、ブロック「A81」は、記録停止に対応するイベントid=9999で、フルビデオの25.488877777777777秒にユーザイベントが発生したことと、記録時間が、8.2000004276633263であったことを図示する。ブロック「A88」は、ステップ「S15」において、ブロック「A1」に追加される。
記録及び生成装置は、リアルシーンのパノラマビデオまたは、リアルシーンのパノラマ画像(コンピュータで生成されたシーンを除く)を記録し、デジタル空間内で、カメラのパン、チルト及びズームを制御している感覚を視聴者に与える、パノラマビデオまたはパノラマ画像の部分集合(サブ領域)を選択することによって、TV、及び、コンピュータモニタ、及び携帯デバイスの標準のアスペクト比にフィットするような標準的なビデオまたは画像を生成するために提供される。ビデオ生成物は、ビデオの特定のタイムスタンプにおいて、仮想カメラを制御するための、パン、チルト、及びズーム制御のうちの少なくとも1つを含む、メタデータセットを介して、ビデオのパノラマ画像から生成される。メタデータセットは、また、開始時間、終了時間、継続時間、トランスポートイベント(ポーズ、再生、順再生、逆再生)の再生速度、及び、カメラ制御イベント(パン、チルト、及びズーム変更)のうちの少なくとも1つを含む、ビデオトランスポート制御データのみからなる。ある場合には、メタデータセットは、ビデオまたは画像データに埋め込まれたデータとして伝送される。他の場合には、メタデータセットは、ビデオデータの送信とは別個のデータとして伝送され、メタデータとビデオデータは、メタデータ内のタイムスタンプ情報と共に、ビデオデータ内のタイムスタンプデータを用いて、同期される。
記録及び生成装置は、リアルシーンのパノラマビデオまたは、リアルシーンのパノラマ画像(コンピュータで生成されたシーンを除く)を記録し、デジタル空間内で、カメラのパン、チルト及びズームを制御している感覚を視聴者に与える、パノラマビデオまたはパノラマ画像の部分集合(サブ領域)をインタラクティブに選択することによって、テレビ、及び、コンピュータモニタ、及び携帯デバイスの標準のアスペクト比にフィットするような標準的なビデオまたは画像を生成するために提供される。装置は、生成されるパノラマビデオまたはパノラマ画像のサブ領域を選択するように、カメラのパン、チルト、及びズームを選択するためのユーザインタフェースを含む。ユーザインタフェースは、ポーズ、順再生、逆再生、及び再生速度などのビデオトランスポート制御を規定するために提供される。生成されるビデオは、画像またはビデオデータを含むビデオクリップとしては生成されない。生成されるビデオは、ビデオの特定のタイムスタンプにおいて、仮想カメラを制御するために、パン、チルト、及びズーム制御のうちの少なくとも1つを含む、メタデータとして格納される。格納されるメタデータは、また、開始時間、終了時間、継続時間、トランスポートイベント(ポーズ、再生、順再生、逆再生)の再生速度、及び、カメラ制御イベント(パン、チルト、及びズーム変更)のうちの少なくとも1つを含むビデオトランスポート制御データのみからなる。格納されたメタデータは、生成されたビデオを再生成するために、パノラマビデオまたはパノラマ画像と組み合わせて用いられる。パノラマビデオデータは、ライブストリームデータ、ハードディスクから取得された記録データ、または、メモリ内にバッファされたデータである。
ある場合には、メタデータは、同一のビデオ視聴デバイス上で生成され、利用される。他の場合は、メタデータは、第1のデバイスで生成され、それから、異なる第2のデバイス上で利用される。ある場合には、メタデータは、第1のデバイスから送信され、ビデオデータの送信とは別個のデータとして伝送される。他の場合には、メタデータとビデオデータは、メタデータ内のタイムスタンプ情報と共に、ビデオデータ内のタイムスタンプデータを用いて、第2のデバイス上で、同期される。ある他の場合には、第1のデバイスから送信されるメタデータは、第2のデバイスに送信されるビデオデータへ埋め込まれる。
装置は、入力デバイス、出力グラフィックデバイス、メモリデバイス、及び、1以上のプロセッサを含んで提供している。入力デバイスは、1以上のプロセッサと通信するように提供される。出力グラフィックデバイスは、1以上のプロセッサと通信するように提供される。メモリデバイスは、1以上のプロセッサと通信するように提供される。メモリは、内部に格納されたプログラムを有し、プログラムは、1以上のプロセッサによって実装され、コンピュータに、1)ユーザがリアルシーンのビデオを視聴できるようにし、2)デジタル空間(生成されたビデオ)内で、カメラのパン、チルト、及びズームを制御している感覚を視聴者に与える、パノラマビデオまたはパノラマ画像の部分集合(サブ領域)を選択することによって、テレビ及びコンピュータモニタ及び携帯デバイスの標準のアスペクト比にフィットする標準的なビデオまたは画像をユーザが生成できるようにし、3)入力デバイスを介して、1以上のプロセッサを用いて、メタデータとして、生成されたビデオを生成するのに用いられるユーザの入力を同時に記録し、及び、4)異なるユーザが、生成されたビデオ(「再生成されたビデオ」)を自動的に視聴できるようにする、ように設計される。再生成されたビデオは、ビデオの特定のタイムスタンプにおいて、仮想カメラを制御するために、パン、チルト、及びズーム制御のうちの少なくとも1つを含む、メタデータセットを介して、オリジナルビデオから生成される。メタデータセットは、また、開始時間、終了時間、継続時間、及び、トランスポートイベント(ポーズ、再生、順再生、逆再生)の再生速度、及び、カメラ制御イベント(パン、チルト、及びズーム変更)のうちの少なくとも1つを含むビデオトランスポート制御データのみからなる。

Claims (21)

  1. ビデオ生成物共有装置であって、
    プロセッサ、メモリ、及び入力デバイスを有する第1のコンピュータを含み、前記メモリは、内部に格納されたプログラムを有し、前記プログラムは、前記プロセッサを介して実装され、前記プロセッサに、
    1)少なくとも1つのビデオストリームにアクセスさせ、
    2)パン、チルト、ズーム及び時間的視聴方向及び/又は速度の変更の少なくとも1つを含む少なくとも1つのビデオストリーム内のナビゲーションによって生成される個人化されたビデオをレンダリングするために、前記第1のコンピュータの前記入力デバイスを用いて、前記少なくとも1つのビデオストリームの視聴眺望を操作させ、
    )少なくとも1つのクライアントにビデオデータ及びビデオトランスポート制御データを含むユーザ入力のデータファイルを転送させ、前記ビデオデータは、前記ビデオデータ及び前記ビデオトランスポート制御データを含むユーザ入力の前記転送されたデータファイルと、前記少なくとも1つのビデオストリームとを用いて前記少なくとも1つのクライアントにおいて前記個人化されたビデオを生成するため、前記個人化されたビデオ及び前記ビデオストリームを特徴付ける前記ビデオトランスポート制御データをレンダリングするため前記少なくとも1つのビデオストリーム内をナビゲートするのに用いられる前記入力デバイスからのものである、ように設計されている、
    ことを特徴とするビデオ生成物共有装置。
  2. 前記第1のコンピュータと通信し、プロセッサ、メモリ、及び出力デバイスを有する第2のコンピュータを更に含み、前記メモリは、内部に格納されたプログラムを有し、前記プログラムは、前記プロセッサを介して実装され、前記プロセッサに、
    1)前記データファイルと、前記少なくとも1つのビデオストリームからレンダリングされたビデオとを受信させ、
    2)前記データファイルを用いて、前記少なくとも1つのビデオストリームの前記レンダリングを操作することによって、前記個人化されたビデオを、前記第2のコンピュータにおいて視聴するために生成させ、及び、
    3)前記第2のコンピュータの前記出力デバイス上で、前記個人化されたビデオを視聴させる、ように設計される、
    ことを特徴とする請求項1に記載の装置。
  3. 前記第1のコンピュータの前記プロセッサを介して実装される前記プログラムは、前記プロセッサに、
    4)前記第1のコンピュータから前記第2のコンピュータに前記データファイルを伝送させる、ように更に設計されている、ことを特徴とする請求項2に記載の装置。
  4. 前記第1のコンピュータの前記プロセッサを介して実装される前記プログラムは、前記プロセッサに、
    4)前記第2のコンピュータにおいて、前記データファイルと、前記少なくとも1つのビデオストリームとを受信させる、ように更に設計されている、
    ことを特徴とする請求項2に記載の装置。
  5. クライアントアプリケーションが、前記プログラムを提供する、
    ことを特徴とする請求項4に記載の装置。
  6. 前記プログラムは、前記プロセッサを介して実装され、前記プロセッサに、前記ビデオストリームのそれぞれによる、独自の視聴眺望から捕捉されたイベントの複数の同時ビデオストリームにアクセスさせる、ように設計されている、
    ことを特徴とする請求項1に記載の装置。
  7. 独自の視聴眺望をそれぞれ有する場所の周りの環境内に拡散される複数のビデオカメラを更に含む、
    ことを特徴とする請求項1に記載の装置。
  8. 前記少なくとも1つのビデオストリームからのビデオデータを格納するように構成されたメモリを有するサーバを更に含む、
    ことを特徴とする請求項1に記載の装置。
  9. メタデータの形式で、前記データファイルを格納するように構成されたインターネットクラウドベースのデータストアを更に含む、
    ことを特徴とする請求項1に記載の装置。
  10. ビデオ生成物を共有する方法であって、
    少なくとも1つのビデオストリーム、入力デバイスを有する少なくとも1つのコンピュータ及び少なくとも1つのクライアントを用意することと、
    前記少なくとも1つのコンピュータにおいて、少なくとも1つのビデオストリームにアクセスすることと、
    個人化されたビデオを生成するために、前記少なくとも1つのコンピュータの入力デバイスによって、パン、チルト、ズーム及び時間的視聴方向及び/又は速度の変更の少なくとも1つを含む入力制御により前記少なくとも1つのビデオストリームの視聴眺望を操作することと、
    前記少なくとも1つのビデオストリームの前記個人化されたビデオを記述するビデオトランスポート制御データ及び独自の個人化されたクリップを生成する前記眺望の個人の制御を可能にする前記入力デバイスに対する入力制御を含む前記入力デバイスからのビデオデータを含むデータファイルの形式で、前記個人化されたビデオをレンダリングするために、前記少なくとも1つのビデオストリーム内をナビゲートするために用いる前記入力デバイスからのユーザ入力を取得することと、
    ビデオデータ及びビデオトランスポート制御データを含むユーザ入力の前記データファイルと前記ビデオストリームとを前記クライアントにおいて受信することと、
    前記データファイルと前記ビデオストリームとを用いて前記少なくとも1つのクライアントにおいて前記個人化されたビデオを作成することと、
    を含む、
    ことを特徴とするビデオ生成物を共有する方法。
  11. 前記少なくとも1つのコンピュータから第1のクライアント及び第2のクライアントにおいて前記ビデオデータ及び前記ビデオトランスポート制御データを受信することと、
    前記個人化されたビデオの一対多のブロードキャストとして前記第1のクライアント及び第2のクライアントにおいて前記個人化されたビデオの作成を可能にするための前記ビデオストリームを前記第1のクライアント及び前記第2のクライアントにおいて受信することと、
    を更に含む、
    ことを特徴とする請求項10に記載の方法。
  12. 前記第2のクライアントにおいて、前記データファイルと前記少なくとも1つのビデオストリームとを受信することを更に含む、
    ことを特徴とする請求項11に記載の方法。
  13. 前記データファイルを用いて、前記少なくとも1つのビデオストリームを操作することによって、前記第2のクライアントにおいて視聴するために、前記個人化されたビデオを生成することを更に含む、
    ことを特徴とする請求項12に記載の方法。
  14. 前記少なくとも1つのコンピュータの出力デバイス上で、前記個人化されたビデオを視聴することを更に含む、
    ことを特徴とする請求項13に記載の方法。
  15. アクセスすることは、前記少なくとも1つのコンピュータにおいて、前記ビデオストリームを受信することを含む、
    ことを特徴とする請求項10に記載の方法。
  16. 前記少なくとも1つのコンピュータにおいて、前記少なくとも1つのビデオストリームを格納することを更に含む、
    ことを特徴とする請求項10に記載の方法。
  17. 前記少なくとも1つの視聴ストリームは、複数のビデオストリームを含み、視聴眺望を操作することは、前記複数のビデオストリームを含む、ある時間に渡る視聴眺望を生成することを含み、各視聴眺望は、前記複数のビデオストリームのそれぞれの画像空間内の画像部分空間を捕捉するために、各ビデオストリームを操作するための、ユーザ入力を含む、
    ことを特徴とする請求項10に記載の方法。
  18. 各画像部分空間は、ある所与の時点における、それぞれのビデオストリームの全画像空間を含む、
    ことを特徴とする請求項17に記載の方法。
  19. 各画像部分空間は、第1のクライアントと第2のクライアントのユーザに、デジタル空間で、カメラのパン、チルト、及びズームを制御している感覚を与える、
    ことを特徴とする請求項17に記載の方法。
  20. 前記個人化されたビデオを生成するために、前記少なくとも1つのコンピュータの入力デバイスを用いて、前記少なくとも1つのビデオストリームの視聴眺望を操作することは、前記ビデオストリームの特定のタイムスタンプにおける、前記ビデオストリームの全画像空間内のユーザの視聴眺望を制御するための、パン、チルト、及びズーム制御のうちの少なくとも1つを含むメタデータセットを生成することを含む、
    ことを特徴とする請求項10に記載の方法。
  21. 前記メタデータセットは、開始時間と、終了時間と、継続時間と、ポーズ、再生、順再生、逆再生のうちの少なくとも1つを含むトランスポートイベントの再生速度と、パン、チルト、及びズーム変更のうちの少なくとも1つを含むカメラ制御イベントと、のうちの少なくとも1つを含む、ビデオトランスポート制御データを更に含む、
    ことを特徴とする請求項20に記載の方法。
JP2016542835A 2013-09-13 2014-09-12 映像生成物共有装置及び方法 Expired - Fee Related JP6434034B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201361877879P 2013-09-13 2013-09-13
US61/877,879 2013-09-13
PCT/US2014/055518 WO2015038976A1 (en) 2013-09-13 2014-09-12 Video production sharing apparatus and method

Publications (2)

Publication Number Publication Date
JP2016534674A JP2016534674A (ja) 2016-11-04
JP6434034B2 true JP6434034B2 (ja) 2018-12-05

Family

ID=52666354

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016542835A Expired - Fee Related JP6434034B2 (ja) 2013-09-13 2014-09-12 映像生成物共有装置及び方法

Country Status (8)

Country Link
US (3) US10009596B2 (ja)
EP (1) EP3044965A4 (ja)
JP (1) JP6434034B2 (ja)
KR (1) KR101826704B1 (ja)
CN (1) CN106576191B (ja)
CA (1) CA2924504A1 (ja)
IL (1) IL244574B (ja)
WO (1) WO2015038976A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101826704B1 (ko) 2013-09-13 2018-02-08 인텔 코포레이션 비디오 프로덕션 공유 장치 및 방법
FR3012279B1 (fr) * 2013-10-23 2017-02-17 Vogo Procede de diffusion multipoints
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
EP3059949A1 (en) * 2015-02-23 2016-08-24 Thomson Licensing Method and apparatus for generating lens-related metadata
JP6726931B2 (ja) * 2015-03-20 2020-07-22 キヤノン株式会社 画像処理装置およびその方法、並びに、画像処理システム
EP3345184A1 (en) * 2015-09-02 2018-07-11 THOMSON Licensing Method, apparatus and system for facilitating navigation in an extended scene
JP6124985B1 (ja) * 2015-12-24 2017-05-10 株式会社コロプラ 映像コンテンツ配信システム及びコンテンツ管理サーバ
JP6040328B1 (ja) * 2016-02-10 2016-12-07 株式会社コロプラ 映像コンテンツ配信システム及びコンテンツ管理サーバ
US10348907B1 (en) * 2016-05-12 2019-07-09 Antony P. Ng Collaborative data processing
KR102567002B1 (ko) * 2016-08-16 2023-08-14 삼성전자주식회사 영상 표시 장치 및 그 동작방법
WO2018068213A1 (zh) * 2016-10-10 2018-04-19 华为技术有限公司 一种视频数据的处理方法及装置
JP6853013B2 (ja) * 2016-10-26 2021-03-31 グリー株式会社 情報処理システム、情報処理方法、および情報処理プログラム
CN108271068B (zh) * 2016-12-30 2020-04-03 华为技术有限公司 一种基于流媒体技术的视频数据的处理方法及装置
US20190289204A1 (en) * 2018-01-03 2019-09-19 Gopro, Inc. Systems and methods for tagging highlights within spherical videos
US10587855B1 (en) * 2018-12-20 2020-03-10 Gopro, Inc. Systems and methods for providing punchouts of videos

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0946688A (ja) * 1995-07-26 1997-02-14 Fujitsu Ltd ビデオ情報提供/受信システム
JP2004104556A (ja) * 2002-09-11 2004-04-02 Nippon Telegr & Teleph Corp <Ntt> 映像再生方法,映像再生装置,映像再生プログラムおよび映像再生プログラムの記録媒体
US8307273B2 (en) * 2002-12-30 2012-11-06 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive network sharing of digital video content
US7683937B1 (en) * 2003-12-31 2010-03-23 Aol Inc. Presentation of a multimedia experience
US7292257B2 (en) 2004-06-28 2007-11-06 Microsoft Corporation Interactive viewpoint video system and process
JP2006345071A (ja) * 2005-06-07 2006-12-21 Canon Inc 動画再生装置、動画再生方法、記録媒体及びコンピュータプログラム
US20070079321A1 (en) * 2005-09-30 2007-04-05 Yahoo! Inc. Picture tagging
WO2008118183A1 (en) * 2007-03-28 2008-10-02 Motionbox, Inc. System and method for autogeneration of long term media data from networked time-based media
US20110107369A1 (en) * 2006-03-28 2011-05-05 O'brien Christopher J System and method for enabling social browsing of networked time-based media
WO2007127905A2 (en) * 2006-04-27 2007-11-08 Fujifilm Graphic Systems U.S.A., Inc System and method for remote monitoring of print systems
CN100587793C (zh) * 2006-05-22 2010-02-03 美国博通公司 视频处理方法、电路和系统
US7893999B2 (en) * 2006-05-22 2011-02-22 Broadcom Corporation Simultaneous video and sub-frame metadata capture system
US7853669B2 (en) * 2007-05-04 2010-12-14 Microsoft Corporation Mesh-managing data across a distributed set of devices
JP5288827B2 (ja) * 2008-02-22 2013-09-11 キヤノン株式会社 表示処理装置及びその制御方法並びに表示処理システム、プログラム
JP4669890B2 (ja) 2008-10-06 2011-04-13 三菱樹脂株式会社 熱成形体の製造方法
JP4623201B2 (ja) * 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US20100149338A1 (en) 2008-12-16 2010-06-17 Mamigo Inc Method and apparatus for multi-user user-specific scene visualization
US8340654B2 (en) * 2009-05-26 2012-12-25 Lextech Labs Llc Apparatus and method for video display and control for portable device
WO2011014772A1 (en) * 2009-07-31 2011-02-03 Citizenglobal Inc. Systems and methods for content aggregation, editing and delivery
MTP4301B (en) 2010-03-25 2011-10-26 Securency Int Pty Ltd High refractive index coatings and their use in the protection of surface relief structures
WO2012039404A1 (ja) * 2010-09-24 2012-03-29 株式会社Gnzo 映像ビットストリームの伝送システム
US8763068B2 (en) * 2010-12-09 2014-06-24 Microsoft Corporation Generation and provision of media metadata
US8836771B2 (en) * 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays
US20150222815A1 (en) * 2011-12-23 2015-08-06 Nokia Corporation Aligning videos representing different viewpoints
CN104641399B (zh) * 2012-02-23 2018-11-23 查尔斯·D·休斯顿 用于创建环境并用于共享环境中基于位置的体验的系统和方法
US20130300821A1 (en) * 2012-05-10 2013-11-14 Qualcomm Incorporated Selectively combining a plurality of video feeds for a group communication session
KR101389841B1 (ko) * 2012-05-16 2014-04-29 주식회사바텍 파노라마 영상 데이터 제공 방법 및 장치
US9204041B1 (en) * 2012-07-03 2015-12-01 Gopro, Inc. Rolling shutter synchronization
CN102915669A (zh) * 2012-10-17 2013-02-06 中兴通讯股份有限公司 一种实景地图的制作方法和装置
US9210477B2 (en) * 2012-11-29 2015-12-08 Fanvision Entertainment Llc Mobile device with location-based content
US9210470B2 (en) * 2013-03-08 2015-12-08 Verizon Patent And Licensing Inc. User censoring of content delivery service streaming media
US9635252B2 (en) * 2013-04-16 2017-04-25 Disney Enterprises, Inc. Live panoramic image capture and distribution
KR101826704B1 (ko) 2013-09-13 2018-02-08 인텔 코포레이션 비디오 프로덕션 공유 장치 및 방법

Also Published As

Publication number Publication date
EP3044965A1 (en) 2016-07-20
US20210099690A1 (en) 2021-04-01
KR101826704B1 (ko) 2018-02-08
EP3044965A4 (en) 2017-03-01
IL244574B (en) 2021-04-29
JP2016534674A (ja) 2016-11-04
US20190037206A1 (en) 2019-01-31
WO2015038976A1 (en) 2015-03-19
CA2924504A1 (en) 2015-03-19
CN106576191B (zh) 2020-07-14
KR20160100907A (ko) 2016-08-24
CN106576191A (zh) 2017-04-19
IL244574A0 (en) 2016-04-21
US10009596B2 (en) 2018-06-26
US20150082364A1 (en) 2015-03-19
US10812781B2 (en) 2020-10-20

Similar Documents

Publication Publication Date Title
JP6434034B2 (ja) 映像生成物共有装置及び方法
JP6944564B2 (ja) 注視追跡のための装置及び方法
US9530452B2 (en) Video preview creation with link
US8737820B2 (en) Systems and methods for recording content within digital video
US10334300B2 (en) Systems and methods to present content
US9524278B2 (en) Systems and methods to present content
TWI540890B (zh) 用以處理動作視訊之方法及裝置
US11630862B2 (en) Multimedia focalization
US10516911B1 (en) Crowd-sourced media generation
US20160353168A1 (en) Methods, apparatuses, and/or systems for distributing video compilations of user-captured videos
KR20170137634A (ko) 통신장치, 통신 제어방법 및 통신 시스템
US10375456B2 (en) Providing highlights of an event recording
Mate et al. Automatic video remixing systems
EP3970381A1 (en) Methods and systems for providing a user with an image content
US8707152B2 (en) Presenting images from slow image-event stream
US10911839B2 (en) Providing smart tags
AU2018424260B2 (en) Importing media libraries using graphical interface analysis
US20130181997A1 (en) Presenting images from fast image-event stream
KR101827967B1 (ko) 비디오 컨텐츠 제공서버 및 제공방법
KR20220132392A (ko) 다중 채널 네트워크의 컨텐츠 관리 방법, 장치 및 시스템
CN117640970A (zh) 一种直播视频播放方法、客户端及介质
Palaiokrassas et al. Video annotation with aggregate social network data
EP3228117A1 (en) Systems and methods to present content

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170627

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170926

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20171122

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20171127

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171127

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180515

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180815

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181009

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181107

R150 Certificate of patent or registration of utility model

Ref document number: 6434034

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees