JP2012518948A - ビデオシェアリング - Google Patents
ビデオシェアリング Download PDFInfo
- Publication number
- JP2012518948A JP2012518948A JP2011551109A JP2011551109A JP2012518948A JP 2012518948 A JP2012518948 A JP 2012518948A JP 2011551109 A JP2011551109 A JP 2011551109A JP 2011551109 A JP2011551109 A JP 2011551109A JP 2012518948 A JP2012518948 A JP 2012518948A
- Authority
- JP
- Japan
- Prior art keywords
- video
- stream
- video stream
- capture device
- video capture
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/272—Means for inserting a foreground image in a background image, i.e. inlay, outlay
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23412—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/23418—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/234—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
- H04N21/2343—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
- H04N21/234318—Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/23—Processing of content or additional data; Elementary server operations; Server middleware
- H04N21/235—Processing of additional data, e.g. scrambling of additional data or processing content descriptors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/25—Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
- H04N21/258—Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
- H04N21/25808—Management of client data
- H04N21/25841—Management of client data involving the geographical location of the client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/27—Server based end-user applications
- H04N21/274—Storing end-user multimedia data in response to end-user request, e.g. network recorder
- H04N21/2743—Video hosting of uploaded data from client
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/422—Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
- H04N21/4223—Cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/16—Analogue secrecy systems; Analogue subscription systems
- H04N7/173—Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
- H04N7/17309—Transmission or handling of upstream communications
- H04N7/17318—Direct or substantially direct transmission and handling of requests
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Databases & Information Systems (AREA)
- Computer Graphics (AREA)
- General Engineering & Computer Science (AREA)
- Information Transfer Between Computers (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
ビデオシェアリング(共有)が説明されている。一実施形態では、携帯電話のようなモバイルビデオキャプチャデバイスは同一イベントのビデオストリームをキャプチャする。ビデオシェアリングシステムはビデオストリームに関するコンテキスト情報を取得し、その情報を使用してそのストリームからビデオ出力を形成する。その出力は他のエンティティによるシェアリング(共有)のためである。例えば、形成されたビデオは、入力ビデオストリームの個々のストリームに比べて、強化された視聴経験を提供する。いくつかの実施形態では、コンテキスト情報はビデオストリームのコンテンツ分析から得られることも、記憶されたコンテキスト情報から得られることも、デバイス特性のような制御情報から得られることもある。一部の実施形態では、ライブイベントのビデオストリームが受信され、その出力ビデオがリアルタイムで形成される。いくつかの例では、フィードバックがビデオキャプチャデバイスに提供されて、ズーム、ビューイングポジションまたは他の特性が調整されること示唆するか、またはそれを自動的に達成する。
Description
本発明は、ビデオシェアリングに関する。
携帯電話(mobile telephone)を使用してキャプチャしたビデオをエンドユーザがWebサイトにアップロードするのを可能にするビデオシェアリング(共有)Webサービスが知られている。ビデオはそのあと、そのWebサイトにアクセスする他人によって表示されることがある。エンドユーザは、自分のビデオをそのWebサイトに訪ねるすべての人に公共的に利用可能にするかどうかを指定することも、そのビデオを指定した個人グループだけにシェアリング(共有)させるかどうかを指定することもできる。
このようなビデオシェアリングWebサービスは、異なる国に住んでいるファミリメンバ(家族)の間でファミリイベントのビデオをシェアリング(共有)するといったように多くの目的に使用されている。その他の例としては、教育講義やエンターテインメントパフォーマンスのビデオをシェアリングすることがある。代表例として、ビデオは携帯電話でキャプチャされ、その後にWebサイトにアップロードされている。そのあと、他の人はWebサービスからビデオをダウンロードすることができる。
典型的には、携帯電話によって記録されたビデオは、様々な理由で解像度が低く、品質が劣っている。例えば、典型的にはエンドユーザはビデオキャプチャのエキスパートではないので、携帯電話は、ビデオキャプチャ期間に不本意に揺れることがある。また、記録されるシーンに対するビデオキャプチャデバイスの位置および照明条件や他の環境条件が誤って選択されることもある。さらに、モバイルキャプチャデバイスとWebサイト間の通信リンクがアップロード期間に不良であることがあり、このことはビデオの品質をさらに低下させるおそれがある。
さらに、複数のユーザが同一イベントのビデオをキャプチャした場合、Webサイトにおけるその結果のビデオを選択することは困難である。この場合、個人がこれらのビデオの各々を見てから、どのビデオが最良の結果を提供するかを判断することには時間がかかり、複雑なプロセスである。個人がこれらのビデオの各々をWebサイトからダウンロードしてから自分の目的に最も合ったビデオを選択する場合には、ダウンロードリンク容量(download link capacity)が使用される。また、記憶容量がWebサービスで占有され、すべてのビデオをWebサービスにアップロードするためのバンド幅が使用される。
本明細書に記載されている実施形態は、公知のビデオシェアリングシステムの欠点のいずれかまたはすべてを解決する実現形態に限定されない。
Richard Szeliski, "Image Alignment and Stitching: A tutorial"(2006 Foundations and Trends in Computer Graphics and Version Vol. 2, No. 1(2006) 1-104に発表。)
Y Deng, "Unsupported Segmentation of Color-Texture Regions in Images and Video"(BS Manjunath - IEEE Transactions on Pattern Analysis and Machine, 2001)
Bouthemy他, "Video hyper-links creation for content-based browsing and navigation"(1999 Proc. Workshop on Content-Based Multimedia Indexing, CBM1‘99)
以下は、本発明の基本的理解が得られるように開示事項を簡単に要約したものである。この要約は開示事項の広範な概要ではなく、本発明のキーとなる要素または重要な要素を特定するものでもなく、本発明の範囲を限定するものでもない。この要約の唯一の目的は、本明細書に開示したいくつかの概念を、以下に記載されたより詳細の説明の序論として提示することである。
ビデオシェアリング(共有)が説明されている。一実施形態では、携帯電話のようなモバイルビデオキャプチャデバイスは同一イベントのビデオストリームをキャプチャする。ビデオシェアリングシステムはビデオストリームに関するコンテキスト情報を取得し、その情報を使用してそのストリームからビデオ出力を形成する。その出力は他のエンティティによるシェアリング(共有)のためである。例えば、形成されたビデオは、入力ビデオストリームの個々のストリームに比べて、強化された視聴経験(viewing experience)を提供する。いくつかの実施形態では、コンテキスト情報はビデオストリームのコンテンツ分析から得られることも、記憶されたコンテキスト情報から得られることも、デバイス特性のような制御情報から得られることもある。一部の実施形態では、ライブイベントのビデオストリームが受信され、その出力ビデオはリアルタイムで形成される。いくつかの例では、フィードバックがビデオキャプチャデバイスに提供されて、ズーム、ビューイングポジションまたは他の特性が調整されていることを示唆し、またはそのことを自動的に達成する。
付随する特徴の多くは、添付図面と共に以下の詳細な説明を参照すると、より容易に理解されるだろう。
本明細書の記載は、添付図面を参照して以下の詳細な説明を読むことにより理解が容易になるだろう。
添付図面における類似部分は類似参照符号を用いて示されている。
添付図面に関連して以下に示した詳細な説明は本発明を説明することを目的としており、本発明が構築または利用されることがある唯一の態様を表すことを目的としてはいない。以下の説明は、本発明の機能と本発明を構築し、操作するステップのシーケンスを記述している。しかし、同一または同等の機能およびシーケンスが異なる例によって実行されることもある。
図1は、通信ネットワーク100において使用されるビデオシェアリングシステム(video sharing system)101を示す概略図である。通信ネットワークは、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、ワイヤレス通信ネットワーク、またはエンティティ間でストリーミングビデオを通信するのに適した任意のネットワークなどの、任意の適切なタイプのものである。ストリーミングユーザ102は、モバイルであることも、または、モバイルでないこともあるビデオキャプチャデバイス(video capture device)を含む。例えば、これらのビデオキャプチャデバイスは、携帯電話、PDA、ラップトップコンピュータ、若しくは、ポータブルまたは固定式であって、ストリーミングビデオをキャプチャし、そのビデオを直接または他のエンティティを経由して通信ネットワーク100に送信する能力を持つ任意の適切なタイプのビデオキャプチャデバイスであってもよい。図示の例では、ビデオキャプチャデバイス102はすべてが、例えば、結婚式のような同一シーン103のビデオをキャプチャする携帯電話として示されている。もっと多くのモバイルキャプチャデバイスが存在していることもあり、それらのデバイスは他のシーンやイベントのビデオをキャプチャしていることがある。
ビデオシェアリングシステムは、明確化のために図1にシングル通信ネットワークノード101として図示した、インフラストラクチャを含む。しかし、その機能は通信ネットワーク100内の複数のエンティティにわたって分散されることがあるので、シングルネットワークノード101を使用することは必須ではない。通信ネットワークノードは、ストリーミングビデオと制御情報をビデオキャプチャデバイス102から受信し、通信ネットワーク内の他のエンティティ104、105、106がそのストリーム化ビデオを強化された方法(enhanced manner)でシェアリング(共有)するのを可能にする機能を備えている。コンテキスト情報(contextual information)は、受信したビデオストリークに可能な限りの様々な方法で価値を追加するためにビデオシェアリングシステムによって使用される。一実施形態では、結婚式103に物理的に出席していない他のファミリメンバ(家族)は、ビデオシェアリングシステム101によって提供されたビデオを、ビデオシェアリングシステムと通信しながら大型ディスプレイスクリーン106で見ることができる。他のタイプのエンティティがビデオをシェアリング(共有)することもあり、そのようなエンティティとしては、パーソナルコンピュータ104、携帯電話105、またはビデオシェアリングシステム101からビデオを受信し、表示する能力をもつ他のエンティティがある。
図2は、ビデオシェアリングシステム(図1に示す101のような)での方法を示すフロー図である。複数のビデオストリームがビデオキャプチャデバイスから受信(200)され、ビデオシェアリングシステムは、同一イベントであるビデオストリームを特定(201)する。この特定は、任意の適切な方法で達成される。例えば、各ビデオキャプチャデバイスとビデオシェアリングシステム101間の通信は、1つがビデオストリームコンテンツの通信用であり、1つが制御情報の通信用であるペアの通信チャネルを使用して達成されることがある。一部の実施形態では、制御情報チャネルは、イベントのID(identifier)をビデオシェアリングシステムに送信するために使用され、このIDは同一イベントのビデオストリームを選択するために使用される。例えば、特定のイベントのコードまたはチャネルIDをユーザが指定するのを可能にするWebサービスがビデオシェアリングシステム101によって提供される。特定のイベントのビデオストリームをキャプチャするすべてのストリーミングユーザはそのWebサービスにアクセスできるので、適切なチャネルIDを選択することができる。このようにすると、ビデオシェアリングシステムは大量のビデオストリームを受信し、同一イベントのレコードであるストリームを高速にかつ簡単に特定することができる。他の実施形態では、同一イベントのレコードであるストリームを特定するためにビデオストリーム自体のコンテンツが分析される。また、場合によっては、チャネルID情報はビデオコンテンツと一緒に送信されることもある。
一部の実施形態において、ビデオキャプチャデバイスがオーディオキャプチャ能力も備えている場合には、オーディオストリームがビデオストリームと一緒に送信される。しかし、このことは必須ではない。
ビデオシェアリングシステム101は同一イベントの各ビデオストリームに関するコンテキスト情報を取得(202)する。例えば、このコンテキスト情報はビデオキャプチャデバイスとビデオシェアリングシステムの間の制御チャネルから受信(204)した情報を含んでいることもある。代替的にまたは同じく、コンテキスト情報はビデオストリームコンテンツの分析(203)から(および/またはいずれかの関連オーディオストリームコンテンツから)取得されることもある。コンテキスト情報は、過去のビデオストリームの振る舞いのヒストリカルレコードから取得されることも、および/またはビデオシェアリングリングシステムにアクセス可能であるビデオキャプチャデバイスレコードから取得されることもあり得る。
コンテキスト情報の例を非網羅的(non-exhaustive) に列挙すると、ビデオ品質、ビデオの安定性(steadiness)/揺れ(shakiness)、オーディオ品質、GPS情報のように制御チャネル経由で取得される物理的ロケーション情報、セルラネットワーク(cellular network)ロケーション情報、ビューイングアングル推定(viewing angle estimate)、オブジェクト認識結果、ビデオストリームオーバラップ推定、通信リンク条件、使用可能バンド幅、パケット損失、遅延、ジッタのほかに、そのデバイスで実行可能な処理量を示すことができるビデオキャプチャデバイスバッテリの現在の状態、最大可能解像度などのビデオキャプチャデバイスの能力、照明の最小ルックス、ズーミング能力(光学およびデジタル)がある。
コンテキスト情報を、ルール、しきい値または他の基準と一緒に使用して、ビデオシェアリングシステムは、オプションとして、フィードバックをビデオキャプチャデバイスに送信(205)するように構成される。このフィードバックは、デバイス上のグラフィカルユーザインタフェース(または他のインタフェース)からビデオキャプチャデバイスのユーザに提示されるユーザフィードバックであることがある。例えば、フィードバックは、ユーザがビデオキャプチャデバイスの位置を特定の方法で移動すると、キャプチャされるシーンのビュー(view)が向上することを示唆することがある。別の例では、フィードバックは、ユーザがビデオキャプチャデバイスのズームを変更すること、またはビデオキャプチャデバイスの解像度または他の能力を変えることを示唆することがある。別の例では、フィードバックはユーザがカメラを安定化すること、またはカメラの動きを変更することを示唆することがある。そのほかの例では、フィードバックは、同一イベントをキャプチャする他のビデオキャプチャデバイスのロケーションと能力を指示し、現在のビデオキャプチャデバイスにキャプチャを続けさせるか否かについて提案を行なうことがある。フィードバックは単にビデオキャプチャデバイスによって受信され、ユーザの入力なしでそのデバイスによって自動的に作用(act)されることがあるので、フィードバックがエンドユーザに見えない(transparent)こともあり得る。例えば、フィードバックは、そのユーザと別のユーザの間の共通ビューのような冗長情報をビデオキャプチャデバイスが送信しないことを指示することがある。このようにすると、ビデオ処理能力が軽減され、バンド幅が節減される。
ビデオシェアリングシステムは、通信ネットワーク内の他のエンティティによるシェアリング(共有)のためのビデオ出力を形成(206)するようにも構成される。ビデオ出力を形成するプロセスは、価値が追加され、シェアリング(共有)されるビデオが、受信したビデオストリームの個々のストリームだけを表示するのに比べて、強化された視聴経験を提供するようにコンテキスト情報を考慮する。このビデオ出力は、例えば、ビューポイント(view point)が変更されるのを可能にし、視野(field of view)を大きくするためにビデオストリームを1つにまとめ(スティッチ)、関係ドキュメントまたはマテリアルにリンクを追加し、品質を向上し、セキュリティを向上するために、または他のビデオシェアリング強化の理由で、同一イベントの受信したビデオストリームから形成される。ビデオ出力はオフラインで形成され、ビデオシェアリングシステムにアクセス可能である通信ネットワーク内のロケーションに記憶されることがある。ビデオ出力は、シェアされたビデオを要求するエンティティのリクエストに応じてダイナミックに形成されることもあり得る。一部の実施形態では、ビデオストリームは、他のエンティティによってライブプロセスでシェアされるライブイベントである。この場合、ビデオシェアリングシステムでのプロセスはリアルタイムに実行される。
図3は、例示的なビデオシェアリング方法を示すフロー図である。破線316の上方のフロー図の部分はビデオキャプチャデバイスで実行されるプロセスを表す。破線316の下方と破線317の上方のフロー図の部分はビデオシェアリングシステム(図1の101のような)で実行されるプロセスを表す。破線317の下方のフロー図の部分はシェアされるビデオを受信するエンティティで実行されるプロセスを表す。
ビデオキャプチャデバイスでのカメラドライバ301は、キャプチャプロセス302を実行してビデオストリームをキャプチャする。ビデオストリームは、この分野で知られた任意の適切なタイプのビデオエンコーダ303を使用して符号化される。ビデオデバイスがオーディオキャプチャ能力も備えている実施形態では、マイクロホンドライバ306が用意されている。これは、この分野で公知のように符号化(308)されたオーディオストリームをキャプチャ(307)する。ビデオストリームとオーディオストリームは多重化(304)され、リアルタイムプロトコル(RTP)通信リンク経由でRTPトランスミッタ305を使用してビデオシェアリングシステム(図1の101)に送信される。RTPは、RFC3550および他のRFCにおいてInternet Engineering Task Forceによって定義されている。しかし、RTP通信リンクを使用することは必須ではない。適当であればどのような通信プロトコルも、コンテンツをビデオキャプチャデバイスからビデオシェアリングシステムに送信するために使用されることがある。制御情報を通信するためにビデオキャプチャデバイスとビデオシェアリングシステムの間の別の通信セッションが確立されることがあり得る。例えば、この別の通信セッションはSIP(session initiation protocol)を使用して確立されこともあれば、他の適切なプロトコルを使用して確立されることもある。図3に図示の例では、RTCP(real-time transport protocol)はRTCPトランスミッタ311およびRTCPレシーバ309と一緒に使用されている。
ビデオシェアリングシステムでは、RTPセッションで受信されたコンテンツが多重分離(demultiplex)され、ビデオコンテンツがビデオデコーダ312を使用してデコードされる。オーディオコンテンツもオーディオデコーダを使用してデコードされることがある。ビデオコンテンツおよびオプションとしてオーディオコンテンツは、以下に詳しく説明されているコンテンツ分析エンジン(content analysis engine)313を使用して処理される。このコンテンツ分析エンジン313は出力ビデオストリームを形成する機能も備えており、ストリーミングマネージャ(streaming manager)314は、ビデオをシェアすることを要求するエンティティにプロビジョニングするのに適したフォーマットにストリームを変換する。ビデオストリーム出力は、任意の適切な通信プロトコルを使用して宛先エンティティに送信される。そのようなプロトコルとしては、MMS(Microsoft(登録商標)メディアサーバ)、Windows(登録商標)メディアHTTP(hyper text transfer)ストリーミングプロトコルまたはRTSP(real time streaming protocol)およびRTPがある。宛先エンティティでは、メディアプレイヤ315のような、任意の適切なディスプレイエンジンを使用してビデオが表示される。
図4は、図1の通信ネットワークノード101に設けることができるビデオシェアリング装置400を示す概略図である。この装置400は、キャスティングディレクタ(casting director)401、ビデオキャスティングエンジン(video casting engine)403、コンテンツ分析エンジン(content analysis engine)402、およびコンテンツプロビジョニングエンジン(content provisioning engine)404を備える。これらのエンジンは一体になっていて、シングル通信ネットワークノードを使用して提供されることも、通信ネットワーク内の複数のサーバまたは他のプロセッサにわたって分散されていることもある。
ビデオシェアリング装置400は、各ビデオキャプチャデバイス408に装備されたビデオストリームエンジン405からの入力を受信する共に、同じく各ビデオキャプチャデバイスに装備されたモデレータ(moderator)406から入力を受信する。この入力は通信ネットワーク407上を送信される。また、図4は、装置400によってシェアされるビデオを受信する例示的なビデオシェアリングデバイスも示す。これらには、テレビジョン409、適当なWebブラウザおよび機器を使用して表示されるWebページ410、および携帯電話411が含まれる。
上述したように、各ビデオキャプチャデバイス408はビデオストリーミングエンジン405およびモデレータ406を備える。これらが一緒になって、図4に示すようなキャスティング層(casting tier)を形成する。ビデオストリーミングエンジン405は、ビデオシェアリング装置400の上流側のデバイスによってキャプチャされたビデオをストリーム化するように構成される。モデレータ406は、ビデオシェアリング装置400のキャスティングディレクタ401に制御情報を送信するように構成される。この制御情報は定期的におよび/またはオンデマンドで送信されることがあり、カメラ解像度、CPU利用状況、バンド幅の利用可能性などのように、デバイスの能力と使用状況に関する情報を含むことがある。モデレータ406はキャスティングディレクタ401から受信したコマンドを実行するように構成されることもある。
次に、ビデオシェアリング装置400の詳細について説明する。ビデオキャスティングエンジン403はビデオキャプチャデバイス408からビデオストリームを受信し、これらのビデオストリームをコンテンツ分析の準備状態に置く。ビデオキャスティングエンジンは、制御情報をキャスティングディレクタ401に転送するように構成されることもある。例えば、この制御情報は、パケット損失や遅延のように、ビデオストリームの受信の結果としてビデオキャスティングエンジンに使用可能である通信ネットワーク統計を含むことがある。
コンテンツ分析エンジン402はビデオキャプチャデバイスから受信したコンテンツを分析する構成になっており、そのコンテンツはビデオコンテンツおよび/またはオーディオコンテンツを含むことがある。この分析は、リアルタイムで実行されることもあれば、オフラインで実行されることもある。コンテンツ分析エンジン402の詳細については、図5を参照して以下に説明する。
キャスティングディレクタ401はモデレータ406から入力を受信すると共に、ビデオキャスティングエンジン403から制御情報を受信し、キャスティング分析エンジン402から情報を受信する。キャスティングディレクタ401は、事前に指定したルール、しきい値または他の基準と共に、キャスティングディレクタ401に使用可能である情報を基にロール(役割)をビデオキャプチャデバイス408に割り当てるように構成される。これはビデオキャプチャデバイス408でコマンドをモデレータに送信してロールを実現するように構成されており、ユーザフィードバックをビデオキャプチャデバイス408に送信することも可能である。
一実施形態では、キャスティングディレクタ401は、これらのビデオキャプチャデバイスの機能に関する情報(この情報はモデレータから受信されることもあれば、登録プロセスの結果としてビデオシェアリング装置400で使用可能であることもある)を基におよびターゲット視聴経験(target viewing experience)に関する情報(この情報はビデオシェアリング装置によって提供されるWebサービスでユーザ入力によって事前に指定または与えられることがある)を使用してロールをビデオキャプチャデバイス408に割り当てるように構成される。ある例では、ターゲット視聴経験はイベントのより広い視野を得るためである。別の例では、ターゲット視聴経験はイベントの最適ビューイングアングルを選択するためである。割り当てられるロールとしては、例えば、ビデオを単独でストリーム化すること、ビデオとオーディオをストリーム化すること、オーディオを単独でストリーム化すること、指定した時間までどのコンテンツもストリーム化を中止すること、などがある。
一部の実施形態では、キャスティングディレクタ401は、ビデオシェアリングシステム400が実現されているサーバに設けられる。その他の実施形態では、キャスティングディレクタは全体的にまたは部分的にビデオキャプチャデバイス408間に分散されている。以下では、キャプチャディレクタが部分的にビデオキャプチャデバイス間に分散されている実施形態の詳細について説明する。
ビデオシェアリング装置400は、ビデオキャプチャデバイス408からターゲットエンティティにキャストされるビデオフィード(video feeds)を送信することを受け持つコンテンツプロビジョニングエンジン404を備える。このプロビジョニングエンジン404は、宛先ターゲットのタイプに適したフォーマットにビデオフィードを変形するように構成される。例えば、ターゲットエンティティは、テレビジョン409、Webブラウザ410でビデオを表示するコンピュータ、または携帯電話411であることがある。
コンテンツプロビジョニングエンジン404は、ストリーミングユーザがそこにキャストすることが可能であって、ターゲットエンティティが表示できるチャネルID(またはイベントID)をエンドユーザが作成するのを可能にするWebサービスを提供するように構成されることもある。このWebサービスは、ユーザがユーザ詳細、ビデキャプチャデバイス詳細、ターゲットデバイス詳細などを登録し、記憶する能力を提供することもある。さらに、ビデオシェアリングのためのチャネルを公共(public)または私用(private)にするオプションがユーザに与えられることがあり、この場合、私用チャネルは指定したユーザグループだけがそこにキャストおよび/または表示することを可能にしている。Webサービスは、特定のチャネルに関連するターゲット視聴経験をユーザが指定することも可能にしている。例えば、これは最も広い視野を得るためでも、最適なビューイングアングルを選択するためでもある。
図5は、コンテンツ分析エンジン402を示す概略図である。このエンジンは、図4に関連して上述したようにビデオストリーム501と制御情報502を入力として受信する。このエンジンは、入力ビデオストリーム501から形成された出力ビデオ512を、制御情報502を含むコンテキスト情報およびコンテンツ分析エンジン自体によって実行されたコンテンツ分析の結果と一緒に提供する。
コンテンツ分析エンジンは、コンテンツの異なるタイプの分析を行なうための種々のコンポーネントまたはモジュールを含む。これらの例は図5にモジュール503−506として示されているが、これらは単なる例である。このようなモジュールは異なる組み合わせで使用されることも、他のタイプが使用されることもある。いずれかのペアのビデオストリーム間のオーバラップの程度または量を評価するオーバラップアセッサ(overlap assessor)503が設けられることもある。このアセッサ503からの結果は、コンテンツ分析エンジンに設けられたビデオスティッチングエンジン(video stitching engine)508によって使用されることがある。オーバラップ評価とビデオスティッチングの方法は、適当であればどのような方法でも使用されることがある。例えば、イメージアライメントプロセスおよびスティッチングアルゴリズムは、非特許文献1に詳しく説明されている。オーバラップアセッサ503とビデオスティッチングエンジン508は一体であることもある。
同一イベントをキャプチャリングするビデオキャプチャデバイスの相対的ビューイングアングルを評価するビューイングアングルアセッサ(viewing angle assessor)504が設けられることもある。相対的ビューイングアングルを評価する方法は、適当であればどのような方法でも使用されることがある。同一イベントをキャプチャする異なるビデオキャプチャデバイスからのビデオストリームの相対的品質を評価する評価アセッサ(quality assessor)505が設けられることもある。ビデオ品質を評価する方法は、適当であればどのような方法でも使用されることがある。ビデオシーケンスからのオブジェクト(または領域(region)だけの可能性もある)を自動的に抽出するオブジェクト検出および追跡エンジン(object detection and tracking engine)506が設けられることもある。オブジェクトは、複数のフレームにまたがっていて、リアルな物理的オブジェクトに対応する2Dイメージ領域の集まりである。このようなオブジェクト検出および追跡エンジンは、非特許文献2に記載されているもののように、適当であればどのようなエンジンも使用されことがある。このような自動化プロセスを使用してビデオからオブジェクトを抽出すると、多くの方法でビデオに価値を追加することができる。例えば、オブジェクト別にビデオコンテンツをサーチする能力を追加する方法および/またはビデオ内のオブジェクトとのハイパリンクを追加する方法がある。
出力ビデオ強化モジュール(output video enhancement module)は、コンテキスト情報およびターゲット視聴経験に関する指定したルール、しきい値または基準があればそれと一緒に入力ビデオストリーム501を受け取る。これらは出力ビデオ512を形成するために使用される。出力ビデオを形成するために様々なエンジンが提供されており、これらは相互に一体になっていることがあるが、明確化のために図5には別々に示されている。例えば、これらのエンジンはビデオスティッチングエンジン508、ビューイングアングル選択エンジン509、品質選択エンジン510、およびWebリンク挿入エンジンからなっている。Webリンク挿入エンジンは、オブジェクト検出および追跡エンジンから結果を受け取り、これらを使用してハイパリンクをビデオ出力512内に挿入することがある。これらは、オブジェクト検出および追跡エンジンの結果によって判断された通りに、ビデオコンテンツに関係するドキュメント、ファイル、他のビデオ、他のリソースとのハイパリンクとなることがある。例えば、これらのハイパリンクは、非特許文献3に記載されているように、ビデオデータベース内でナビゲーションを可能にすることがある。
図6は、ビデオスティッチングエンジン508の使用を示す概略図である。ストリーミングユーザは上述したようにビデオキャプチャデバイス601、602を持っており、これらを使用して、同一イベントであるが異なるビューポイントからのビデオをキャプチャする。ビデオキャプチャデバイスの第1のデバイスの視野(field of view)は図6に603で示され、ビデオキャプチャデバイスの第2のデバイスの視野は図6に604で示されている。図示のように視野の間に若干のオーバラップがある。ビデオストリームは、上述したように、上流に向かってビデオシェアリングシステム605に送信され、1つにスティッチされて、シングルビデオストリームのどちらかが単独で達成するよりも、イベントのより広い視野をもつ出力ビデオを形成する。この出力ビデオはPC607または他のエンティティから表示されることがあり、表現608はその結果のビデオディスプレイを示している。
一部の実施形態では、キャスティングディレクタの機能は、少なくともその一部がビデオキャプチャデバイス間に分散されている。例えば、各ビデオキャプチャデバイスは、以下に図7を参照して説明するように方法を実行するように構成されていることがある。イベントのビデオはオプションとしてキャプチャされ、そのデバイスは、同一イベントのビデオをキャプチャしているか、またはキャプチャしようとしている他のビデオキャプチャデバイスを特定(701)することに進む。例えば、この特定プロセスは、ビデオシェアリングシステムを探し出して(probe)情報を要求することを含むこともある。他の実施形態では、この特定は、物理的近隣における他のワイヤレス通信デバイスを探し出す(probe)ローカルワイヤレス発見プロセス(discovery process)を使用して行なわれる。他のワイヤレス通信デバイスが発見されると、情報は、イベントに対するビデオシェアリングチャネルに関するものと交換(702)されることがある。このようにして、ビデオキャプチャデバイスは、同一イベントのビデオをキャプチャしている他のビデオキャプチャデバイスを特定することができる。イベントが1つの物理的ロケーションにだけあることは必須でない。例えば、イベントは異なる地理的ロケーションの間のシェアされるイベントであることがあり、この場合には、関係するビデオキャプチャデバイスは、すべてがビデオチェアリングシステムから得られることのある同一チャネルIDを使用することになる。
これらの他のデバイスが特定されると、デバイスは、特定したデバイスとネゴシエートすることに自動的に進み、ビデオキャプチャをどのように進めるか、および/または進めるかどうかを判断する。このネゴシエーションプロセスでは、これらのデバイスにおけるリソース、バンド幅の使用可能性などに関する情報のやりとりが行なわれることがあり、これらのデバイスで指定された使用可能なルールに従って進められることになる。
図8は、例示的なコンピューティングベースデバイス800の種々のコンポーネントを示す図であり、このデバイスは、コンピューティングデバイスおよび/またはエレクトロニックデバイスの任意の形体で実現することができ、そこにビデオシェアリングシステムの実施形態を実現することができる。
コンピューティングベースデバイス800は、メディアコンテンツを受信するのに適したいずれかのタイプである1または2以上の入力806、インターネットプロトコル(IP)入力、ビデオストリーム、オーディオストリームまたはその他の入力を備えている。このデバイスは、通信ネットワーク上でモバイルビデオキャプチャデバイス、携帯電話、および他の通信エンティティとの通信を可能にする通信インタフェース807も備える。
コンピューティングベースデバイス800は1または2以上のプロセッサも備えており、これらプロセッサは、マイクロプロセッサ、コントローラまたはビデオシェアリングシステムを提供するためにこのデバイスの動作を制御するコンピューティング実行可能命令を処理するのに適した他のいずれかのタイプのプロセッサも備える。オペレーティングシステム804を含むプラットフォームソフトウェアまたは他の任意の適切なプラットフォームソフトウェアがコンピューティングベースデバイスに設けられて、アプリケーションソフトウェア803がこのデバイス上で実行されるのを可能にすることができる。
コンピューティング実行可能命令は、メモリ802のような、任意の適切なコンピュータ可読媒体を使用して提供されることがある。メモリは任意の適切なタイプであり、そのようなものとして、ランダムアクセスメモリ(RAM)、磁気または光学ストレージデバイスのような任意の適切なタイプのディスクストレージデバイス、ハードディスクドライブ、またはCD、DVDまたは他のディスクドライブなどがある。フラッシュメモリ、EPROMまたはEEPROMが使用されることもある。
出力805も提供され、そのようなものとして、コンピューティングベースデバイスと一体であるか、または通信状態にあるディスプレイシステムへのオーディオ出力および/またはビデオ出力がある。ディスプレイシステムは、グラフィカルユーザインタフェースまたは他の任意の適切なタイプのユーザインタフェースを提供することができるが、これは必須ではない。
用語「コンピュータ」は、本明細書では、命令の実行が可能であるような処理能力を備えたいずれかのデバイスを指すために用いられている。この分野の精通者ならば認識されるように、このような処理能力は多数の異なるデバイスに組み込まれているので、用語「コンピュータ」には、PC、サーバ、携帯電話、パーソナルデジタルアシスタントおよびその他の多数のデバイスが含まれる。
本明細書に記載された方法は、有形記憶媒体上のマシン可読形体のソフトウェアによって実行されることがある。ソフトウェアは、方法の各ステップが任意の適切な順序で、またはほぼ同時に実行されるようにパラレルプロセッサまたはシリアルプロセッサ上で実行するのに適することができる。
このことは、ソフトウェアが高価で、個々に取引可能な商品になり得ることを認めている。これには、「ダム(dumb)」または標準ハードウェア上で実行され、またはそれを制御して、所望の機能を実行するソフトウェアを含むことを意図している。また、HDL(hardware description language)ソフトウェアのように、ハードウェアの構成を「記述」または定義するソフトウェアを含むことも意図しており、このソフトウェアは、所望の機能を実行するためにシリコンチップを設計したり、ユニバーサルプログラミングチップ(universal programming chip)を構成したり、するのに使用される。
当業者ならば認識されるように、プログラム命令を記憶するために利用されるストレージデバイスは、ネットワークにまたがって分散させることができる。例えば、リモートコンピュータはソフトウェアとして記述されたプロセスの例を記憶することができる。ローカルコンピュータまたはターミナルコンピュータはリモートコンピュータにアクセスし、プログラムを実行するソフトウェアの一部または全部をダウンロードすることがあり得る。代替的に、ローカルコンピュータはソフトウェアの部分を必要に応じてダウンロードすることも、一部のソフトウェア命令をローカルコンピュータで、一部をリモートコンピュータ(またはコンピュータネットワーク)で実行することもある。また、この分野の精通者ならば認識されるように、この分野の精通者に知られた従来の技法を利用すると、ソフトウェアの全部または一部がDSP、プログラマブルロジックアレイなどの、専用回路によって実行されることもある。
本明細書に示した範囲またはデバイス値は、この分野の精通者に自明であるように、求める効果を失うことなく拡張または変更されることがあり得る。
以上から理解されるように、上述した利益および利点は、1つの実施形態に関係にしていることも、複数の実施形態に関係していることもある。これらの実施形態は、明記した問題のいずれか、またはすべてを解決する実施形態にも、明記した利益と利点を有する実施形態にも限定されない。また、以上から理解されるように、項目には、1または2以上の項目が含まれている。
本明細書に記載した方法のステップは、任意の適当な順序で実行されることも、該当する場合に同時に実行されることもある。さらに、個々のブロックは、本明細書に記載した主題の精神および範囲から逸脱することなく、これらの方法のいずれからも削除されることがある。上述した例のどの例の側面も、上述した例のいずれかの側面と結合されて、求める効果を失うことなく別の例を形成することができる。
用語「コンピューティング」は、本明細書では特定した方法ブロックまたはエレメントを含むことを意味しているが、このようなブロックまたはエレメントは排他的リストを構成しないこと、および方法または装置は追加のブロックまたはエレメントを含むことがあることを意味するために使用されている。
以上から理解されるように、好適実施形態の上記説明は単なる例示であり、当業者によって種々の変更が行なわれることがあり得る。上記の指定、例およびデータは、本発明の例示的な実施形態の構造と使用を詳しく説明したものである。本発明の種々の実施形態は、ある程度詳細に、または1または2以上の個々の実施形態を参照して上述してきたが、この分野の精通者ならば、本発明の精神または範囲から逸脱することなく、開示した実施形態に多数の変更を行なうことが可能である。
Claims (15)
- 複数のビデオキャプチャデバイス(102)を含む通信ネットワーク(100)内のノード(101)におけるビデオシェアリング(共有)のコンピュータ実装方法であって、
同一イベントの複数のビデオストリームを受信することであって、前記複数のビデオストリームの各々は前記複数のビデオキャプチャデバイスのうちの異なるビデオキャプチャデバイスから発生したものであること(200)、
前記ビデオストリームに関するコンテキスト情報を取得すること(202)、
前記通信ネットワーク内の他のエンティティによるシェアリングのためのビデオストリーム出力を提供することであって、前記ビデオストリーム出力は前記コンテキスト情報を基に前記受信したビデオストリームから形成されること(206)
を含むことを特徴とする方法。 - 前記コンテキスト情報を取得することは、前記ビデオストリームのビデオコンテンツを分析することを含むことを特徴とする請求項1に記載の方法。
- 前記ビデオストリーム出力は、前記ビデオストリームの1つだけからのイベントのビューに比べてイベントの向上したビューを提供するために形成されることを特徴とする請求項1または請求項2に記載の方法。
- 前記ビデオストリームはライブイベントのものであり、リアルタイムで実行されることを特徴とする請求項1乃至3のいずれかに記載の方法。
- 前記コンテキスト情報を基に制御情報を前記ビデオキャプチャデバイスに送信することをさらに含むことを特徴とする請求項1に記載の方法。
- 前記コンテキスト情報を基にユーザフィードバックを前記ビデオキャプチャデバイスに送信すること(205)をさらに含むことを特徴とする請求項1乃至5のいずれかに記載の方法。
- 前記ビデオコンテンツを分析するプロセスは、前記ビデオキャプチャデバイスの各々のビューイングアングルに関係するパラメータを判断することをさらに含むことを特徴とする請求項2に記載の方法。
- 前記ビデオコンテンツを分析するプロセスは、前記ビデオコンテンツの品質を評価することも含むことを特徴とする請求項7に記載の方法。
- 前記ビデオストリーム出力を提供することは、前記ビデオストリームの2つまたはそれ以上の少なくとも一部を1つにまとめる(スティッチ)ことを含むことを特徴とする請求項1乃至8のいずれかに記載の方法。
- 少なくとも1つのオーディオストリームが各ビデオストリームと関連する複数のオーディオストリームを受信すること(307)、
前記受信したオーディオストリームから形成されたオーディオストリーム出力を提供すること
をさらに含むことを特徴とする請求項1乃至9のいずれかに記載の方法。 - 各ビデオストリームに対するチャネルIDを受信することをさらに含み、同一イベントの前記各ビデオストリームは同一チャネルIDを持っていることを特徴とする請求項1乃至10のいずれかに記載の方法。
- 複数のモバイルビデオキャプチャデバイス(102)を含む通信ネットワーク(100)内のノード(101)におけるビデオシェアリングのコンピュータ実装方法であって、
複数のビデオストリームを受信することであって、前記ビデオストリームの各々は前記複数のビデオキャプチャデバイスのうちの異なるビデオキャプチャデバイスから発生したものであること(200)、
前記ビデオストリームの少なくとも2つを、前記ビデオストリームの各々について受信したチャネル情報を使用して同一イベントをキャプチャするものとして特定すること(201)、
前記特定したビデオストリームのビデオコンテンツを分析すること(313)、
前記通信ネットワーク内の他のエンティティ(104、105、106)によるシェアリングのためのビデオストリーム出力(512)であって、前記特定したビデオストリームから前記ビデオコンテンツ分析を考慮して形成されたビデオストリーム出力を提供すること
を含み、
前記ビデオストリーム出力は、前記特定したビデオストリームの1つだけからのイベントのビューに比べて、イベントの向上したビューを提供するために形成されることを特徴とする方法。 - 複数のモバイルビデオキャプチャデバイスを含む通信ネットワーク(100)内のモバイルビデオキャプチャデバイス(102)における方法であって、
イベントのビデオストリームをキャプチャすること(700)、
同一イベントのビデオストリームをキャプチャしている1または2以上の他のモバイルビデオキャプチャデバイスを特定すること(701)、
前記キャプチャしたビデオストリームを、他のエンティティとのシェアリング(共有)のためにいつ通信ノードに送信するかを判断するために、前記1または2以上の他のビデオキャプチャデバイスとネゴシエートすること(703)
を含むことを特徴とする方法。 - 前記他のモバイルビデオキャプチャデバイスを特定することは、前記通信ネットワーク内の前記モバイルビデオキャプチャデバイスとチャネルID情報を交換することを含むことを特徴とする請求項13に記載の方法。
- 前記1または2以上の他のビデオキャプチャデバイスとネゴシエートすることは、前記モバイルビデオキャプチャデバイスで利用可能なリソースに関する情報を交換することを含むことを特徴とする請求項14に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/390,636 | 2009-02-23 | ||
US12/390,636 US8767081B2 (en) | 2009-02-23 | 2009-02-23 | Sharing video data associated with the same event |
PCT/US2010/023251 WO2010096282A2 (en) | 2009-02-23 | 2010-02-04 | Video sharing |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2012518948A true JP2012518948A (ja) | 2012-08-16 |
Family
ID=42630637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011551109A Withdrawn JP2012518948A (ja) | 2009-02-23 | 2010-02-04 | ビデオシェアリング |
Country Status (9)
Country | Link |
---|---|
US (1) | US8767081B2 (ja) |
EP (1) | EP2399362A2 (ja) |
JP (1) | JP2012518948A (ja) |
CN (1) | CN102326356B (ja) |
AU (1) | AU2010216298B2 (ja) |
BR (1) | BRPI1007167A2 (ja) |
CA (1) | CA2749361A1 (ja) |
RU (1) | RU2011135032A (ja) |
WO (1) | WO2010096282A2 (ja) |
Families Citing this family (47)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8224380B2 (en) * | 2009-07-08 | 2012-07-17 | V.R. Technology Co., Ltd. | Structure of an apparatus for sharing video input/output modules among handheld devices |
EP2612324A4 (en) * | 2010-08-31 | 2014-08-13 | Nokia Corp | AUDIO SCENE UNIT |
US9317598B2 (en) * | 2010-09-08 | 2016-04-19 | Nokia Technologies Oy | Method and apparatus for generating a compilation of media items |
US8874538B2 (en) * | 2010-09-08 | 2014-10-28 | Nokia Corporation | Method and apparatus for video synthesis |
US8122142B1 (en) * | 2010-10-12 | 2012-02-21 | Lemi Technology, Llc | Obtaining and displaying status updates for presentation during playback of a media content stream based on proximity to the point of capture |
EP2638526B1 (en) * | 2010-11-12 | 2020-04-29 | Provenance Asset Group LLC | Method and apparatus for selecting content segments |
EP2479684B1 (en) * | 2011-01-21 | 2013-09-25 | NTT DoCoMo, Inc. | Method and evaluation server for evaluating a plurality of videos |
US8813072B1 (en) * | 2011-03-18 | 2014-08-19 | DirectPacket Research Inc. | Inverse virtual machine |
US9153031B2 (en) | 2011-06-22 | 2015-10-06 | Microsoft Technology Licensing, Llc | Modifying video regions using mobile device input |
US8861937B2 (en) | 2011-08-31 | 2014-10-14 | The Nielsen Company (Us), Llc | Methods and apparatus to access media |
BR112014008378B1 (pt) * | 2011-10-10 | 2022-06-14 | Microsoft Technology Licensing, Llc | Método e sistema para comunicação |
US8780233B2 (en) * | 2011-12-19 | 2014-07-15 | Motorola Solutions, Inc. | Method and apparatus for maintaining a minimum pixel density across an object of interest |
WO2013113951A1 (es) * | 2012-01-31 | 2013-08-08 | Person To Vehicle S.L | Un sistema y procedimiento de telecomunicacion que permite establecer telecomunicaciones con el usuario de un vehiculo mediante el codigo de matricula |
US20130283330A1 (en) * | 2012-04-18 | 2013-10-24 | Harris Corporation | Architecture and system for group video distribution |
TWI590054B (zh) * | 2012-05-04 | 2017-07-01 | 奇揚網科股份有限公司 | 簡報系統、接收裝置以及其方法以及電腦可讀取之媒體 |
GB2509323B (en) | 2012-12-28 | 2015-01-07 | Glide Talk Ltd | Reduced latency server-mediated audio-video communication |
US9565226B2 (en) * | 2013-02-13 | 2017-02-07 | Guy Ravine | Message capturing and seamless message sharing and navigation |
US20160044384A1 (en) * | 2013-04-30 | 2016-02-11 | Anders Edenbrandt | Operating a terminal device in a communication system |
US20140325574A1 (en) * | 2013-04-30 | 2014-10-30 | Koozoo, Inc. | Perceptors and methods pertaining thereto |
US10243786B2 (en) | 2013-05-20 | 2019-03-26 | Citrix Systems, Inc. | Proximity and context aware mobile workspaces in enterprise systems |
US10074400B2 (en) | 2013-06-05 | 2018-09-11 | Snakt, Inc. | Methods and systems for creating, combining, and sharing time-constrained videos |
GB2515563A (en) * | 2013-06-28 | 2014-12-31 | F Secure Corp | Media sharing |
CN111416984A (zh) | 2014-01-29 | 2020-07-14 | 皇家Kpn公司 | 建立事件的流传输呈现 |
WO2016059060A1 (en) * | 2014-10-14 | 2016-04-21 | Koninklijke Kpn N.V. | Managing concurrent streaming of media streams |
EP3269122A4 (en) * | 2015-03-09 | 2018-01-17 | Telefonaktiebolaget LM Ericsson (publ) | Method, system and device for providing live data streams to content-rendering devices |
EP3298789A1 (en) * | 2015-06-15 | 2018-03-28 | Piksel, Inc. | Synchronisation of streamed content |
WO2016203282A1 (en) | 2015-06-18 | 2016-12-22 | The Nielsen Company (Us), Llc | Methods and apparatus to capture photographs using mobile devices |
KR20170012979A (ko) | 2015-07-27 | 2017-02-06 | 삼성전자주식회사 | 영상 공유 서비스를 위한 전자 장치 및 방법 |
US20170053621A1 (en) * | 2015-08-20 | 2017-02-23 | Microsoft Technology Licensing, Llc | Roundtrip Reintegration of Asynchronous 3D Session |
US9906704B2 (en) * | 2015-09-17 | 2018-02-27 | Qualcomm Incorporated | Managing crowd sourced photography in a wireless network |
US10397546B2 (en) | 2015-09-30 | 2019-08-27 | Microsoft Technology Licensing, Llc | Range imaging |
WO2017055890A1 (en) | 2015-09-30 | 2017-04-06 | The Nielsen Company (Us), Llc | Interactive product auditing with a mobile device |
US11089214B2 (en) * | 2015-12-17 | 2021-08-10 | Koninklijke Kpn N.V. | Generating output video from video streams |
US10523923B2 (en) * | 2015-12-28 | 2019-12-31 | Microsoft Technology Licensing, Llc | Synchronizing active illumination cameras |
IL243772B (en) | 2016-01-25 | 2018-03-29 | Everysight Ltd | Dynamic ad-hoc networks for content sharing, based on line of sight |
US10462452B2 (en) | 2016-03-16 | 2019-10-29 | Microsoft Technology Licensing, Llc | Synchronizing active illumination cameras |
US9936238B2 (en) * | 2016-07-29 | 2018-04-03 | Infiniscene, Inc. | Systems and methods for production and delivery of live video |
US10290141B2 (en) | 2017-04-17 | 2019-05-14 | Intel Corporation | Cloud based distributed single game calculation of shared computational work for multiple cloud gaming client devices |
CN107071585A (zh) * | 2017-04-24 | 2017-08-18 | 安徽森度科技有限公司 | 视频分流共享方法 |
TWI636691B (zh) * | 2017-06-20 | 2018-09-21 | 圓展科技股份有限公司 | 視訊畫面智能切換方法及其系統 |
WO2019092161A1 (en) | 2017-11-10 | 2019-05-16 | Koninklijke Kpn N.V. | Obtaining image data of an object in a scene |
US10250976B1 (en) * | 2018-02-01 | 2019-04-02 | International Business Machines Corporation | Energy-efficient audio life logging |
US20210037273A1 (en) * | 2018-04-09 | 2021-02-04 | Rexvid, Llc | Collaborative video stitching |
US20200162698A1 (en) * | 2018-11-20 | 2020-05-21 | International Business Machines Corporation | Smart contact lens based collaborative video conferencing |
US10834358B1 (en) * | 2018-12-31 | 2020-11-10 | Facebook, Inc. | Enhancing video quality based on metadata at a client device having more processing power in a system of client devices having different amounts of processing power |
EP4217081A4 (en) * | 2020-09-23 | 2024-03-20 | Razer Asia Pacific Pte Ltd | SYSTEM AND METHOD FOR SYNCHRONIZING A LIGHTING EVENT BETWEEN DEVICES |
US11831982B2 (en) | 2022-03-25 | 2023-11-28 | International Business Machines Corporation | Multiple entity video capture coordination |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA2216171A1 (en) * | 1995-03-24 | 1996-10-03 | Ppt Vision, Inc. | High speed digital video serial link |
EP0781049B1 (en) * | 1995-12-19 | 2004-05-06 | Canon Kabushiki Kaisha | Apparatus and method for controlling a plurality of remote cameras |
US6037970A (en) * | 1996-04-05 | 2000-03-14 | Sony Corporation | Videoconference system and method therefor |
US20060244839A1 (en) * | 1999-11-10 | 2006-11-02 | Logitech Europe S.A. | Method and system for providing multi-media data from various sources to various client applications |
US6948131B1 (en) * | 2000-03-08 | 2005-09-20 | Vidiator Enterprises Inc. | Communication system and method including rich media tools |
US6891566B2 (en) * | 2000-03-14 | 2005-05-10 | Joseph Robert Marchese | Digital video system using networked cameras |
US6992692B2 (en) * | 2002-05-31 | 2006-01-31 | Polycom, Inc. | System and method for providing video quality improvement |
US20040001149A1 (en) * | 2002-06-28 | 2004-01-01 | Smith Steven Winn | Dual-mode surveillance system |
US20040107270A1 (en) * | 2002-10-30 | 2004-06-03 | Jamie Stephens | Method and system for collaboration recording |
US20050008240A1 (en) * | 2003-05-02 | 2005-01-13 | Ashish Banerji | Stitching of video for continuous presence multipoint video conferencing |
CN100515026C (zh) * | 2003-10-07 | 2009-07-15 | 利伯里斯特里姆技术公司 | 用于向远程客户机传递流媒体的摄像机 |
US20050185047A1 (en) * | 2004-02-19 | 2005-08-25 | Hii Desmond Toh O. | Method and apparatus for providing a combined image |
US9148585B2 (en) | 2004-02-26 | 2015-09-29 | International Business Machines Corporation | Method and apparatus for cooperative recording |
US20050227218A1 (en) * | 2004-03-06 | 2005-10-13 | Dinesh Mehta | Learning system based on metadata framework and indexed, distributed and fragmented content |
US20060023066A1 (en) * | 2004-07-27 | 2006-02-02 | Microsoft Corporation | System and Method for Client Services for Interactive Multi-View Video |
US20060174203A1 (en) * | 2005-01-31 | 2006-08-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Viewfinder for shared image device |
US20060171603A1 (en) | 2005-01-31 | 2006-08-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Resampling of transformed shared image techniques |
US8713132B2 (en) * | 2005-03-16 | 2014-04-29 | Icontrol Networks, Inc. | Device for data routing in networks |
KR100702700B1 (ko) * | 2005-08-05 | 2007-04-02 | 삼성전자주식회사 | 영상처리장치 및 영상처리방법 |
US20070103558A1 (en) * | 2005-11-04 | 2007-05-10 | Microsoft Corporation | Multi-view video delivery |
US20090196570A1 (en) | 2006-01-05 | 2009-08-06 | Eyesopt Corporation | System and methods for online collaborative video creation |
US20070242160A1 (en) * | 2006-04-18 | 2007-10-18 | Marvell International Ltd. | Shared memory multi video channel display apparatus and methods |
US7932919B2 (en) * | 2006-04-21 | 2011-04-26 | Dell Products L.P. | Virtual ring camera |
US20080143875A1 (en) * | 2006-08-17 | 2008-06-19 | Scott Stacey L | Method and system for synchronous video capture and output |
US7774431B2 (en) * | 2006-09-05 | 2010-08-10 | Gloto | Real time collaborative on-line multimedia albums |
US7733808B2 (en) * | 2006-11-10 | 2010-06-08 | Microsoft Corporation | Peer-to-peer aided live video sharing system |
US20080209330A1 (en) * | 2007-02-23 | 2008-08-28 | Wesley Cruver | System and Method for Collaborative and Interactive Communication and Presentation over the Internet |
US20080216125A1 (en) * | 2007-03-01 | 2008-09-04 | Microsoft Corporation | Mobile Device Collaboration |
CN101282464B (zh) * | 2007-04-03 | 2012-12-19 | 联想(北京)有限公司 | 转移视频的终端及方法 |
TWI383666B (zh) * | 2007-08-21 | 2013-01-21 | Sony Taiwan Ltd | 多重鏡頭相機系統之先進式動態接圖方法 |
US9253430B2 (en) * | 2009-01-15 | 2016-02-02 | At&T Intellectual Property I, L.P. | Systems and methods to control viewed content |
-
2009
- 2009-02-23 US US12/390,636 patent/US8767081B2/en active Active
-
2010
- 2010-02-04 AU AU2010216298A patent/AU2010216298B2/en active Active
- 2010-02-04 RU RU2011135032/08A patent/RU2011135032A/ru not_active Application Discontinuation
- 2010-02-04 JP JP2011551109A patent/JP2012518948A/ja not_active Withdrawn
- 2010-02-04 CN CN201080009559.0A patent/CN102326356B/zh active Active
- 2010-02-04 WO PCT/US2010/023251 patent/WO2010096282A2/en active Application Filing
- 2010-02-04 BR BRPI1007167A patent/BRPI1007167A2/pt not_active IP Right Cessation
- 2010-02-04 CA CA2749361A patent/CA2749361A1/en not_active Abandoned
- 2010-02-04 EP EP10744133A patent/EP2399362A2/en not_active Withdrawn
Also Published As
Publication number | Publication date |
---|---|
WO2010096282A2 (en) | 2010-08-26 |
AU2010216298A1 (en) | 2011-07-21 |
EP2399362A2 (en) | 2011-12-28 |
BRPI1007167A2 (pt) | 2018-03-13 |
CN102326356B (zh) | 2015-02-11 |
AU2010216298B2 (en) | 2014-05-08 |
RU2011135032A (ru) | 2013-02-27 |
US8767081B2 (en) | 2014-07-01 |
CA2749361A1 (en) | 2010-08-26 |
CN102326356A (zh) | 2012-01-18 |
WO2010096282A3 (en) | 2010-11-25 |
US20100214419A1 (en) | 2010-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2012518948A (ja) | ビデオシェアリング | |
US10291618B2 (en) | Method and apparatus for providing and receiving contents via network, method and apparatus for backing up data via network, backup data providing device, and backup system | |
JP6997776B2 (ja) | 一致するコンテンツを特定するためのシステムおよび方法 | |
US8605783B2 (en) | Composite video generation | |
US9590932B2 (en) | Apparatus, method and computer readable recording medium for sharing real time video through chatting window of messenger service | |
US8447769B1 (en) | System and method for real-time image collection and sharing | |
US8510644B2 (en) | Optimization of web page content including video | |
KR20190022662A (ko) | 일치하는 컨텐츠를 식별하는 시스템 및 방법 | |
US20150222815A1 (en) | Aligning videos representing different viewpoints | |
US20150139601A1 (en) | Method, apparatus, and computer program product for automatic remix and summary creation using crowd-sourced intelligence | |
KR20100050567A (ko) | 메타데이터 스트림을 사용하는 피어-투-피어 콘텐츠 발견 방법 및 장치 | |
US20170353753A1 (en) | Communication apparatus, communication control method, and communication system | |
US20160261906A1 (en) | Method and system for synchronizing usage information between device and server | |
US11546556B2 (en) | Redundant array of inexpensive cameras | |
WO2013001135A1 (en) | Video remixing system | |
US20160100110A1 (en) | Apparatus, Method And Computer Program Product For Scene Synthesis | |
TWI551130B (zh) | 使用共享視訊裝置及個人裝置之個人化視訊內容消費技術 | |
US20220116677A1 (en) | Method, system, and computer readable recording medium for implementing seamless switching mode between channels in multi-stream live transmission environment | |
US20140125867A1 (en) | Methods and Apparatuses for Providing Automatic Interactive Area of Visability Video Zooming for Low Light Environments | |
US10298885B1 (en) | Redundant array of inexpensive cameras | |
US10257395B2 (en) | Method, apparatus and computer program product for creating virtual reality content of an event | |
US11782670B2 (en) | Method and system for view sharing of digital files | |
KR101476800B1 (ko) | 파노라마 영상 기반 오브젝트 관리 장치 및 그 방법 | |
KR20180133571A (ko) | 실시간 가족행사기반 및 컨텐츠 기반 공유시스템 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20121005 |