JP2012518948A - ビデオシェアリング - Google Patents

ビデオシェアリング Download PDF

Info

Publication number
JP2012518948A
JP2012518948A JP2011551109A JP2011551109A JP2012518948A JP 2012518948 A JP2012518948 A JP 2012518948A JP 2011551109 A JP2011551109 A JP 2011551109A JP 2011551109 A JP2011551109 A JP 2011551109A JP 2012518948 A JP2012518948 A JP 2012518948A
Authority
JP
Japan
Prior art keywords
video
stream
video stream
capture device
video capture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011551109A
Other languages
English (en)
Inventor
マレック カヘール アイマン
アーメド エル−サバン モタズ
シャウキ アブダラ モハメド
アーメド レファット アリ マハムード
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2012518948A publication Critical patent/JP2012518948A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23412Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs for generating or manipulating the scene composition of objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234318Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by decomposing into objects, e.g. MPEG-4 objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/27Server based end-user applications
    • H04N21/274Storing end-user multimedia data in response to end-user request, e.g. network recorder
    • H04N21/2743Video hosting of uploaded data from client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Information Transfer Between Computers (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

ビデオシェアリング(共有)が説明されている。一実施形態では、携帯電話のようなモバイルビデオキャプチャデバイスは同一イベントのビデオストリームをキャプチャする。ビデオシェアリングシステムはビデオストリームに関するコンテキスト情報を取得し、その情報を使用してそのストリームからビデオ出力を形成する。その出力は他のエンティティによるシェアリング(共有)のためである。例えば、形成されたビデオは、入力ビデオストリームの個々のストリームに比べて、強化された視聴経験を提供する。いくつかの実施形態では、コンテキスト情報はビデオストリームのコンテンツ分析から得られることも、記憶されたコンテキスト情報から得られることも、デバイス特性のような制御情報から得られることもある。一部の実施形態では、ライブイベントのビデオストリームが受信され、その出力ビデオがリアルタイムで形成される。いくつかの例では、フィードバックがビデオキャプチャデバイスに提供されて、ズーム、ビューイングポジションまたは他の特性が調整されること示唆するか、またはそれを自動的に達成する。

Description

本発明は、ビデオシェアリングに関する。
携帯電話(mobile telephone)を使用してキャプチャしたビデオをエンドユーザがWebサイトにアップロードするのを可能にするビデオシェアリング(共有)Webサービスが知られている。ビデオはそのあと、そのWebサイトにアクセスする他人によって表示されることがある。エンドユーザは、自分のビデオをそのWebサイトに訪ねるすべての人に公共的に利用可能にするかどうかを指定することも、そのビデオを指定した個人グループだけにシェアリング(共有)させるかどうかを指定することもできる。
このようなビデオシェアリングWebサービスは、異なる国に住んでいるファミリメンバ(家族)の間でファミリイベントのビデオをシェアリング(共有)するといったように多くの目的に使用されている。その他の例としては、教育講義やエンターテインメントパフォーマンスのビデオをシェアリングすることがある。代表例として、ビデオは携帯電話でキャプチャされ、その後にWebサイトにアップロードされている。そのあと、他の人はWebサービスからビデオをダウンロードすることができる。
典型的には、携帯電話によって記録されたビデオは、様々な理由で解像度が低く、品質が劣っている。例えば、典型的にはエンドユーザはビデオキャプチャのエキスパートではないので、携帯電話は、ビデオキャプチャ期間に不本意に揺れることがある。また、記録されるシーンに対するビデオキャプチャデバイスの位置および照明条件や他の環境条件が誤って選択されることもある。さらに、モバイルキャプチャデバイスとWebサイト間の通信リンクがアップロード期間に不良であることがあり、このことはビデオの品質をさらに低下させるおそれがある。
さらに、複数のユーザが同一イベントのビデオをキャプチャした場合、Webサイトにおけるその結果のビデオを選択することは困難である。この場合、個人がこれらのビデオの各々を見てから、どのビデオが最良の結果を提供するかを判断することには時間がかかり、複雑なプロセスである。個人がこれらのビデオの各々をWebサイトからダウンロードしてから自分の目的に最も合ったビデオを選択する場合には、ダウンロードリンク容量(download link capacity)が使用される。また、記憶容量がWebサービスで占有され、すべてのビデオをWebサービスにアップロードするためのバンド幅が使用される。
本明細書に記載されている実施形態は、公知のビデオシェアリングシステムの欠点のいずれかまたはすべてを解決する実現形態に限定されない。
Richard Szeliski, "Image Alignment and Stitching: A tutorial"(2006 Foundations and Trends in Computer Graphics and Version Vol. 2, No. 1(2006) 1-104に発表。) Y Deng, "Unsupported Segmentation of Color-Texture Regions in Images and Video"(BS Manjunath - IEEE Transactions on Pattern Analysis and Machine, 2001) Bouthemy他, "Video hyper-links creation for content-based browsing and navigation"(1999 Proc. Workshop on Content-Based Multimedia Indexing, CBM1‘99)
以下は、本発明の基本的理解が得られるように開示事項を簡単に要約したものである。この要約は開示事項の広範な概要ではなく、本発明のキーとなる要素または重要な要素を特定するものでもなく、本発明の範囲を限定するものでもない。この要約の唯一の目的は、本明細書に開示したいくつかの概念を、以下に記載されたより詳細の説明の序論として提示することである。
ビデオシェアリング(共有)が説明されている。一実施形態では、携帯電話のようなモバイルビデオキャプチャデバイスは同一イベントのビデオストリームをキャプチャする。ビデオシェアリングシステムはビデオストリームに関するコンテキスト情報を取得し、その情報を使用してそのストリームからビデオ出力を形成する。その出力は他のエンティティによるシェアリング(共有)のためである。例えば、形成されたビデオは、入力ビデオストリームの個々のストリームに比べて、強化された視聴経験(viewing experience)を提供する。いくつかの実施形態では、コンテキスト情報はビデオストリームのコンテンツ分析から得られることも、記憶されたコンテキスト情報から得られることも、デバイス特性のような制御情報から得られることもある。一部の実施形態では、ライブイベントのビデオストリームが受信され、その出力ビデオはリアルタイムで形成される。いくつかの例では、フィードバックがビデオキャプチャデバイスに提供されて、ズーム、ビューイングポジションまたは他の特性が調整されていることを示唆し、またはそのことを自動的に達成する。
付随する特徴の多くは、添付図面と共に以下の詳細な説明を参照すると、より容易に理解されるだろう。
本明細書の記載は、添付図面を参照して以下の詳細な説明を読むことにより理解が容易になるだろう。
通信ネットワークで使用されるビデオシェアリングシステムを示す概略図である。 ビデオシェアリングシステムでの方法を示すフロー図である。 ビデオシェアリングシステムでの別の方法を示すフロー図である。 ビデオシェアリングシステムを示す概略図である。 図4のコンテンツ分析コンポーネントの詳細を示す概略図である。 ビデオスティッチングと共にビデオシェアリングシステムの使用を示す概略図である。 ビデオキャプチャデバイスでの方法を示すフロー図である。 ビデオシェアリングシステムを実現することができる例示的なコンピューティングベースデバイスを示す図である。
添付図面における類似部分は類似参照符号を用いて示されている。
添付図面に関連して以下に示した詳細な説明は本発明を説明することを目的としており、本発明が構築または利用されることがある唯一の態様を表すことを目的としてはいない。以下の説明は、本発明の機能と本発明を構築し、操作するステップのシーケンスを記述している。しかし、同一または同等の機能およびシーケンスが異なる例によって実行されることもある。
図1は、通信ネットワーク100において使用されるビデオシェアリングシステム(video sharing system)101を示す概略図である。通信ネットワークは、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク、ワイヤレス通信ネットワーク、またはエンティティ間でストリーミングビデオを通信するのに適した任意のネットワークなどの、任意の適切なタイプのものである。ストリーミングユーザ102は、モバイルであることも、または、モバイルでないこともあるビデオキャプチャデバイス(video capture device)を含む。例えば、これらのビデオキャプチャデバイスは、携帯電話、PDA、ラップトップコンピュータ、若しくは、ポータブルまたは固定式であって、ストリーミングビデオをキャプチャし、そのビデオを直接または他のエンティティを経由して通信ネットワーク100に送信する能力を持つ任意の適切なタイプのビデオキャプチャデバイスであってもよい。図示の例では、ビデオキャプチャデバイス102はすべてが、例えば、結婚式のような同一シーン103のビデオをキャプチャする携帯電話として示されている。もっと多くのモバイルキャプチャデバイスが存在していることもあり、それらのデバイスは他のシーンやイベントのビデオをキャプチャしていることがある。
ビデオシェアリングシステムは、明確化のために図1にシングル通信ネットワークノード101として図示した、インフラストラクチャを含む。しかし、その機能は通信ネットワーク100内の複数のエンティティにわたって分散されることがあるので、シングルネットワークノード101を使用することは必須ではない。通信ネットワークノードは、ストリーミングビデオと制御情報をビデオキャプチャデバイス102から受信し、通信ネットワーク内の他のエンティティ104、105、106がそのストリーム化ビデオを強化された方法(enhanced manner)でシェアリング(共有)するのを可能にする機能を備えている。コンテキスト情報(contextual information)は、受信したビデオストリークに可能な限りの様々な方法で価値を追加するためにビデオシェアリングシステムによって使用される。一実施形態では、結婚式103に物理的に出席していない他のファミリメンバ(家族)は、ビデオシェアリングシステム101によって提供されたビデオを、ビデオシェアリングシステムと通信しながら大型ディスプレイスクリーン106で見ることができる。他のタイプのエンティティがビデオをシェアリング(共有)することもあり、そのようなエンティティとしては、パーソナルコンピュータ104、携帯電話105、またはビデオシェアリングシステム101からビデオを受信し、表示する能力をもつ他のエンティティがある。
図2は、ビデオシェアリングシステム(図1に示す101のような)での方法を示すフロー図である。複数のビデオストリームがビデオキャプチャデバイスから受信(200)され、ビデオシェアリングシステムは、同一イベントであるビデオストリームを特定(201)する。この特定は、任意の適切な方法で達成される。例えば、各ビデオキャプチャデバイスとビデオシェアリングシステム101間の通信は、1つがビデオストリームコンテンツの通信用であり、1つが制御情報の通信用であるペアの通信チャネルを使用して達成されることがある。一部の実施形態では、制御情報チャネルは、イベントのID(identifier)をビデオシェアリングシステムに送信するために使用され、このIDは同一イベントのビデオストリームを選択するために使用される。例えば、特定のイベントのコードまたはチャネルIDをユーザが指定するのを可能にするWebサービスがビデオシェアリングシステム101によって提供される。特定のイベントのビデオストリームをキャプチャするすべてのストリーミングユーザはそのWebサービスにアクセスできるので、適切なチャネルIDを選択することができる。このようにすると、ビデオシェアリングシステムは大量のビデオストリームを受信し、同一イベントのレコードであるストリームを高速にかつ簡単に特定することができる。他の実施形態では、同一イベントのレコードであるストリームを特定するためにビデオストリーム自体のコンテンツが分析される。また、場合によっては、チャネルID情報はビデオコンテンツと一緒に送信されることもある。
一部の実施形態において、ビデオキャプチャデバイスがオーディオキャプチャ能力も備えている場合には、オーディオストリームがビデオストリームと一緒に送信される。しかし、このことは必須ではない。
ビデオシェアリングシステム101は同一イベントの各ビデオストリームに関するコンテキスト情報を取得(202)する。例えば、このコンテキスト情報はビデオキャプチャデバイスとビデオシェアリングシステムの間の制御チャネルから受信(204)した情報を含んでいることもある。代替的にまたは同じく、コンテキスト情報はビデオストリームコンテンツの分析(203)から(および/またはいずれかの関連オーディオストリームコンテンツから)取得されることもある。コンテキスト情報は、過去のビデオストリームの振る舞いのヒストリカルレコードから取得されることも、および/またはビデオシェアリングリングシステムにアクセス可能であるビデオキャプチャデバイスレコードから取得されることもあり得る。
コンテキスト情報の例を非網羅的(non-exhaustive) に列挙すると、ビデオ品質、ビデオの安定性(steadiness)/揺れ(shakiness)、オーディオ品質、GPS情報のように制御チャネル経由で取得される物理的ロケーション情報、セルラネットワーク(cellular network)ロケーション情報、ビューイングアングル推定(viewing angle estimate)、オブジェクト認識結果、ビデオストリームオーバラップ推定、通信リンク条件、使用可能バンド幅、パケット損失、遅延、ジッタのほかに、そのデバイスで実行可能な処理量を示すことができるビデオキャプチャデバイスバッテリの現在の状態、最大可能解像度などのビデオキャプチャデバイスの能力、照明の最小ルックス、ズーミング能力(光学およびデジタル)がある。
コンテキスト情報を、ルール、しきい値または他の基準と一緒に使用して、ビデオシェアリングシステムは、オプションとして、フィードバックをビデオキャプチャデバイスに送信(205)するように構成される。このフィードバックは、デバイス上のグラフィカルユーザインタフェース(または他のインタフェース)からビデオキャプチャデバイスのユーザに提示されるユーザフィードバックであることがある。例えば、フィードバックは、ユーザがビデオキャプチャデバイスの位置を特定の方法で移動すると、キャプチャされるシーンのビュー(view)が向上することを示唆することがある。別の例では、フィードバックは、ユーザがビデオキャプチャデバイスのズームを変更すること、またはビデオキャプチャデバイスの解像度または他の能力を変えることを示唆することがある。別の例では、フィードバックはユーザがカメラを安定化すること、またはカメラの動きを変更することを示唆することがある。そのほかの例では、フィードバックは、同一イベントをキャプチャする他のビデオキャプチャデバイスのロケーションと能力を指示し、現在のビデオキャプチャデバイスにキャプチャを続けさせるか否かについて提案を行なうことがある。フィードバックは単にビデオキャプチャデバイスによって受信され、ユーザの入力なしでそのデバイスによって自動的に作用(act)されることがあるので、フィードバックがエンドユーザに見えない(transparent)こともあり得る。例えば、フィードバックは、そのユーザと別のユーザの間の共通ビューのような冗長情報をビデオキャプチャデバイスが送信しないことを指示することがある。このようにすると、ビデオ処理能力が軽減され、バンド幅が節減される。
ビデオシェアリングシステムは、通信ネットワーク内の他のエンティティによるシェアリング(共有)のためのビデオ出力を形成(206)するようにも構成される。ビデオ出力を形成するプロセスは、価値が追加され、シェアリング(共有)されるビデオが、受信したビデオストリームの個々のストリームだけを表示するのに比べて、強化された視聴経験を提供するようにコンテキスト情報を考慮する。このビデオ出力は、例えば、ビューポイント(view point)が変更されるのを可能にし、視野(field of view)を大きくするためにビデオストリームを1つにまとめ(スティッチ)、関係ドキュメントまたはマテリアルにリンクを追加し、品質を向上し、セキュリティを向上するために、または他のビデオシェアリング強化の理由で、同一イベントの受信したビデオストリームから形成される。ビデオ出力はオフラインで形成され、ビデオシェアリングシステムにアクセス可能である通信ネットワーク内のロケーションに記憶されることがある。ビデオ出力は、シェアされたビデオを要求するエンティティのリクエストに応じてダイナミックに形成されることもあり得る。一部の実施形態では、ビデオストリームは、他のエンティティによってライブプロセスでシェアされるライブイベントである。この場合、ビデオシェアリングシステムでのプロセスはリアルタイムに実行される。
図3は、例示的なビデオシェアリング方法を示すフロー図である。破線316の上方のフロー図の部分はビデオキャプチャデバイスで実行されるプロセスを表す。破線316の下方と破線317の上方のフロー図の部分はビデオシェアリングシステム(図1の101のような)で実行されるプロセスを表す。破線317の下方のフロー図の部分はシェアされるビデオを受信するエンティティで実行されるプロセスを表す。
ビデオキャプチャデバイスでのカメラドライバ301は、キャプチャプロセス302を実行してビデオストリームをキャプチャする。ビデオストリームは、この分野で知られた任意の適切なタイプのビデオエンコーダ303を使用して符号化される。ビデオデバイスがオーディオキャプチャ能力も備えている実施形態では、マイクロホンドライバ306が用意されている。これは、この分野で公知のように符号化(308)されたオーディオストリームをキャプチャ(307)する。ビデオストリームとオーディオストリームは多重化(304)され、リアルタイムプロトコル(RTP)通信リンク経由でRTPトランスミッタ305を使用してビデオシェアリングシステム(図1の101)に送信される。RTPは、RFC3550および他のRFCにおいてInternet Engineering Task Forceによって定義されている。しかし、RTP通信リンクを使用することは必須ではない。適当であればどのような通信プロトコルも、コンテンツをビデオキャプチャデバイスからビデオシェアリングシステムに送信するために使用されることがある。制御情報を通信するためにビデオキャプチャデバイスとビデオシェアリングシステムの間の別の通信セッションが確立されることがあり得る。例えば、この別の通信セッションはSIP(session initiation protocol)を使用して確立されこともあれば、他の適切なプロトコルを使用して確立されることもある。図3に図示の例では、RTCP(real-time transport protocol)はRTCPトランスミッタ311およびRTCPレシーバ309と一緒に使用されている。
ビデオシェアリングシステムでは、RTPセッションで受信されたコンテンツが多重分離(demultiplex)され、ビデオコンテンツがビデオデコーダ312を使用してデコードされる。オーディオコンテンツもオーディオデコーダを使用してデコードされることがある。ビデオコンテンツおよびオプションとしてオーディオコンテンツは、以下に詳しく説明されているコンテンツ分析エンジン(content analysis engine)313を使用して処理される。このコンテンツ分析エンジン313は出力ビデオストリームを形成する機能も備えており、ストリーミングマネージャ(streaming manager)314は、ビデオをシェアすることを要求するエンティティにプロビジョニングするのに適したフォーマットにストリームを変換する。ビデオストリーム出力は、任意の適切な通信プロトコルを使用して宛先エンティティに送信される。そのようなプロトコルとしては、MMS(Microsoft(登録商標)メディアサーバ)、Windows(登録商標)メディアHTTP(hyper text transfer)ストリーミングプロトコルまたはRTSP(real time streaming protocol)およびRTPがある。宛先エンティティでは、メディアプレイヤ315のような、任意の適切なディスプレイエンジンを使用してビデオが表示される。
図4は、図1の通信ネットワークノード101に設けることができるビデオシェアリング装置400を示す概略図である。この装置400は、キャスティングディレクタ(casting director)401、ビデオキャスティングエンジン(video casting engine)403、コンテンツ分析エンジン(content analysis engine)402、およびコンテンツプロビジョニングエンジン(content provisioning engine)404を備える。これらのエンジンは一体になっていて、シングル通信ネットワークノードを使用して提供されることも、通信ネットワーク内の複数のサーバまたは他のプロセッサにわたって分散されていることもある。
ビデオシェアリング装置400は、各ビデオキャプチャデバイス408に装備されたビデオストリームエンジン405からの入力を受信する共に、同じく各ビデオキャプチャデバイスに装備されたモデレータ(moderator)406から入力を受信する。この入力は通信ネットワーク407上を送信される。また、図4は、装置400によってシェアされるビデオを受信する例示的なビデオシェアリングデバイスも示す。これらには、テレビジョン409、適当なWebブラウザおよび機器を使用して表示されるWebページ410、および携帯電話411が含まれる。
上述したように、各ビデオキャプチャデバイス408はビデオストリーミングエンジン405およびモデレータ406を備える。これらが一緒になって、図4に示すようなキャスティング層(casting tier)を形成する。ビデオストリーミングエンジン405は、ビデオシェアリング装置400の上流側のデバイスによってキャプチャされたビデオをストリーム化するように構成される。モデレータ406は、ビデオシェアリング装置400のキャスティングディレクタ401に制御情報を送信するように構成される。この制御情報は定期的におよび/またはオンデマンドで送信されることがあり、カメラ解像度、CPU利用状況、バンド幅の利用可能性などのように、デバイスの能力と使用状況に関する情報を含むことがある。モデレータ406はキャスティングディレクタ401から受信したコマンドを実行するように構成されることもある。
次に、ビデオシェアリング装置400の詳細について説明する。ビデオキャスティングエンジン403はビデオキャプチャデバイス408からビデオストリームを受信し、これらのビデオストリームをコンテンツ分析の準備状態に置く。ビデオキャスティングエンジンは、制御情報をキャスティングディレクタ401に転送するように構成されることもある。例えば、この制御情報は、パケット損失や遅延のように、ビデオストリームの受信の結果としてビデオキャスティングエンジンに使用可能である通信ネットワーク統計を含むことがある。
コンテンツ分析エンジン402はビデオキャプチャデバイスから受信したコンテンツを分析する構成になっており、そのコンテンツはビデオコンテンツおよび/またはオーディオコンテンツを含むことがある。この分析は、リアルタイムで実行されることもあれば、オフラインで実行されることもある。コンテンツ分析エンジン402の詳細については、図5を参照して以下に説明する。
キャスティングディレクタ401はモデレータ406から入力を受信すると共に、ビデオキャスティングエンジン403から制御情報を受信し、キャスティング分析エンジン402から情報を受信する。キャスティングディレクタ401は、事前に指定したルール、しきい値または他の基準と共に、キャスティングディレクタ401に使用可能である情報を基にロール(役割)をビデオキャプチャデバイス408に割り当てるように構成される。これはビデオキャプチャデバイス408でコマンドをモデレータに送信してロールを実現するように構成されており、ユーザフィードバックをビデオキャプチャデバイス408に送信することも可能である。
一実施形態では、キャスティングディレクタ401は、これらのビデオキャプチャデバイスの機能に関する情報(この情報はモデレータから受信されることもあれば、登録プロセスの結果としてビデオシェアリング装置400で使用可能であることもある)を基におよびターゲット視聴経験(target viewing experience)に関する情報(この情報はビデオシェアリング装置によって提供されるWebサービスでユーザ入力によって事前に指定または与えられることがある)を使用してロールをビデオキャプチャデバイス408に割り当てるように構成される。ある例では、ターゲット視聴経験はイベントのより広い視野を得るためである。別の例では、ターゲット視聴経験はイベントの最適ビューイングアングルを選択するためである。割り当てられるロールとしては、例えば、ビデオを単独でストリーム化すること、ビデオとオーディオをストリーム化すること、オーディオを単独でストリーム化すること、指定した時間までどのコンテンツもストリーム化を中止すること、などがある。
一部の実施形態では、キャスティングディレクタ401は、ビデオシェアリングシステム400が実現されているサーバに設けられる。その他の実施形態では、キャスティングディレクタは全体的にまたは部分的にビデオキャプチャデバイス408間に分散されている。以下では、キャプチャディレクタが部分的にビデオキャプチャデバイス間に分散されている実施形態の詳細について説明する。
ビデオシェアリング装置400は、ビデオキャプチャデバイス408からターゲットエンティティにキャストされるビデオフィード(video feeds)を送信することを受け持つコンテンツプロビジョニングエンジン404を備える。このプロビジョニングエンジン404は、宛先ターゲットのタイプに適したフォーマットにビデオフィードを変形するように構成される。例えば、ターゲットエンティティは、テレビジョン409、Webブラウザ410でビデオを表示するコンピュータ、または携帯電話411であることがある。
コンテンツプロビジョニングエンジン404は、ストリーミングユーザがそこにキャストすることが可能であって、ターゲットエンティティが表示できるチャネルID(またはイベントID)をエンドユーザが作成するのを可能にするWebサービスを提供するように構成されることもある。このWebサービスは、ユーザがユーザ詳細、ビデキャプチャデバイス詳細、ターゲットデバイス詳細などを登録し、記憶する能力を提供することもある。さらに、ビデオシェアリングのためのチャネルを公共(public)または私用(private)にするオプションがユーザに与えられることがあり、この場合、私用チャネルは指定したユーザグループだけがそこにキャストおよび/または表示することを可能にしている。Webサービスは、特定のチャネルに関連するターゲット視聴経験をユーザが指定することも可能にしている。例えば、これは最も広い視野を得るためでも、最適なビューイングアングルを選択するためでもある。
図5は、コンテンツ分析エンジン402を示す概略図である。このエンジンは、図4に関連して上述したようにビデオストリーム501と制御情報502を入力として受信する。このエンジンは、入力ビデオストリーム501から形成された出力ビデオ512を、制御情報502を含むコンテキスト情報およびコンテンツ分析エンジン自体によって実行されたコンテンツ分析の結果と一緒に提供する。
コンテンツ分析エンジンは、コンテンツの異なるタイプの分析を行なうための種々のコンポーネントまたはモジュールを含む。これらの例は図5にモジュール503−506として示されているが、これらは単なる例である。このようなモジュールは異なる組み合わせで使用されることも、他のタイプが使用されることもある。いずれかのペアのビデオストリーム間のオーバラップの程度または量を評価するオーバラップアセッサ(overlap assessor)503が設けられることもある。このアセッサ503からの結果は、コンテンツ分析エンジンに設けられたビデオスティッチングエンジン(video stitching engine)508によって使用されることがある。オーバラップ評価とビデオスティッチングの方法は、適当であればどのような方法でも使用されることがある。例えば、イメージアライメントプロセスおよびスティッチングアルゴリズムは、非特許文献1に詳しく説明されている。オーバラップアセッサ503とビデオスティッチングエンジン508は一体であることもある。
同一イベントをキャプチャリングするビデオキャプチャデバイスの相対的ビューイングアングルを評価するビューイングアングルアセッサ(viewing angle assessor)504が設けられることもある。相対的ビューイングアングルを評価する方法は、適当であればどのような方法でも使用されることがある。同一イベントをキャプチャする異なるビデオキャプチャデバイスからのビデオストリームの相対的品質を評価する評価アセッサ(quality assessor)505が設けられることもある。ビデオ品質を評価する方法は、適当であればどのような方法でも使用されることがある。ビデオシーケンスからのオブジェクト(または領域(region)だけの可能性もある)を自動的に抽出するオブジェクト検出および追跡エンジン(object detection and tracking engine)506が設けられることもある。オブジェクトは、複数のフレームにまたがっていて、リアルな物理的オブジェクトに対応する2Dイメージ領域の集まりである。このようなオブジェクト検出および追跡エンジンは、非特許文献2に記載されているもののように、適当であればどのようなエンジンも使用されことがある。このような自動化プロセスを使用してビデオからオブジェクトを抽出すると、多くの方法でビデオに価値を追加することができる。例えば、オブジェクト別にビデオコンテンツをサーチする能力を追加する方法および/またはビデオ内のオブジェクトとのハイパリンクを追加する方法がある。
出力ビデオ強化モジュール(output video enhancement module)は、コンテキスト情報およびターゲット視聴経験に関する指定したルール、しきい値または基準があればそれと一緒に入力ビデオストリーム501を受け取る。これらは出力ビデオ512を形成するために使用される。出力ビデオを形成するために様々なエンジンが提供されており、これらは相互に一体になっていることがあるが、明確化のために図5には別々に示されている。例えば、これらのエンジンはビデオスティッチングエンジン508、ビューイングアングル選択エンジン509、品質選択エンジン510、およびWebリンク挿入エンジンからなっている。Webリンク挿入エンジンは、オブジェクト検出および追跡エンジンから結果を受け取り、これらを使用してハイパリンクをビデオ出力512内に挿入することがある。これらは、オブジェクト検出および追跡エンジンの結果によって判断された通りに、ビデオコンテンツに関係するドキュメント、ファイル、他のビデオ、他のリソースとのハイパリンクとなることがある。例えば、これらのハイパリンクは、非特許文献3に記載されているように、ビデオデータベース内でナビゲーションを可能にすることがある。
図6は、ビデオスティッチングエンジン508の使用を示す概略図である。ストリーミングユーザは上述したようにビデオキャプチャデバイス601、602を持っており、これらを使用して、同一イベントであるが異なるビューポイントからのビデオをキャプチャする。ビデオキャプチャデバイスの第1のデバイスの視野(field of view)は図6に603で示され、ビデオキャプチャデバイスの第2のデバイスの視野は図6に604で示されている。図示のように視野の間に若干のオーバラップがある。ビデオストリームは、上述したように、上流に向かってビデオシェアリングシステム605に送信され、1つにスティッチされて、シングルビデオストリームのどちらかが単独で達成するよりも、イベントのより広い視野をもつ出力ビデオを形成する。この出力ビデオはPC607または他のエンティティから表示されることがあり、表現608はその結果のビデオディスプレイを示している。
一部の実施形態では、キャスティングディレクタの機能は、少なくともその一部がビデオキャプチャデバイス間に分散されている。例えば、各ビデオキャプチャデバイスは、以下に図7を参照して説明するように方法を実行するように構成されていることがある。イベントのビデオはオプションとしてキャプチャされ、そのデバイスは、同一イベントのビデオをキャプチャしているか、またはキャプチャしようとしている他のビデオキャプチャデバイスを特定(701)することに進む。例えば、この特定プロセスは、ビデオシェアリングシステムを探し出して(probe)情報を要求することを含むこともある。他の実施形態では、この特定は、物理的近隣における他のワイヤレス通信デバイスを探し出す(probe)ローカルワイヤレス発見プロセス(discovery process)を使用して行なわれる。他のワイヤレス通信デバイスが発見されると、情報は、イベントに対するビデオシェアリングチャネルに関するものと交換(702)されることがある。このようにして、ビデオキャプチャデバイスは、同一イベントのビデオをキャプチャしている他のビデオキャプチャデバイスを特定することができる。イベントが1つの物理的ロケーションにだけあることは必須でない。例えば、イベントは異なる地理的ロケーションの間のシェアされるイベントであることがあり、この場合には、関係するビデオキャプチャデバイスは、すべてがビデオチェアリングシステムから得られることのある同一チャネルIDを使用することになる。
これらの他のデバイスが特定されると、デバイスは、特定したデバイスとネゴシエートすることに自動的に進み、ビデオキャプチャをどのように進めるか、および/または進めるかどうかを判断する。このネゴシエーションプロセスでは、これらのデバイスにおけるリソース、バンド幅の使用可能性などに関する情報のやりとりが行なわれることがあり、これらのデバイスで指定された使用可能なルールに従って進められることになる。
図8は、例示的なコンピューティングベースデバイス800の種々のコンポーネントを示す図であり、このデバイスは、コンピューティングデバイスおよび/またはエレクトロニックデバイスの任意の形体で実現することができ、そこにビデオシェアリングシステムの実施形態を実現することができる。
コンピューティングベースデバイス800は、メディアコンテンツを受信するのに適したいずれかのタイプである1または2以上の入力806、インターネットプロトコル(IP)入力、ビデオストリーム、オーディオストリームまたはその他の入力を備えている。このデバイスは、通信ネットワーク上でモバイルビデオキャプチャデバイス、携帯電話、および他の通信エンティティとの通信を可能にする通信インタフェース807も備える。
コンピューティングベースデバイス800は1または2以上のプロセッサも備えており、これらプロセッサは、マイクロプロセッサ、コントローラまたはビデオシェアリングシステムを提供するためにこのデバイスの動作を制御するコンピューティング実行可能命令を処理するのに適した他のいずれかのタイプのプロセッサも備える。オペレーティングシステム804を含むプラットフォームソフトウェアまたは他の任意の適切なプラットフォームソフトウェアがコンピューティングベースデバイスに設けられて、アプリケーションソフトウェア803がこのデバイス上で実行されるのを可能にすることができる。
コンピューティング実行可能命令は、メモリ802のような、任意の適切なコンピュータ可読媒体を使用して提供されることがある。メモリは任意の適切なタイプであり、そのようなものとして、ランダムアクセスメモリ(RAM)、磁気または光学ストレージデバイスのような任意の適切なタイプのディスクストレージデバイス、ハードディスクドライブ、またはCD、DVDまたは他のディスクドライブなどがある。フラッシュメモリ、EPROMまたはEEPROMが使用されることもある。
出力805も提供され、そのようなものとして、コンピューティングベースデバイスと一体であるか、または通信状態にあるディスプレイシステムへのオーディオ出力および/またはビデオ出力がある。ディスプレイシステムは、グラフィカルユーザインタフェースまたは他の任意の適切なタイプのユーザインタフェースを提供することができるが、これは必須ではない。
用語「コンピュータ」は、本明細書では、命令の実行が可能であるような処理能力を備えたいずれかのデバイスを指すために用いられている。この分野の精通者ならば認識されるように、このような処理能力は多数の異なるデバイスに組み込まれているので、用語「コンピュータ」には、PC、サーバ、携帯電話、パーソナルデジタルアシスタントおよびその他の多数のデバイスが含まれる。
本明細書に記載された方法は、有形記憶媒体上のマシン可読形体のソフトウェアによって実行されることがある。ソフトウェアは、方法の各ステップが任意の適切な順序で、またはほぼ同時に実行されるようにパラレルプロセッサまたはシリアルプロセッサ上で実行するのに適することができる。
このことは、ソフトウェアが高価で、個々に取引可能な商品になり得ることを認めている。これには、「ダム(dumb)」または標準ハードウェア上で実行され、またはそれを制御して、所望の機能を実行するソフトウェアを含むことを意図している。また、HDL(hardware description language)ソフトウェアのように、ハードウェアの構成を「記述」または定義するソフトウェアを含むことも意図しており、このソフトウェアは、所望の機能を実行するためにシリコンチップを設計したり、ユニバーサルプログラミングチップ(universal programming chip)を構成したり、するのに使用される。
当業者ならば認識されるように、プログラム命令を記憶するために利用されるストレージデバイスは、ネットワークにまたがって分散させることができる。例えば、リモートコンピュータはソフトウェアとして記述されたプロセスの例を記憶することができる。ローカルコンピュータまたはターミナルコンピュータはリモートコンピュータにアクセスし、プログラムを実行するソフトウェアの一部または全部をダウンロードすることがあり得る。代替的に、ローカルコンピュータはソフトウェアの部分を必要に応じてダウンロードすることも、一部のソフトウェア命令をローカルコンピュータで、一部をリモートコンピュータ(またはコンピュータネットワーク)で実行することもある。また、この分野の精通者ならば認識されるように、この分野の精通者に知られた従来の技法を利用すると、ソフトウェアの全部または一部がDSP、プログラマブルロジックアレイなどの、専用回路によって実行されることもある。
本明細書に示した範囲またはデバイス値は、この分野の精通者に自明であるように、求める効果を失うことなく拡張または変更されることがあり得る。
以上から理解されるように、上述した利益および利点は、1つの実施形態に関係にしていることも、複数の実施形態に関係していることもある。これらの実施形態は、明記した問題のいずれか、またはすべてを解決する実施形態にも、明記した利益と利点を有する実施形態にも限定されない。また、以上から理解されるように、項目には、1または2以上の項目が含まれている。
本明細書に記載した方法のステップは、任意の適当な順序で実行されることも、該当する場合に同時に実行されることもある。さらに、個々のブロックは、本明細書に記載した主題の精神および範囲から逸脱することなく、これらの方法のいずれからも削除されることがある。上述した例のどの例の側面も、上述した例のいずれかの側面と結合されて、求める効果を失うことなく別の例を形成することができる。
用語「コンピューティング」は、本明細書では特定した方法ブロックまたはエレメントを含むことを意味しているが、このようなブロックまたはエレメントは排他的リストを構成しないこと、および方法または装置は追加のブロックまたはエレメントを含むことがあることを意味するために使用されている。
以上から理解されるように、好適実施形態の上記説明は単なる例示であり、当業者によって種々の変更が行なわれることがあり得る。上記の指定、例およびデータは、本発明の例示的な実施形態の構造と使用を詳しく説明したものである。本発明の種々の実施形態は、ある程度詳細に、または1または2以上の個々の実施形態を参照して上述してきたが、この分野の精通者ならば、本発明の精神または範囲から逸脱することなく、開示した実施形態に多数の変更を行なうことが可能である。

Claims (15)

  1. 複数のビデオキャプチャデバイス(102)を含む通信ネットワーク(100)内のノード(101)におけるビデオシェアリング(共有)のコンピュータ実装方法であって、
    同一イベントの複数のビデオストリームを受信することであって、前記複数のビデオストリームの各々は前記複数のビデオキャプチャデバイスのうちの異なるビデオキャプチャデバイスから発生したものであること(200)、
    前記ビデオストリームに関するコンテキスト情報を取得すること(202)、
    前記通信ネットワーク内の他のエンティティによるシェアリングのためのビデオストリーム出力を提供することであって、前記ビデオストリーム出力は前記コンテキスト情報を基に前記受信したビデオストリームから形成されること(206)
    を含むことを特徴とする方法。
  2. 前記コンテキスト情報を取得することは、前記ビデオストリームのビデオコンテンツを分析することを含むことを特徴とする請求項1に記載の方法。
  3. 前記ビデオストリーム出力は、前記ビデオストリームの1つだけからのイベントのビューに比べてイベントの向上したビューを提供するために形成されることを特徴とする請求項1または請求項2に記載の方法。
  4. 前記ビデオストリームはライブイベントのものであり、リアルタイムで実行されることを特徴とする請求項1乃至3のいずれかに記載の方法。
  5. 前記コンテキスト情報を基に制御情報を前記ビデオキャプチャデバイスに送信することをさらに含むことを特徴とする請求項1に記載の方法。
  6. 前記コンテキスト情報を基にユーザフィードバックを前記ビデオキャプチャデバイスに送信すること(205)をさらに含むことを特徴とする請求項1乃至5のいずれかに記載の方法。
  7. 前記ビデオコンテンツを分析するプロセスは、前記ビデオキャプチャデバイスの各々のビューイングアングルに関係するパラメータを判断することをさらに含むことを特徴とする請求項2に記載の方法。
  8. 前記ビデオコンテンツを分析するプロセスは、前記ビデオコンテンツの品質を評価することも含むことを特徴とする請求項7に記載の方法。
  9. 前記ビデオストリーム出力を提供することは、前記ビデオストリームの2つまたはそれ以上の少なくとも一部を1つにまとめる(スティッチ)ことを含むことを特徴とする請求項1乃至8のいずれかに記載の方法。
  10. 少なくとも1つのオーディオストリームが各ビデオストリームと関連する複数のオーディオストリームを受信すること(307)、
    前記受信したオーディオストリームから形成されたオーディオストリーム出力を提供すること
    をさらに含むことを特徴とする請求項1乃至9のいずれかに記載の方法。
  11. 各ビデオストリームに対するチャネルIDを受信することをさらに含み、同一イベントの前記各ビデオストリームは同一チャネルIDを持っていることを特徴とする請求項1乃至10のいずれかに記載の方法。
  12. 複数のモバイルビデオキャプチャデバイス(102)を含む通信ネットワーク(100)内のノード(101)におけるビデオシェアリングのコンピュータ実装方法であって、
    複数のビデオストリームを受信することであって、前記ビデオストリームの各々は前記複数のビデオキャプチャデバイスのうちの異なるビデオキャプチャデバイスから発生したものであること(200)、
    前記ビデオストリームの少なくとも2つを、前記ビデオストリームの各々について受信したチャネル情報を使用して同一イベントをキャプチャするものとして特定すること(201)、
    前記特定したビデオストリームのビデオコンテンツを分析すること(313)、
    前記通信ネットワーク内の他のエンティティ(104、105、106)によるシェアリングのためのビデオストリーム出力(512)であって、前記特定したビデオストリームから前記ビデオコンテンツ分析を考慮して形成されたビデオストリーム出力を提供すること
    を含み、
    前記ビデオストリーム出力は、前記特定したビデオストリームの1つだけからのイベントのビューに比べて、イベントの向上したビューを提供するために形成されることを特徴とする方法。
  13. 複数のモバイルビデオキャプチャデバイスを含む通信ネットワーク(100)内のモバイルビデオキャプチャデバイス(102)における方法であって、
    イベントのビデオストリームをキャプチャすること(700)、
    同一イベントのビデオストリームをキャプチャしている1または2以上の他のモバイルビデオキャプチャデバイスを特定すること(701)、
    前記キャプチャしたビデオストリームを、他のエンティティとのシェアリング(共有)のためにいつ通信ノードに送信するかを判断するために、前記1または2以上の他のビデオキャプチャデバイスとネゴシエートすること(703)
    を含むことを特徴とする方法。
  14. 前記他のモバイルビデオキャプチャデバイスを特定することは、前記通信ネットワーク内の前記モバイルビデオキャプチャデバイスとチャネルID情報を交換することを含むことを特徴とする請求項13に記載の方法。
  15. 前記1または2以上の他のビデオキャプチャデバイスとネゴシエートすることは、前記モバイルビデオキャプチャデバイスで利用可能なリソースに関する情報を交換することを含むことを特徴とする請求項14に記載の方法。
JP2011551109A 2009-02-23 2010-02-04 ビデオシェアリング Withdrawn JP2012518948A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/390,636 2009-02-23
US12/390,636 US8767081B2 (en) 2009-02-23 2009-02-23 Sharing video data associated with the same event
PCT/US2010/023251 WO2010096282A2 (en) 2009-02-23 2010-02-04 Video sharing

Publications (1)

Publication Number Publication Date
JP2012518948A true JP2012518948A (ja) 2012-08-16

Family

ID=42630637

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011551109A Withdrawn JP2012518948A (ja) 2009-02-23 2010-02-04 ビデオシェアリング

Country Status (9)

Country Link
US (1) US8767081B2 (ja)
EP (1) EP2399362A2 (ja)
JP (1) JP2012518948A (ja)
CN (1) CN102326356B (ja)
AU (1) AU2010216298B2 (ja)
BR (1) BRPI1007167A2 (ja)
CA (1) CA2749361A1 (ja)
RU (1) RU2011135032A (ja)
WO (1) WO2010096282A2 (ja)

Families Citing this family (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8224380B2 (en) * 2009-07-08 2012-07-17 V.R. Technology Co., Ltd. Structure of an apparatus for sharing video input/output modules among handheld devices
EP2612324A4 (en) * 2010-08-31 2014-08-13 Nokia Corp AUDIO SCENE UNIT
US9317598B2 (en) * 2010-09-08 2016-04-19 Nokia Technologies Oy Method and apparatus for generating a compilation of media items
US8874538B2 (en) * 2010-09-08 2014-10-28 Nokia Corporation Method and apparatus for video synthesis
US8122142B1 (en) * 2010-10-12 2012-02-21 Lemi Technology, Llc Obtaining and displaying status updates for presentation during playback of a media content stream based on proximity to the point of capture
EP2638526B1 (en) * 2010-11-12 2020-04-29 Provenance Asset Group LLC Method and apparatus for selecting content segments
EP2479684B1 (en) * 2011-01-21 2013-09-25 NTT DoCoMo, Inc. Method and evaluation server for evaluating a plurality of videos
US8813072B1 (en) * 2011-03-18 2014-08-19 DirectPacket Research Inc. Inverse virtual machine
US9153031B2 (en) 2011-06-22 2015-10-06 Microsoft Technology Licensing, Llc Modifying video regions using mobile device input
US8861937B2 (en) 2011-08-31 2014-10-14 The Nielsen Company (Us), Llc Methods and apparatus to access media
BR112014008378B1 (pt) * 2011-10-10 2022-06-14 Microsoft Technology Licensing, Llc Método e sistema para comunicação
US8780233B2 (en) * 2011-12-19 2014-07-15 Motorola Solutions, Inc. Method and apparatus for maintaining a minimum pixel density across an object of interest
WO2013113951A1 (es) * 2012-01-31 2013-08-08 Person To Vehicle S.L Un sistema y procedimiento de telecomunicacion que permite establecer telecomunicaciones con el usuario de un vehiculo mediante el codigo de matricula
US20130283330A1 (en) * 2012-04-18 2013-10-24 Harris Corporation Architecture and system for group video distribution
TWI590054B (zh) * 2012-05-04 2017-07-01 奇揚網科股份有限公司 簡報系統、接收裝置以及其方法以及電腦可讀取之媒體
GB2509323B (en) 2012-12-28 2015-01-07 Glide Talk Ltd Reduced latency server-mediated audio-video communication
US9565226B2 (en) * 2013-02-13 2017-02-07 Guy Ravine Message capturing and seamless message sharing and navigation
US20160044384A1 (en) * 2013-04-30 2016-02-11 Anders Edenbrandt Operating a terminal device in a communication system
US20140325574A1 (en) * 2013-04-30 2014-10-30 Koozoo, Inc. Perceptors and methods pertaining thereto
US10243786B2 (en) 2013-05-20 2019-03-26 Citrix Systems, Inc. Proximity and context aware mobile workspaces in enterprise systems
US10074400B2 (en) 2013-06-05 2018-09-11 Snakt, Inc. Methods and systems for creating, combining, and sharing time-constrained videos
GB2515563A (en) * 2013-06-28 2014-12-31 F Secure Corp Media sharing
CN111416984A (zh) 2014-01-29 2020-07-14 皇家Kpn公司 建立事件的流传输呈现
WO2016059060A1 (en) * 2014-10-14 2016-04-21 Koninklijke Kpn N.V. Managing concurrent streaming of media streams
EP3269122A4 (en) * 2015-03-09 2018-01-17 Telefonaktiebolaget LM Ericsson (publ) Method, system and device for providing live data streams to content-rendering devices
EP3298789A1 (en) * 2015-06-15 2018-03-28 Piksel, Inc. Synchronisation of streamed content
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
KR20170012979A (ko) 2015-07-27 2017-02-06 삼성전자주식회사 영상 공유 서비스를 위한 전자 장치 및 방법
US20170053621A1 (en) * 2015-08-20 2017-02-23 Microsoft Technology Licensing, Llc Roundtrip Reintegration of Asynchronous 3D Session
US9906704B2 (en) * 2015-09-17 2018-02-27 Qualcomm Incorporated Managing crowd sourced photography in a wireless network
US10397546B2 (en) 2015-09-30 2019-08-27 Microsoft Technology Licensing, Llc Range imaging
WO2017055890A1 (en) 2015-09-30 2017-04-06 The Nielsen Company (Us), Llc Interactive product auditing with a mobile device
US11089214B2 (en) * 2015-12-17 2021-08-10 Koninklijke Kpn N.V. Generating output video from video streams
US10523923B2 (en) * 2015-12-28 2019-12-31 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
IL243772B (en) 2016-01-25 2018-03-29 Everysight Ltd Dynamic ad-hoc networks for content sharing, based on line of sight
US10462452B2 (en) 2016-03-16 2019-10-29 Microsoft Technology Licensing, Llc Synchronizing active illumination cameras
US9936238B2 (en) * 2016-07-29 2018-04-03 Infiniscene, Inc. Systems and methods for production and delivery of live video
US10290141B2 (en) 2017-04-17 2019-05-14 Intel Corporation Cloud based distributed single game calculation of shared computational work for multiple cloud gaming client devices
CN107071585A (zh) * 2017-04-24 2017-08-18 安徽森度科技有限公司 视频分流共享方法
TWI636691B (zh) * 2017-06-20 2018-09-21 圓展科技股份有限公司 視訊畫面智能切換方法及其系統
WO2019092161A1 (en) 2017-11-10 2019-05-16 Koninklijke Kpn N.V. Obtaining image data of an object in a scene
US10250976B1 (en) * 2018-02-01 2019-04-02 International Business Machines Corporation Energy-efficient audio life logging
US20210037273A1 (en) * 2018-04-09 2021-02-04 Rexvid, Llc Collaborative video stitching
US20200162698A1 (en) * 2018-11-20 2020-05-21 International Business Machines Corporation Smart contact lens based collaborative video conferencing
US10834358B1 (en) * 2018-12-31 2020-11-10 Facebook, Inc. Enhancing video quality based on metadata at a client device having more processing power in a system of client devices having different amounts of processing power
EP4217081A4 (en) * 2020-09-23 2024-03-20 Razer Asia Pacific Pte Ltd SYSTEM AND METHOD FOR SYNCHRONIZING A LIGHTING EVENT BETWEEN DEVICES
US11831982B2 (en) 2022-03-25 2023-11-28 International Business Machines Corporation Multiple entity video capture coordination

Family Cites Families (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2216171A1 (en) * 1995-03-24 1996-10-03 Ppt Vision, Inc. High speed digital video serial link
EP0781049B1 (en) * 1995-12-19 2004-05-06 Canon Kabushiki Kaisha Apparatus and method for controlling a plurality of remote cameras
US6037970A (en) * 1996-04-05 2000-03-14 Sony Corporation Videoconference system and method therefor
US20060244839A1 (en) * 1999-11-10 2006-11-02 Logitech Europe S.A. Method and system for providing multi-media data from various sources to various client applications
US6948131B1 (en) * 2000-03-08 2005-09-20 Vidiator Enterprises Inc. Communication system and method including rich media tools
US6891566B2 (en) * 2000-03-14 2005-05-10 Joseph Robert Marchese Digital video system using networked cameras
US6992692B2 (en) * 2002-05-31 2006-01-31 Polycom, Inc. System and method for providing video quality improvement
US20040001149A1 (en) * 2002-06-28 2004-01-01 Smith Steven Winn Dual-mode surveillance system
US20040107270A1 (en) * 2002-10-30 2004-06-03 Jamie Stephens Method and system for collaboration recording
US20050008240A1 (en) * 2003-05-02 2005-01-13 Ashish Banerji Stitching of video for continuous presence multipoint video conferencing
CN100515026C (zh) * 2003-10-07 2009-07-15 利伯里斯特里姆技术公司 用于向远程客户机传递流媒体的摄像机
US20050185047A1 (en) * 2004-02-19 2005-08-25 Hii Desmond Toh O. Method and apparatus for providing a combined image
US9148585B2 (en) 2004-02-26 2015-09-29 International Business Machines Corporation Method and apparatus for cooperative recording
US20050227218A1 (en) * 2004-03-06 2005-10-13 Dinesh Mehta Learning system based on metadata framework and indexed, distributed and fragmented content
US20060023066A1 (en) * 2004-07-27 2006-02-02 Microsoft Corporation System and Method for Client Services for Interactive Multi-View Video
US20060174203A1 (en) * 2005-01-31 2006-08-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Viewfinder for shared image device
US20060171603A1 (en) 2005-01-31 2006-08-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Resampling of transformed shared image techniques
US8713132B2 (en) * 2005-03-16 2014-04-29 Icontrol Networks, Inc. Device for data routing in networks
KR100702700B1 (ko) * 2005-08-05 2007-04-02 삼성전자주식회사 영상처리장치 및 영상처리방법
US20070103558A1 (en) * 2005-11-04 2007-05-10 Microsoft Corporation Multi-view video delivery
US20090196570A1 (en) 2006-01-05 2009-08-06 Eyesopt Corporation System and methods for online collaborative video creation
US20070242160A1 (en) * 2006-04-18 2007-10-18 Marvell International Ltd. Shared memory multi video channel display apparatus and methods
US7932919B2 (en) * 2006-04-21 2011-04-26 Dell Products L.P. Virtual ring camera
US20080143875A1 (en) * 2006-08-17 2008-06-19 Scott Stacey L Method and system for synchronous video capture and output
US7774431B2 (en) * 2006-09-05 2010-08-10 Gloto Real time collaborative on-line multimedia albums
US7733808B2 (en) * 2006-11-10 2010-06-08 Microsoft Corporation Peer-to-peer aided live video sharing system
US20080209330A1 (en) * 2007-02-23 2008-08-28 Wesley Cruver System and Method for Collaborative and Interactive Communication and Presentation over the Internet
US20080216125A1 (en) * 2007-03-01 2008-09-04 Microsoft Corporation Mobile Device Collaboration
CN101282464B (zh) * 2007-04-03 2012-12-19 联想(北京)有限公司 转移视频的终端及方法
TWI383666B (zh) * 2007-08-21 2013-01-21 Sony Taiwan Ltd 多重鏡頭相機系統之先進式動態接圖方法
US9253430B2 (en) * 2009-01-15 2016-02-02 At&T Intellectual Property I, L.P. Systems and methods to control viewed content

Also Published As

Publication number Publication date
WO2010096282A2 (en) 2010-08-26
AU2010216298A1 (en) 2011-07-21
EP2399362A2 (en) 2011-12-28
BRPI1007167A2 (pt) 2018-03-13
CN102326356B (zh) 2015-02-11
AU2010216298B2 (en) 2014-05-08
RU2011135032A (ru) 2013-02-27
US8767081B2 (en) 2014-07-01
CA2749361A1 (en) 2010-08-26
CN102326356A (zh) 2012-01-18
WO2010096282A3 (en) 2010-11-25
US20100214419A1 (en) 2010-08-26

Similar Documents

Publication Publication Date Title
JP2012518948A (ja) ビデオシェアリング
US10291618B2 (en) Method and apparatus for providing and receiving contents via network, method and apparatus for backing up data via network, backup data providing device, and backup system
JP6997776B2 (ja) 一致するコンテンツを特定するためのシステムおよび方法
US8605783B2 (en) Composite video generation
US9590932B2 (en) Apparatus, method and computer readable recording medium for sharing real time video through chatting window of messenger service
US8447769B1 (en) System and method for real-time image collection and sharing
US8510644B2 (en) Optimization of web page content including video
KR20190022662A (ko) 일치하는 컨텐츠를 식별하는 시스템 및 방법
US20150222815A1 (en) Aligning videos representing different viewpoints
US20150139601A1 (en) Method, apparatus, and computer program product for automatic remix and summary creation using crowd-sourced intelligence
KR20100050567A (ko) 메타데이터 스트림을 사용하는 피어-투-피어 콘텐츠 발견 방법 및 장치
US20170353753A1 (en) Communication apparatus, communication control method, and communication system
US20160261906A1 (en) Method and system for synchronizing usage information between device and server
US11546556B2 (en) Redundant array of inexpensive cameras
WO2013001135A1 (en) Video remixing system
US20160100110A1 (en) Apparatus, Method And Computer Program Product For Scene Synthesis
TWI551130B (zh) 使用共享視訊裝置及個人裝置之個人化視訊內容消費技術
US20220116677A1 (en) Method, system, and computer readable recording medium for implementing seamless switching mode between channels in multi-stream live transmission environment
US20140125867A1 (en) Methods and Apparatuses for Providing Automatic Interactive Area of Visability Video Zooming for Low Light Environments
US10298885B1 (en) Redundant array of inexpensive cameras
US10257395B2 (en) Method, apparatus and computer program product for creating virtual reality content of an event
US11782670B2 (en) Method and system for view sharing of digital files
KR101476800B1 (ko) 파노라마 영상 기반 오브젝트 관리 장치 및 그 방법
KR20180133571A (ko) 실시간 가족행사기반 및 컨텐츠 기반 공유시스템

Legal Events

Date Code Title Description
A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20121005