JP6622308B2 - インタラクティブ双眼鏡ビデオ表示 - Google Patents

インタラクティブ双眼鏡ビデオ表示 Download PDF

Info

Publication number
JP6622308B2
JP6622308B2 JP2017530760A JP2017530760A JP6622308B2 JP 6622308 B2 JP6622308 B2 JP 6622308B2 JP 2017530760 A JP2017530760 A JP 2017530760A JP 2017530760 A JP2017530760 A JP 2017530760A JP 6622308 B2 JP6622308 B2 JP 6622308B2
Authority
JP
Japan
Prior art keywords
video
scene
mobile device
computing device
definition video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017530760A
Other languages
English (en)
Other versions
JP2018505584A (ja
Inventor
アッサヤグ,ミチェル
タイテ,シャハル
ワッセルブラット,モシェ
ライダー,トメル
ぺレグ,オレン
シヴァック,アレクサンダー
Original Assignee
インテル コーポレイション
インテル コーポレイション
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by インテル コーポレイション, インテル コーポレイション filed Critical インテル コーポレイション
Publication of JP2018505584A publication Critical patent/JP2018505584A/ja
Application granted granted Critical
Publication of JP6622308B2 publication Critical patent/JP6622308B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/4223Cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • H04N21/4312Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/45Management operations performed by the client for facilitating the reception of or the interaction with the content or administrating data related to the end-user or to the client device itself, e.g. learning user preferences for recommending movies, resolving scheduling conflicts
    • H04N21/4508Management of client data or end-user data
    • H04N21/4524Management of client data or end-user data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4722End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for requesting additional data associated with the content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6106Network physical structure; Signal processing specially adapted to the downstream path of the transmission network
    • H04N21/6131Network physical structure; Signal processing specially adapted to the downstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/61Network physical structure; Signal processing
    • H04N21/6156Network physical structure; Signal processing specially adapted to the upstream path of the transmission network
    • H04N21/6181Network physical structure; Signal processing specially adapted to the upstream path of the transmission network involving transmission via a mobile phone network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6582Data stored in the client, e.g. viewing habits, hardware capabilities, credit card number
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8126Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
    • H04N21/8133Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts specifically related to the content, e.g. biography of the actors in a movie, detailed information about an article seen in a video program

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Telephone Function (AREA)
  • Studio Devices (AREA)

Description

本明細書に説明される実施形態は、概してビデオコンテンツの捕捉及び表示に関し、詳細にはモバイルデバイスを介したビデオコンテンツのインタラクティブ表示に関する。
光学双眼鏡及び単眼鏡は、大勢の観衆の中の見学人によって、及び、見学人がパフォーマンスから大きく離れて位置する他のシナリオにおいて、広く使用されている。例えば、オペラ又は演劇の観覧者は、双眼鏡又は他の光学望遠鏡を使用して、見学されるパフォーマンスのステージ上の特別な表現又は詳細についてのより近いビューを得ることがある。同様に、スポーツイベント観覧者は、光学双眼鏡を使用して、スポーツプレーヤ又はゲームプレーについてのより近いビューを得ることがある。光学双眼鏡の別の使用法は、戸外のビューポイントにおいてであり、例えば、訪問者が景観の詳細を見るために、コインにより作動する、三脚に取り付けられた双眼鏡を使用する場所などである。しかしながら、上記及び他の光学双眼鏡の使用において、観覧者は、双眼鏡をとおして自身の視界の焦点を合わせるよう、ゆえに、双眼鏡レンズをとおして見る間はより幅広い光景を遮断するよう強制される。
結果として、代替の表示を提供し、観覧者の視点を強化するために、限られたメカニズムが開発されている。例えば、スポーツアリーナにおいて、及び大きい音楽又はダンスショーにおいて、ステージ又はプレーフィールドはしばしば、パフォーマーのズームインビデオを表示する1つ以上のビデオ画面により拡張される。しかしながら、観覧者はビデオシーンの制御を有さず、所望の人又はオブジェクトを見ることがしばしばできず、なぜならば、表示されるビデオはディレクター又はビデオプロデューサーの選択に依存するからである。
優先権の主張
本特許出願は、2014年12月23日に申請された米国特許出願第14/581,548号に対する優先の利益を主張し、上記出願はその全体を参照援用される。
図面は、必ずしも縮尺どおりに描かれておらず、図面において、同様の番号は異なる図において同様のコンポーネントを表し得る。異なる文字サフィックスを有する同様の番号は、同様のコンポーネントの異なるインスタンスを表し得る。いくつかの実施形態が、限定でなく例として下記添付図面の図に例示される。
一例に従う、モバイルデバイスを用いて表示されるインタラクティブ仮想双眼鏡ビデオ出力の使用事例を示す。 一例に従う、インタラクティブ仮想双眼鏡ビデオ出力のためのビデオ捕捉、処理、送信、及び出力デバイスの概観を示す。 一例に従う、パフォーマンスエリア内に提供される、インタラクティブ仮想双眼鏡ビデオ出力のためのビデオ捕捉及びネットワーク送信ロケーションの図を示す。 一例に従う、インタラクティブ仮想双眼鏡ビデオ出力のためのビデオ及び情報データのデータ送信図を示す。 一例に従う、モバイルデバイスにおける仮想双眼鏡ビデオ出力の再生のための方法のフローチャートを示す。 一例に従う、ビデオ処理サーバにおいて仮想双眼鏡ビデオ出力をストリーミングする方法のフローチャートを示す。 一例に従う、インタラクティブ仮想双眼鏡ビデオ出力のためのシステムのコンポーネントのブロック図を示す。 一例に従う、本明細書に論じられる手法(例えば、動作、処理、方法、及び方法論)のうち任意の1つ以上を実行できる一例示的なマシンのブロック図を示す。
下記の説明において、「仮想双眼鏡」ビデオの再生及び制御の機能性を提供するシステム、方法、及び命令を含むマシン読取可能媒体が開示され、これらは、イベントの観覧者(spectators)が人間により感知可能なイベント、景観、又は他のシーンのうち特定の強化された(enhanced)(例えば、ズームインされ及びパンされた)部分を選択し及び見ることを可能にする。この仮想双眼鏡の視点(perspective)は、スマートフォン又はタブレットなどのモバイルデバイスを使用して提供され、上記モバイルデバイスは、所望のシーンの詳細な(例えば、高品質、高精細)ビデオフィード(video feed)を受信し及び処理するよう構成される。本明細書に説明されるように、ユーザは、自身のモバイルデバイスを使用して、ビデオ再生制御を介して所望のシーンの詳細な、強化されたビデオ視点を出力することができ、ユーザは、捕捉されたビデオ表示を選択し、所望のシーンの特定パートへ向ける(例えば、パンする、ズームする、又は別の強化を適用する)ことができる。
下記の手法は、仮想双眼鏡ビデオ表示に関連してビデオ出力を捕捉し、処理し、ストリーミングし、及び表示するメカニズムを説明する。下記でさらに説明される、一例示的な構成において、見られることになるエリアの後部に位置決めされた(positioned)(例えば、コンサートホールの後ろに、スポーツフィールドの側部に、見物エリア(viewing area)の最前面(foreground)に又は最前面の近くに位置決めされた)ある数の高精細カメラが、所望のシーンのための高解像度ビデオを捕捉し、ストリーミングするように構成される。上記高精細カメラは、(静的な又は再位置決め可能なロケーションを含め)1つ又は複数の角度から位置決めされることができる。それから、高精細カメラは、それぞれのビデオストリームを中央サーバに提供し、中央サーバはビデオを受信し、ビデオを処理して仮想双眼鏡観覧者のための異なるストリームにする。それから、ロケーション識別手法が使用されて、特定のビデオストリームを特定のモバイルデバイスに相関させる(correlate)ことができる。上記ビデオストリームは、それから、モバイルデバイスに対する出力のためにさらに処理され、強化され(パンされ、切り取られ、ズームインされ)、精緻化されてもよい。
仮想双眼鏡ビデオ表示を提供し及び制御するための、本明細書に説明される手法は、さらなる処理及び表示手法の使用で強化することができる。例えば、拡張現実コンテンツが、モバイルデバイスにより表示される仮想双眼鏡ビデオのレイヤとして追加されてもよい。様々なロケーション及び活動検出メカニズムを使用して、有用なオーバーレイ、広告コマーシャル、及び同様の情報を仮想双眼鏡ビデオ表示に関連して提供することができる。別の例として、ユーザフィードバック及びデータが、ビデオストリームフィードの使用から収集され、ビデオフィード又はビデオ動作の向上のために管理者により監視されてもよい。さらに、使用法情報がアーティスト又はショーオペレータに送られて、根底のパフォーマンスに対する変更を結果としてもたらす可能性がある。
観覧者からのズームインされ焦点合わせされた表示を提供する既存の手法は、光学的及び電子的ズーミングメカニズムの使用に一般に限定される。例えば、いくつかの既存のスマートフォン及びタブレットモバイルデバイスは、ズームするための限られた光学レンズと、モバイルデバイスにおける直接のデジタルズーミング強化とを提供する。しかしながら、こうしたデバイスの光学ズーム能力は、典型的にかなり限定され(例えば、5x未満)、モバイルデバイスから捕捉されたビデオ又はピクチャの品質は、特に低光量設定において、大きく損なわれることがある。光学望遠鏡(例えば、双眼望遠鏡又は単眼望遠鏡など)の使用は、前に論じられたとおり、所望のシーンの一部分についてのズームインされ及び詳細化された視点をユーザに提供することができる。しかしながら、こうした双眼鏡又は単眼鏡は、ユーザにより別個に運ばれなければならず、ユーザの目の近くに置かれなければならない。ゆえに、光学デバイスの個人使用は、ズームアウトされた視点でシーン全体を把握するか、又はもっぱらズームインされた視点でシーンの部分を把握するかをユーザが選ぶことを必要とする。
本明細書に説明されるデジタルビデオ処理、送信、及び表示手法は、関連ビデオソースの選択及び出力に関連付けられた上記及び他の技術的問題を克服する。さらに、本明細書に説明される仮想双眼鏡ビデオ表示手法の使用は、ユーザの視点から可能でない追加の視点及びビューを提供することができる。例えば、シーンの一部が、ユーザの前に位置する観覧者又は妨害物により隠される場合、再位置決めされた(repositioned)カメラから取得される視点が、上記シーンのための妨げられていない視点及びビデオ出力を可能にすることができる。本願に説明される仮想双眼鏡ビデオ表示をとおして提供されるビデオ出力は、こうした強化された又は妨げられていないビューを提供すると同時に、より現実的な及び正確な出力のためにロケーションベースの情報の恩恵を利用することができる。
図1は、本明細書に説明される例示的手法に従い提供される、インタラクティブ仮想双眼鏡ビデオ出力の使用事例の例示100を提供する。図1におけるビデオ出力は、景観の一部分(例示されるとおり、ゴールデンゲートブリッジの一部分)のクローズアップ視点を有する表示を提供する。この例において、ビデオ出力は、景観を見渡せるビューポイントにおいて取られたビデオ捕捉を用いて調整される。
図示されるとおり、ユーザ110は、モバイルデバイス120(例えば、スマートフォン)をユーザの視野内で、例えばユーザ110の前に(ユーザ110と関心のあるエリアとの間に)デバイスを保持することにより、操作する。例えば、ユーザが、あるシーンにおけるビデオ撮影された(videoed)オブジェクト140の一部分、ここでは橋の一部分を見たいと仮定する。ビデオ表示130は、ビデオ撮影されたオブジェクト140(橋)の一部分の強化されたズームインされた視点を、モバイルデバイス120上で出力されるライブの(live)ビデオ表示内における関心のあるエリア(関心エリア)の拡大された部分の出力をとおして提供する。
図1に表される仮想双眼鏡ビデオ表示の使用事例は、1つ又は複数のカメラを伴うことがあり、上記カメラは、モバイルデバイス120から離れるビューの方向(direction of view)において、あるシーン内の関心エリアを向いて該シーンを捕捉する。例えば、1つのカメラが、複数の観覧者に対するビューポイントにおいて中央のロケーションに位置決めされることができ、このビューポイントからのビデオは、デジタルビデオコンテンツの1つ以上のストリームをそれぞれのモバイルデバイスに提供するように構成されることができる。別の例において、複数のカメラが、ビューポイントにおいて、複数の観覧者に対して異なるロケーションに位置決めされてもよい。(例えば、複数のカメラがビューポイントにおいて種々の位置のあらゆるロケーションに位置して、ビデオ撮影されるオブジェクト140に対する見る人の角度に依存して、又は見る人が面しているより正確な方向に依存して、異なるカメラビュー及び視点を可能にすることができる。)複数のカメラの展開について、本明細書にさらに論じられるロケーション決定手法を使用して、いずれのカメラビュー(及び、いずれのカメラ視点)を仮想双眼鏡ビデオ表示における使用のために選択し及び送信すべきかを決定することができる。本明細書にさらに論じられるロケーション決定及びイメージ認識手法をさらに使用して、ビデオ撮影されるオブジェクト140に対するモバイルデバイス120の位置及び向き(orientation)のインタラクティブな制御及びマッチングを提供することができ、このことは、異なるカメラビューの選択;カメラビューから捕捉されたビデオ出力の切り取り、スケーリング、ズーミング、回転、パンニング、又はその他の強化(又は変更);又は、ユーザ110のモバイルデバイス120とのインタラクションから双眼鏡の使用を模倣する他の手法を伴うことがある。
図2は、一例に従う、インタラクティブ仮想双眼鏡ビデオ出力のビデオ捕捉、処理、送信、及び出力で使用される様々な電子デバイスを表すシステム図200を例示する。図示されるとおり、人間のユーザそれぞれにより操作される複数のデジタルモバイルデバイス210A、210B、210C(例えば、スマートフォン)が電子接続を確立して、ストリーミングサーバ230から提供されるビデオを受信する。例示されるとおり、上記電子接続は、Wi−Fi(登録商標)ブロードキャスティングアクセスポイント240A、240B、240Cを介して(例えば、IEEE802.11a/b/g/n/ac/ad/af、又はIEEE802.11標準に対する後続の改正などのIEEE802.11標準に準拠した無線ローカルエリアネットワークを動作させるWi−Fiアクセスポイントについて)無線ネットワーク接続を用いて提供される。
ストリーミングサーバ230は、それぞれの超高精細(ultra high definition)(UHD)カメラ220A、220B、220Cから取得されるそれぞれのビデオストリームを提供するように動作し、上記UHDカメラは、例えば、4K UHD(例えば、4096画素×2160ライン)又は8K UHD(例えば、7680画素×4320ライン)フォーマットにおいてビデオを捕捉するように構成されたカメラなどである。いくつかの例において、ストリーミングサーバ230は、アクセスポイント240A、240B、240Cを介して各Wi−Fiネットワークにおいて共通のビデオストリームを提供し、特定のカメラからのそれぞれのビデオストリームを複数の接続されたデバイスに、それぞれのWi−Fiアクセスポイント上で(又は、複数のWi−Fiアクセスポイントについて)マルチキャストするように動作する。他の例において、ストリーミングサーバ230は、個々のビデオストリームを、個々のビデオストリーム内のコンテンツが個々の接続されたデバイスに対してカスタマイズされた状態で提供するように動作する。ストリーミングサーバ230は、モバイルデバイス210A、210B、210Cに対するビデオストリームの無線送信に関連してストリーミング、キャスティング(casting)、及びビデオ供給手法の任意の組み合わせを利用できることが理解されるであろう。
図2にさらに示されるとおり、ストリーミングサーバ230は、監視及び拡張現実ステーション250として識別される管理ステーションにさらに接続される。例えば、監視及び拡張現実ステーション250は、UHDカメラ220A、220B、220Cから取得されるビデオストリーム及びビデオコンテンツの、人間により支援され又は自動化された監視及び制御に使用することができ、上記監視及び制御には、カメラからのビデオフィードの切り換え、強化、及び終了又は再開が含まれる。監視及び拡張現実ステーション250はさらに、人間により支援され又は自動化された、ビデオストリームへの拡張現実コンテンツの生成及びオーバーレイに関連して使用することができる。
さらなる例において、監視及び拡張現実ステーション250に関連して供給される拡張現実コンテンツは、さらなるコンテンツ、情報、又はメタデータを含むことができる。例えば、こうしたコンテンツには、ビデオ出力上の字幕としてオーバーレイされたパフォーマー又はオブジェクトの識別(例えば、ミュージシャン又はアスリートの名前など)を含んでもよい。人、オブジェクト、マーカなどの識別に基づいてコンテンツの追加及び提示を可能にする任意数の拡張現実手法が、モバイルデバイス210A、210B、210C上の仮想双眼鏡ビデオ表示内に自動的に適用されてよい(あるいは、管理者又はエンドユーザの、人間の制御を用いて適用されてもよい)。
例えば、拡張現実コンテンツは、ユーザにより適用される特定ズームレベルに従ってカスタマイズされ、仮想双眼鏡ビデオ表示の中に表示されることができる。こうした例において、特定の特徴にズームインするとき(又は、特定の特徴がモバイルデバイス画面内でかなり目に見えるとき)のみ、ある拡張現実コンテンツが追加され、表示されて、特定の特徴がビデオ表示の中でより目立つようになるときに該特徴に対するさらなる情報を提供してもよい。同様に、ビデオストリームの中でズームアウトし又は複数オブジェクトにパンするとき、拡張現実コンテンツは除去され、あるいは切り替えられてもよい。
さらなる例において、それぞれのデバイス210A、210B、210Cにおける仮想双眼鏡ビデオ出力は、観覧者のロケーションと観覧者のモバイルデバイス210A、210B、210Cのロケーション及び向きとに従ってカスタマイズされることができる。観覧者のモバイルデバイス210A、210B、210Cの近似ロケーションは、例えば、アクセスポイントの既知のレイアウト内の特定のWi−Fiアクセスポイント240A、240B、240Cに対する接続によって導出することができる。他の例において、観覧者のモバイルデバイス210A、210B、210Cの近似ロケーションは、1つ以上のアクセスポイントに対する信号強度、又は、複数のWi−Fiアクセスポイント240A、240B、240Cから受信される信号若しくは情報の比較と共に適用される三角測量若しくは三辺測量によって導出されてもよい。他の例において、観覧者の近似ロケーションは、Bluetooth(登録商標)低エネルギービーコン、RFIDタグ、又は他の一時的若しくは永続的ロケーションマーカに関連して決定することができる。
さらなる例において、捕捉されるシーンに対する観覧者のロケーションは、ロケーション決定の組み合わせに関連して(例えば、Wi−Fiアクセスポイント240A、240B、240Cから)、及び、観覧者のロケーションにおいてモバイルデバイスにより直接捕捉されるビデオ又は静止画内に観察されるロケーションマーカの検出から、決定することができる。例えば、観覧者に対して遠位に位置決めされたモバイルデバイス210A、210B、210Cのカメラ(例えば、モバイルデバイス210A、210B、210Cは観覧者と見学されるオブジェクトとの間に位置する)は、その視野のイメージを捕捉することができる。このイメージは、いくつかのロケーションマーカを捕捉することができ、該ロケーションマーカは、例えば、ステージに、特定のパフォーマーの近くに、スポーツアリーナの定義されたエリアに、などに置かれたマーカなどである。それから、マーカは検出され、観覧者の特定の視点を視野内の(及び、観覧者のための定義された見学エリア内の)関心エリアに相関させることに使用することができる。可視のマーカのデジタルイメージが、ある時間間隔で、デバイスのあらゆる動きの後(又は、一連の動きの後)に、などで連続的に捕捉され、処理されてもよい。マーカデジタルイメージの処理及びロケーション調整は、モバイルデバイス210A、210B、210Cにおいて、又はサーバのロケーション処理コンポーネントにおいて実行することができる。
図3は、一例に従う、パフォーマンスエリアのビデオのために提供されるインタラクティブ仮想双眼鏡ビデオ出力のためのビデオ捕捉及びネットワーク送信ロケーションのシステム図300の例示を提供する。システム図300において、パフォーマンスエリア310(例えば、音楽、演劇、又は他のパフォーマンスのためのステージ)は、例えば、ステージの角部に位置決めされた複数のステージマーカ311、312、313、312を用いて識別される。
パフォーマンスエリア310の前に、3つの座席セクション350、360、370が観覧者の観衆について定義される。これら3つの座席セクション350、360、370は、座席セクション内に又は座席セクションに近接して(例えば、後ろに、前に)位置する3つのUHDビデオカメラ320A、320B、320Cにそれぞれ対応する。UHDビデオカメラ320A、320B、320Cは、例えば、3つの座席セクション350、360、370内の観覧者の観衆による妨害を経験することなく、パフォーマンスエリア310に対する視線(line of sight)内に位置決めされることができる。
3つの座席セクション350、360、370の各々には、複数のWi−Fiアクセスポイントがさらに位置する。例えば、座席セクション350はWi−Fiアクセスポイント351、352、353を含み、座席セクション360はWi−Fiアクセスポイント361、362、363を含み、座席セクション370はWi−Fiアクセスポイント371、372、373を含む。それぞれのWi−Fiアクセスポイントは、重なったカバレッジ範囲を有することがあり、しかし一般に、UHDビデオカメラに関連付けられた特定の座席セクション内のユーザに対して最も強い信号(及び、最も可能性のあるカバレッジ及びネットワーク接続)を提供するように位置する。そのようなものとして、特定モバイルデバイスのロケーションは、既知の座席セクション内に位置する既知のWi−Fiアクセスポイントに対するモバイルデバイスの接続に基づいて決定することができる。
ストリーミングサーバ330は、座席セクション350、360、又は370内の観覧者のモバイルデバイスのロケーションと、それぞれのWi−Fiアクセスポイントに対する観覧者のモバイルデバイスの接続とに基づいて、様々なWi−Fiアクセスポイントに接続された観覧者に対してそれぞれのビデオカメラからのビデオを提供するように構成される。例えば、モバイルデバイスのロケーションに対するWi−Fiアクセスポイント名又はサービスセット識別子(SSID)の相関を使用して、Wi−Fiアクセスポイントのカバレッジエリア内に又は該カバレッジエリアに隣接して位置決めされた関連カメラ(例えば、座席又は見物エリアに対応するカメラなど)を選択することができる。したがって、モバイルデバイスがアクセスする特定のWi−Fiアクセスポイントは、観覧者のロケーションの大まかな近似を提供することができ、ゆえに、上記特定のWi−Fiアクセスポイントを使用して、UHDビデオカメラからの適切なビデオフィードを選択してモバイルデバイスにストリーミングすることができる。いくつかの例において、特定のUHDビデオカメラ及び高精細ビデオストリームが、それぞれのWi−Fiアクセスポイントの接続に従って自動的に決定され、開始されることができる。
図示されるとおり、パフォーマンスエリア310は、ステージの外周に位置する一連の赤外線(IR)マーカ311、312、313、314(例えば、赤外光)を含む。これらマーカ311、312、313、314は、仮想双眼鏡ビデオ表示のさらなるロケーション及び再位置決めに関連して使用されて、モバイルデバイスの位置及び3次元の向きに対して観覧者の所望のビデオパンニング及びズームレベルをマッチさせることができる。例えば、マーカがモバイルデバイスにより検出されて、観覧者に対する視野と、モバイルデバイスの(例えば、空中における、観覧者の前に保持されている)特定の向き(例えば、姿勢)とに基づいて、高精細ビデオストリームを自動的にパンし、あるいはズームすることができる。したがって、高精細ビデオストリームの自動的なパン及びズームを使用して、観覧者の視野及び人間に把握される環境にマッチし又はかなり似ている「双眼鏡」効果を効果的にエミュレートすることができる。
さらなる例において、マーカ311、312、313、314は、IRを利用する必要はなく、他の色付けされたマーカ、バーコード若しくはQRコード(登録商標)、又はモバイルデバイスにより認識可能である他の人間若しくはマシン検出可能マーカ若しくはオブジェクトを含んでもよい。したがって、様々な再位置決め、ズーム、パンニング、及びビデオ強化又は修正手法が、ビデオストリームに対して自動的に(又は、手動制御を支援するように)発生してもよい。他の例において、他のマシンツーマシン通信及びオブジェクト検出手法(顔の検出を含む)を使用して、所望のビデオ出力に対するモバイルデバイスの向きと、ビデオストリームに対しての対応するズーミング、パンニング、及び他の修正とを調整することができる。例えば、モバイルデバイスが、人間輪郭描画又は顔検出手法を利用して、人間の人(例えば、特定のミュージシャン)があるシーン内に位置することを識別することができ、付随する高精細ビデオストリームは、上記特定の人に対してズームされ、中心合わせされる(centered)ことができる。
いくつかの例において、UHDビデオカメラ320A、320B、320Cは、一時的又は永続的に固定された位置に位置して、複数のユーザが共通に置かれたビデオフィードにアクセスすることを可能にする。他の例において、UHDビデオカメラ320A、320B、320Cのうち1つ以上が、管理者のコマンドの結果として、又は観覧者のフィードバック又は制御に関連して、再位置決めされてもよい。例えば、UHDビデオカメラ320A、320B、320Cの位置決めは、パフォーマンスエリア310に対するモバイルデバイスの相対的ロケーション、観衆見物エリアの区別可能エリア内に位置する観覧者の数、ビデオストリームの部分を見る又は選択することを伴うユーザ活動などに基づいて変更することができる。UHDビデオカメラ320A、320B、320Cの再位置決めのイベント内で、ビデオストリーム及びモバイルデバイス上のビデオの表示を修正するように、適応的な処理が発生してもよい。
さらなる例において、仮想双眼鏡ビデオ出力は、観覧者の活動と観覧者のモバイルデバイスとのインタラクションとに基づいてさらにカスタマイズ可能である。例えば、仮想双眼鏡ビデオ出力は、ズームする観覧者により要求されたズーミング倍数に対してカスタマイズされることができる。したがって、観覧者は、モバイルデバイスを用いて仮想ズーミング体験を得ることができると同時に、リアルタイムのイベントを同時に把握することができる。他の例において、ユーザは、関心エリアの視点を他のロケーションから切り換えて、例えば、別の観覧者の角度又は座席エリアの側部から関心エリアを見たいことがある。様々なユーザインターフェースコマンドが観覧者に提示されて、異なるUHDビデオカメラ及び視点におけるフィード間での切り換えを可能にすることができる。いくつかの例において、ビデオのズーミング、パンニング、切り取り、又は他の表示修正がモバイルデバイス上で実行されて、複数のユーザに対するビデオストリームブロードキャストに対して表示修正を行うことができる。他の例において、ビデオのズーミング、パンニング、切り取り、又は他の表示修正がサーバ側で実行されて、1又は限られた数のユーザに対してカスタマイズされた、ビデオストリームに対する表示修正を行うことができる。
図4は、一例に従う、インタラクティブ仮想双眼鏡ビデオ出力のためのビデオ及び情報データのデータ送信図400を例示する。図示されるとおり、モバイルデバイス410は、Wi−Fiアクセスポイント430に接続してオーディオ/ビデオデータストリーム432を(例えば、上記で図3を参照して説明されたWi−Fiビデオストリーミング手法を用いて)受信することができる。いくつかの例において、オーディオ/ビデオデータストリーム432は、オーディオコンテンツなしのビデオ又はイメージベースコンテンツをもっぱら提供する。
それぞれのモバイルデバイスに対するオーディオ/ビデオデータストリーム432の送信は、個々のデータ接続、ユーザのグループに対するデータ接続、ビデオデータストリームのマルチキャスト及びブロードキャストなどに関連して発生し得る。オーディオ/ビデオデータストリーム432には、コンテンツ情報データ424の受信が付随することがあり、コンテンツ情報データ424は、例えば、拡張現実情報コンテンツ、促進及び広告情報、又は内部サーバから若しくはインターネットベースのソースから取得される同様の情報などである。モバイルデバイス410は、それから、オーディオ/ビデオデータストリーム432及びコンテンツ情報データ424(拡張現実視点におけるコンテンツ情報データ424のオーバーレイを含む)を出力することができる。
オーディオ/ビデオデータストリーム432には、ロケーションデータ422の受信がさらに付随することがある。ロケーションデータ422は、モバイルデバイス410上で出力されるビデオコンテンツの視点を変更するように選択肢を提供するためのデータの使用を含め、オーディオ/ビデオデータストリーム432の出力を表示すること又は制御することに使用される固有情報を提供することができる。さらに、ロケーションデータ442は、Bluetooth低エネルギー(BLE)ビーコン440又は同様の近距離通信(NFC)デバイスに関連して提供されてもよい。例えば、上記ビーコン/NFCデバイスからの情報が、特定のロケーションでの識別子を調整する(ローカルに又はリモートで動作する)ロケーションサービスと共に使用され、上記識別子が、モバイルデバイス410上で表示されるビデオストリームを制御すること又は該ビデオストリームに影響を与えることに使用されることができる。例えば、ビーコン440上の情報が使用されて、特定のモバイルデバイスのための固有のビデオフィード又はビデオ視点を識別することができる。
図4に表される例において、オーディオ/ビデオコンテンツのストリームはさらに、マルチキャストオーディオ/ビデオデータストリーム426に関連して受信されることができる。例えば、マルチキャストオーディオ/ビデオデータストリーム426は、複数のモバイルデバイスユーザに対してブロードキャストされる、無線ワイドエリアネットワーク420を介したコンテンツのマルチユーザブロードキャスト手法から提供されてもよく、無線ワイドエリアネットワーク420は、例えば、ロングタームエボリューション(LTE)又は別の3G/4Gセルラーデータネットワークなどである。図4にさらに示されるとおり、モバイルデバイス410は、無線ワイドエリアネットワーク420に関連してコンテンツ情報データ424及びロケーションデータ422をさらに受信することができる。例えば、無線ワイドエリアネットワーク420を通じてインターネット接続を介してモバイルデバイス410により取得される情報が使用されて、Wi−Fiアクセスポイント430からのビデオストリームの表示及び再生を補足してもよい。
ビデオストリームの表示に関連して使用されるデータ処理は、クライアント側処理及びサーバ側処理の多くの可能性を含み得る。例えば、数千人のユーザが仮想双眼鏡ビデオ表示を利用しようと試みることがある大規模環境において、これらユーザの各々が処理のためにサーバにデータ(例えば、ロケーション識別子、又は、マーカを含むカメラからの静止画)を通信して返すことは実現可能でない可能性がある。こうした環境において、各個々のデバイスが、ユーザのロケーションを決定し、それからモバイルデバイスのロケーションと高精細ビデオストリームに適用すべき適切なズーム、パンニング、及び視点強化との間の調整を実行するように構成されてもよい。
さらなる例として、サーバにアップロードされるデータの量を低減するために、高品質の、高解像度のビデオストリームが、1回にユーザの大きいグループ(又は、さらにはすべてのユーザ)にブロードキャストされ、マルチキャストされることができる。ビデオ表示パラメータに対するロケーション情報の調整がクライアント側で発生し、個々のデバイスが特定の視点を決定して仮想双眼鏡ビデオ表示にレンダリングすることができる。例えば、イメージ捕捉及び認識(ロケーションマーカ、特定オブジェクト、又は人についての認識を含む)が使用されて、大きいビデオストリームの表示をビデオストリームの選択強化された部分(例えば、パンされ、ズームインされている)のみに再方向付けし(reorient)てもよい。
仮想双眼鏡ビデオ表示の使用は、特別目的ソフトウェア、ハードウェア、及び周辺装置に関連して提供されることができる。例えば、仮想双眼鏡ビデオ表示に関連付けられた機能性は、対象パフォーマンスの前又は間にモバイルデバイス上にインストール可能な専用ソフトウェアアプリケーション(例えば、モバイルアプリ)に関連して提供されてもよい。上記ソフトウェアアプリケーションは、ビデオストリームを調整し、視点情報のためにカメラにアクセスするのに使用することができる。仮想双眼鏡ビデオ表示に関連付けられた機能性はさらに、通信プログラムの一部として組み込まれてもよく、上記通信プログラムは、例えば、インスタントメッセージ、チャット、又はビデオ会議開催プログラムなどである。他の例において、仮想双眼鏡ビデオ表示に関連付けられた機能性は、モバイルデバイスのオペレーティングシステム機能性に組み込まれてもよい。
図5は、一例に従う、モバイルデバイスにおける仮想双眼鏡ビデオ出力のための再生の方法のフローチャート500を例示する。上記方法動作は、ロケーションベースの動作を含んで、モバイルデバイスのロケーションを決定し(動作510)、モバイルデバイスのロケーションを特定のビデオストリームに相関させる(動作520)ことができる。例えば、ロケーションベースの動作は、特定のWi−Fiアクセスポイントの識別、又は、リモートサーバへのビーコン又はRFIDタグ識別子の提供に関連して実行されてもよい。ロケーション情報は、関心のあるロケーション又はエリアからの視点に相関した特定のビデオストリームを要求するのに使用することができる。上記要求に応答して、特定のビデオストリームが無線でモバイルデバイスに対して送信される(及び、該モバイルデバイスにおいて受信される)ことができる(動作530)。
モバイルデバイスからの視点にマッチさせるための、ビデオストリームからのビデオ出力の位置決め並びにパンニング、ズーミング、及び再方向付けは、ロケーション識別、イメージマッチング、又はモバイルデバイスのロケーション(及び、ユーザ視点)をビデオストリームの部分に相関させるための他の手法に関連して発生し得る。例えば、モバイルデバイスは動作を実行して、関心のあるオブジェクト又はエリアの近くの可視である特定のマーカを識別し(動作540)、検出された関心のあるオブジェクト又はエリアをビデオストリームの選択部分に相関させる(動作550)ことができる。検出された関心のあるオブジェクト又はエリアが使用されて、ビデオストリームの表示出力を中心合わせし、パンし、ズームし、あるいはその他の方法で修正することができ、例えば、モバイルデバイス上にビデオストリームの選択部分のみ表示することなどができる(動作560)。
フローチャート500にさらに例示されるとおり、(例えば、拡張現実コンテンツの)情報オーバーレイなどのさらなる情報がモバイルデバイスに提供され、表示されることができる(動作570)。例えば、情報オーバーレイは、特定の人、オブジェクト、又はシーン内でズームされる及び特定の人、オブジェクト、又はシーンに対してパンされるビデオ表示の選択部分の上に置かれてもよい。
図6は、仮想双眼鏡ビデオ出力に関連してビデオをストリーミングする方法のフローチャート600を例示し、上記方法は、ビデオ処理サーバにおいて実行される動作を用いて行われる。フローチャート600の動作は、単一のサーバにおいて、クラウドベース若しくは分散型のサーバにおいて、又はビデオ処理機能性のための複数のコンピューティングデバイス若しくはプラットフォームの調整をとおして発生し得ることが理解されるであろう。
例示されるとおり、上記方法動作は、特定のビデオストリームの選択のためのロケーションベースの動作を含む。上記選択は、ビデオストリームの要求の受信(動作610)とモバイルデバイスのロケーション情報の受信(動作620)とで取得されるデータから実行されることができる。ロケーション情報に基づいて、モバイルデバイスのロケーションが決定され、選択ビデオストリームに相関させられる(動作630)ことができ、この選択ビデオストリームは、モバイルデバイスのロケーションにおけるユーザの視野内に位置する。選択ビデオストリームは、それから、出力のためにモバイルデバイスに送信されることができる(動作640)。
さらに、情報オーバーレイが、ビデオストリームに関連して生成され、作り出されることができる。例えば、サーバが、ビデオストリームの選択部分に関するさらなるロケーション又は視覚情報(例えば、ロケーションマーカからの識別子)を受信することができ(動作650)、上記選択部分は、例えば、選択ビデオストリームの強化されたズームインされた、パンされた部分などである。上記ロケーション情報から、拡張現実ラベル及び識別情報などの情報オーバーレイが、表示されるビデオストリームの選択部分について生成されることができる(動作660)。この情報オーバーレイは、モバイルデバイスに送信されて(動作670)、例えば、表示されるビデオストリームの上のレイヤとしてモバイルデバイス上で出力されることができる。
図7は、一例に従う、インタラクティブ仮想双眼鏡ビデオ出力のための電子システムのコンポーネントのブロック図を例示する。図示されるとおり、電子システムは、一組の無線アクセスポイント及びネットワーキングデバイス740をとおしてビデオストリーミングサーバ730に電子的に接続されたモバイルコンピューティングデバイス710を含むものとして例示される。ビデオストリーミングサーバ730は、カメラ制御サーバ750、管理デバイス760、及びカメラビデオソース770と電子通信することができる。電子システムはさらに、ロケーションマーカ780を含み、あるいはロケーションマーカ780に関連して動作することができる。電子システムの動作は、さらなるコンピューティングデバイス、サーバ、及びネットワーキング設備と、電子システム内で動作するコンポーネント間の代替的なネットワーキング接続とを含んでもよいことが理解されるであろう。
図示されるとおり、モバイルコンピューティングデバイス710(例えば、スマートフォン又はタブレット)には、無線アクセスポイント及びネットワーキングデバイス740のうち1つ以上を介してビデオストリーミングサーバ730から受信されるビデオストリームの処理を実行するのに使用される一連のモジュール(例えば、ソフトウェア、ハードウェア、又はソフトウェアにより構成されるハードウェア)が含まれる。モバイルコンピューティングデバイスのモジュールには、ユーザインタラクションモジュール712、ビデオ処理モジュール716、モーション処理モジュール718、表示モジュール720、及び無線ネットワーキングモジュール722が含まれる。モバイルコンピューティングデバイス710は、カメラ714及び関連付けられたカメライメージ捕捉モジュールと、ジェスチャを受け取るように構成されたタッチディスプレイスクリーンなどの表示画面とをさらに含むことができる。
ユーザインタラクションモジュール712は、ユーザコマンドを受信して、モバイルコンピューティングデバイス710上のビデオ表示出力内に提供されるインタラクティブビデオフィードを選択し、開始し、又は停止するように構成されることができる。ユーザインタラクションモジュール712は、表示モジュール720におけるビデオ表示出力を制御するためのインタラクション及びコマンドを受信する機能を含むことができ、上記インタラクション及びコマンドには、ビデオをパンすること及びズームすること(タッチスクリーンジェスチャの使用をとおしてを含む)、分割画面ビューを提供すること、及び特定の人又はオブジェクトに対してビデオ表示をロックし又はフリーズすることなどのためのインタラクション及びコマンドを含むことができる。
表示モジュール720は、モバイルコンピューティングデバイスが向けられ又は面している視野内の特定部分のためのビデオを表示するように構成されることができる。例えば、視野内の特定部分は、モバイルコンピューティングデバイス710の視点からローカルカメライメージを捕捉するのに使用されるカメラ714の使用に関連して、及び、ローカルカメライメージのビデオストリームとの相関に関連して、決定されることができる。
ビデオ処理モジュール716は、ビデオストリームを受信し、ローカルカメライメージとの相関を決定し、ビデオのためのズーミング、パンニング、及び他の強化効果を実施し、表示モジュール720に出力を提供するように構成されることができる。モーション処理モジュール718は、ズームされた/パンされたビデオの表示を適応させるように構成されることができ、このことには、観察されたロケーションマーカに対するモバイルコンピューティングデバイスの動き及びモーション入力を処理することと、加速度計及びジャイロスコープ並びに他のメカニズムにより検出されるようなモバイルコンピューティングデバイスの動きを処理することとが含まれる。モーション処理モジュール718は、ビデオ処理モジュール716及び表示モジュール720に関連して動作して、モバイルコンピューティングデバイスがユーザにより移動され及び再位置決めされるときにビデオ表示に対するインタラクティブな変更を可能にすることができる。
モバイルコンピューティングデバイス710の無線ネットワーキングモジュール722は、無線ネットワークを介したビデオストリームの受信について、無線ネットワークとの接続を確立し及び管理する機能性を含むことができる。無線ネットワーキングモジュール722はさらに、例えば、受信される(1つ以上の)Wi−Fi信号のセット及び品質を報告することをとおして、又は、モバイルコンピューティングデバイスの近似ロケーションを計算するサーバに生データ(又は、カメライメージ)を提供することにより、見物又は座席エリア内のモバイルコンピューティングデバイス710の近似ロケーションを示す機能性を提供することができる。
図示されるとおり、ビデオストリーミングサーバ730は、それぞれのモバイルコンピューティングデバイスに対するビデオストリームの処理及び提供を実行するのに使用される一連のモジュール(例えば、ソフトウェア、ハードウェア、又はソフトウェアにより構成されるハードウェア)を含む。ビデオストリーミングサーバ730のモジュールには、ビデオ処理モジュール732、ロケーション処理モジュール734、ビデオコンテンツモジュール736、及びビデオストリーム送信モジュール738を含むことができる。ビデオストリーミングサーバ730は、ビデオソース770から種々のビデオストリームを受信し、(モバイルコンピューティングデバイスのロケーションとモバイルコンピューティングデバイスの観ている角度とに基づいて)モバイルコンピューティングデバイスの各々に対して最も適切なストリームを割り振る。
ビデオ処理モジュール732は、複数のビデオストリームを受信し及び処理し、モバイルコンピューティングデバイス710のロケーション、デバイス特性、又はインタラクションに従って最も適切なビデオストリームを割り振るのに使用されることができる。ビデオ処理モジュール732は、ロケーション処理モジュール734に関連して動作することができる。ロケーション処理モジュール734は、マッピングされた又は既知の環境内の特定の(1つ又は複数の)モバイルコンピューティングデバイスのロケーションを取得し、特定のビデオフィードに対して相関させるのに使用されることができる。ロケーション処理モジュール734はさらに、一般ロケーション情報、又は特定のビデオフィードのためのロケーション依存表示設定をモバイルコンピューティングデバイス710に提供するのに使用されることができる。
ビデオコンテンツモジュール736は、拡張現実又は他のコンテンツオーバーレイ手法に関連してさらなるコンテンツを提供することができる。例えば、ビデオコンテンツモジュール736は、ビデオフィード内に表されるオブジェクト及び人のさらなるメタデータレイヤを提供するのに使用されることができる。上記メタデータレイヤには、字幕、歌詞、及びパフォーマー又はアスリート情報などの情報を含むことができる。
ビデオストリーム送信モジュール738は、それぞれのビデオストリーム(及び、ビデオのための付随するブロードキャスト手法)と付随する拡張されたビデオ情報とを、1つ以上のストリーミングフォーマット及びコーデックにおいて提供するように適合されることができる。ビデオストリーミング送信モジュール738はさらに、ビデオフィードの使用情報を収集することができ、上記使用情報は、アーティスト及びショーオペレータなどにより処理され、利用される。
さらなる例において、ビデオストリーミングサーバ730は、特定のデバイス又はユーザのための支払いされ又は制御されたアクセスコンテンツを提供するのに使用されることができる。ビデオストリーミングサーバ730はさらに、仮想双眼鏡ビデオ出力のサービスベースのオファーのための加入機能及び請求書送付に統合されてもよい。さらに、ビデオストリーミングサーバ730は、暗号化されたビデオフィードを提供することができ、これにおいて加入ユーザは、復号鍵を用いてブロードキャストビデオストリームにアクセスする。
無線アクセスポイント及びネットワーキングデバイス740には、それぞれのモバイルコンピューティングデバイスとの無線ネットワーキング接続を確立するように構成された様々なWi−Fi送信設備及びデバイスを含むことができる。いくつかの例において、無線アクセスポイントは、すべての観覧者デバイスが少なくとも1つのアクセスポイントの範囲内であるように、及び、約20Mbpsのダウンロードストリーミングのための信号の品質を可能にするように、ロケーション内に配置されることができる。
システムの他のコンポーネントは、ビデオストリーミングサーバ730により送信されるビデオ出力のさらなる制御及びカスタマイズを可能にする。例えば、カメラ制御サーバ750は、管理者、パフォーマー、又はビデオソース770の外部制御(outside control)(再位置決めを含む)のためのさらなる機能性を含むことができる。管理デバイス760は、システム使用及び動作についての管理者監視及び制御のための機能性を含むことができる。さらなる例において、ビデオストリームのための、固有制御によりオーバーレイされたコンテンツが、管理デバイス760の使用をとおして含まれ、修正されてもよい。
ビデオソース770には、1つ又は複数のビデオカメラ、例えばUHDビデオカメラなどを含むことができる。ビデオソースは、ショー又はパフォーマンス空間のかなり後ろからビデオを捕捉し、ビデオストリームをビデオストリーミングサーバ730に送信するように配置されることができる。ビデオソースの数は、劇場のサイズに依存してもよく、カメラの数とカメラ視点とを増加させることは、観覧者体験をより現実的にする可能性がある。しかしながら、いくつかの設定、例えば戸外のビューポイントなどにおいて、ビデオストリームを生成するのに1つのカメラが使用されてもよい。いくつかの例において、例えば、より低い解像度、帯域幅、又は処理能力を有する表示デバイスにビデオを提供するとき、標準定義(standard definition)又はサブHDビデオカメラが使用されてもよい。
ロケーションマーカ780は、赤外線マーカ、電子ビーコン、人間若しくはマシンにより読取可能な識別子、又は他タイプの検出可能オブジェクトとして実施されることができる。例えば、一組の赤外線マーカがステージ又はパフォーマンスエリアのまわりに位置決めされて、人間の目に不可視であるがすべてのスマートフォンカメラに可視である光を作り出してもよい。また、上記で論じられたとおり、ロケーションマーカ780の使用がモバイルコンピューティングデバイス710の動作により置換され又は補足されて、内蔵カメラのイメージとブロードキャストされたビデオとの間で相関させ、示されるイメージを整合させることができる。
本明細書に説明される例の多くは、コンサート、スポーツイベント、及び同様のパフォーマンスなどにおけるモバイルデバイス、カメラ、及びビデオストリーミングの使用を参照するが、これらビデオ手法の適用性は、長距離のオブジェクトについてのカメラ視点が人間のユーザに対して伝達され得る任意数の設定に適用されてよいことが理解されるであろう。例の多くは、本明細書においてスマートフォンなどのモバイルデバイスを参照して提供されたが、仮想双眼鏡手法は、他タイプのコンピュータ、タブレット、ウェアラブルデバイス(例えば、スマートグラス)、及び表示機能性を有するデバイスで使用されてもよいことが理解されるであろう。さらに、本明細書に説明されるロケーション及び無線ネットワーク送信手法は、IEEE802.11ネットワークなどの無線ローカルエリアネットワークの使用に限定されず、任意数のショートエリア、ローカルエリア、及びワイドエリア無線通信テクノロジーを使用して適用されてよい。
本明細書に説明される手法を容易にし及び実行するのに使用される実施形態は、ハードウェア、ファームウェア、及びソフトウェアのうち1つ又は組み合わせにおいて実装することができる。実施形態はさらに、少なくとも1つのマシン読取可能記憶デバイス上に記憶された命令として実装されてもよく、上記命令は、少なくとも1つのプロセッサにより読み出され、実行されて、本明細書に説明される動作を実行することができる。マシン読取可能記憶デバイスには、マシン(例えば、コンピュータ)により読取可能な形式で情報を記憶する任意の非一時的メカニズムを含むことができる。例えば、マシン読取可能記憶デバイスには、読取専用メモリ(ROM)、ランダムアクセスメモリ(RAM)、磁気ディスク記憶媒体、光学記憶媒体、フラッシュメモリデバイス、並びに他の記憶デバイス及び媒体を含むことができる。
本明細書に説明される例は、ロジック、又はある数のコンポーネント、モジュール、若しくはメカニズムを含むことができ、あるいはこれらにおいて動作することができる。モジュールは、1つ以上のプロセッサに通信可能に結合されて本明細書に説明される動作を実行するハードウェア、ソフトウェア、又はファームウェアであり得る。モジュールはハードウェアモジュールであってもよく、そのようなものとしてモジュールは、指定された動作を実行することができる有形エンティティと考えられることができ、特定の仕方で構成され又は配置されることができる。一例において、回路が、モジュールとして、指定された仕方で(例えば、内部的に、又は他の回路などの外部エンティティと関連して)配置されることができる。一例において、1つ以上のコンピュータシステム(例えば、スタンドアロンの、クライアントの、又はサーバのコンピュータシステム)又は1つ以上のハードウェアプロセッサの全体又は一部が、指定された動作を実行するように動作するモジュールとして、ファームウェア又はソフトウェア(例えば、命令、アプリケーションの部分、又はアプリケーション)により構成されることができる。一例において、ソフトウェアは、マシン読取可能媒体上に存在することができる。一例において、ソフトウェアは、モジュールの下層のハードウェアにより実行されると、指定された動作をハードウェアに実行させる。したがって、用語のハードウェアモジュールは、指定された仕方で動作し又は本明細書に説明されるいかなる動作の一部又はすべてを実行するように、物理的に構築され、具体的に構成され(例えば、配線され)、又は一時的に(例えば、暫時的に)構成された(例えば、プログラムされた)エンティティである、有形エンティティを包含するように理解される。モジュールが一時的に構成される例を考えると、モジュールの各々は、時間における任意のある瞬間にインスタンス化される必要はない。例えば、モジュールが、ソフトウェアを使用して構成される汎用目的ハードウェアプロセッサを含む場合、この汎用目的ハードウェアプロセッサは、異なる時間にそれぞれの異なるモジュールとして構成されることができる。したがって、ソフトウェアは、例えば、ある時間インスタンスにおいて特定のモジュールの構成要素となり、異なる時間インスタンスにおいて異なるモジュールの構成要素となるように、ハードウェアプロセッサを構成することができる。モジュールはさらに、本明細書に説明される方法論を実行するように動作するソフトウェア又はファームウェアモジュールであってもよい。
図8は、一例示的実施形態に従う、マシンをコンピュータシステム800の例示的形式で示すブロック図であり、コンピュータシステム800において命令セット又は命令シーケンスが実行されて、本明細書に論じられる方法論のうち任意の1つをマシンに実行させることができる。コンピュータシステムマシン800は、モバイルデバイス120、210、410、710、ストリーミングサーバ230、330、監視及び拡張現実ステーション250、ビデオカメラのコンポーネント、無線ネットワークアクセスポイント、ビーコン及びロケーションデバイス、並びに無線ブロードキャスティングハードウェア、又は本明細書において説明され又は参照される任意の他の電子処理若しくはコンピューティングプラットフォームにより具現化され得る。さらに、本明細書に説明される自動車に含まれる高度ドライバ支援システムサブシステムは、下記に説明されるコンピュータシステムと実質的に同様に機能する処理システムを含むことができる。
代替的な実施形態において、マシンはスタンドアロンデバイスとして動作し、あるいは他のマシンに接続され(例えば、ネットワーク化され)てもよい。ネットワーク化された展開において、マシンは、サーバクライアントネットワーク環境におけるサーバ又はクライアントマシンの能力において動作することができ、あるいは、マシンは、ピアツーピア(又は分散型)ネットワーク環境におけるピアマシンとしての役割を果たすことができる。マシンは、車載システム、ウェアラブルデバイス、パーソナルコンピュータ(PC)、タブレットPC、ハイブリッドタブレット、パーソナルデジタルアシスタント(PDA)、モバイル電話、又はマシンによりとられるべき動作を指定する命令(順次的な又はその他の)を実行することができる任意のマシンであり得る。さらに、単一のマシンのみが例示されているが、用語「マシン」は、本明細書に論じられる方法論のうち任意の1つ以上を実行する一の命令セット(又は、複数の命令セット)を個々に又は共同で実行するマシンの任意の集合をさらに含むように解されるべきである。同様に、用語「プロセッサベースのシステム」は、本明細書に論じられる方法論のうち任意の1つ以上を実行する命令を個々に又は共同で実行するプロセッサ(例えば、コンピュータ)により制御され又は操作される1つ以上のマシンの任意のセットを含むように解されるべきである。
例示的なコンピュータシステム800は、少なくとも1つのプロセッサ802(例えば、中央処理ユニット(CPU)、グラフィックス処理ユニット(GPU)、又は双方、プロセッサコア、計算ノード等)、メインメモリ804、及びスタティックメモリ806を含み、これらは、インターコネクト808(例えば、リンク、バス等)を介して互いに通信する。コンピュータシステム800は、ビデオ表示ユニット810、英数字入力デバイス812(例えば、キーボード)、及びユーザインターフェース(UI)ナビゲーションデバイス814(例えば、マウス)をさらに含むことができる。一実施形態において、ビデオ表示ユニット810、入力デバイス812、及びユーザインターフェース(UI)ナビゲーションデバイス814は、タッチスクリーンディスプレイに組み込まれる。コンピュータシステム800は、記憶デバイス816(例えば、ドライブユニット)、信号生成デバイス818(例えば、スピーカー)、出力コントローラ832、電力管理コントローラ834、ネットワークインターフェースデバイス820(該デバイス820は、1つ以上のアンテナ830、送受信機、又は他の無線通信ハードウェアを含み、あるいはこれらと動作的に通信することができる)、及び1つ以上のセンサ826、例えば、グローバルポジショニングシステム(GPS)センサ、コンパス、加速度計、ロケーションセンサ、又は他のセンサなどをさらに含むことができる。
記憶デバイス816はマシン読取可能媒体822を含み、マシン読取可能媒体822上に、本明細書に説明される方法論又は機能のうち任意の1つ以上を具現化し又は該任意の1つ以上により利用されるデータ構造及び命令824(例えば、ソフトウェア)の1つ以上のセットが記憶される。命令824はさらに、コンピュータシステム800による該命令の実行の間、メインメモリ804、スタティックメモリ806内、及び/又はプロセッサ802内に、完全に又は少なくとも部分的に存在することがあり、メインメモリ804、スタティックメモリ806、及びプロセッサ802もまたマシン読取可能媒体の構成要素となる。
マシン読取可能媒体822は、一例示的実施形態において単一の媒体であるように示されているが、用語「マシン読取可能媒体」は、1つ以上の命令824を記憶する単一の媒体又は複数の媒体(例えば、集中型又は分散型データベース、及び/又は関連付けられたキャッシュ及びサーバ)を含み得る。用語「マシン読取可能媒体」は、マシンによる実行のための、及び本開示の方法論のうち任意の1つ以上をマシンに実行させる命令を、記憶し、エンコードし、又は運ぶことができ、あるいは上記命令により利用され又は上記命令に関連付けられたデータ構造を記憶し、エンコードし、又は運ぶことができる任意の有形媒体を含むようにさらに解されるべきである。用語「マシン読取可能媒体」は、したがって、これらに限られないが、ソリッドステートメモリ、並びに光学及び磁気媒体を含むように解されるべきである。マシン読取可能媒体の具体例には不揮発メモリが含まれ、不揮発メモリには、これらに限られないが例として、半導体メモリデバイス(例えば、電気的プログラマブル読取専用メモリ(EPROM)、電気的消去可能プログラマブル読取専用メモリ(EEPROM)、及びフラッシュメモリデバイス、磁気ディスク、例えば、内蔵ハードディスク及びリムーバブルディスク、磁気光ディスク、並びにCD−ROM及びDVD−ROMディスクが含まれる。
命令824はさらに、複数の良く知られるトランスファープロトコルのうち任意のもの(例えば、HTTP)を利用してネットワークインターフェースデバイス820を介して送信媒体を用いて通信ネットワーク828を通じて送信され、あるいは受信されることができる。通信ネットワークの例には、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、インターネット、モバイル電話ネットワーク、基本旧来電話(plain old telephone)(POTS)ネットワーク、無線データネットワーク(例えば、Wi−Fi、2G/3G、及び4G LTE/LTE−A、又はWiMAX(登録商標)ネットワーク)が含まれる。用語「送信媒体」は、マシンによる実行のための命令を記憶し、エンコードし、又は運ぶことができる任意の無形媒体を含むように解されるべきであり、上記ソフトウェアの通信を容易にするデジタル若しくはアナログ通信信号又は他の無形媒体を含む。
本願に説明される方法、システム、及びデバイス実施形態についてのさらなる例には、下記の非限定的構成が含まれる。下記の非限定的例の各々はそれ独自で自立することがあり、あるいは、下記に提供される又は本開示の全体をとおしての他の例のうち任意の1つ以上との任意の入れ替え又は組み合わせにおいて組み合わせられてもよい。
例1は、仮想双眼鏡ビデオ表示を提供するモバイルコンピューティングデバイスのための構成要件(例えば、デバイス、装置、マシン、又はマシン読取可能媒体により具現化される)を含み、プロセッサと、上記プロセッサで動作し、無線ネットワークを介してビデオストリーミングサーバからビデオデータの選択されたストリームを受信する無線ネットワーキングモジュールと、上記プロセッサで動作し、上記ビデオデータの上記ストリームからのビデオコンテンツを処理するビデオ処理モジュールであって、ビデオデータの上記選択されたストリームは、上記ビデオデータ内に捕捉されたシーンに近接して位置する見物エリア内の当該モバイルコンピューティングデバイスのロケーションに基づいて選択される、ビデオ処理モジュールと、上記プロセッサで動作し、当該モバイルコンピューティングデバイスの表示画面に上記ビデオコンテンツの選択強化された部分を出力する表示モジュールであって、上記選択強化された部分は、上記ビデオデータ内に捕捉された上記シーンに対する当該モバイルコンピューティングデバイスの向きに基づいて決定される、表示モジュールと、を備える。
例2において、例1に記載の構成要件は、上記プロセッサにより実施され、上記表示画面への上記ビデオコンテンツの上記選択強化された部分の上記出力の制御をもたらすユーザコマンドを受信するユーザインタラクションモジュール、を含むことができ、上記ビデオコンテンツの上記選択強化された部分は、上記ビデオデータの上記ストリームから上記ビデオコンテンツのズームされ及びパンされた部分を提供する。
例3において、例1乃至2のうちいずれか1つに記載の構成要件は、上記プロセッサにより実施され、当該モバイルコンピューティングデバイスにより検出される少なくとも1つのモーション入力に基づいて上記表示画面上の上記ビデオコンテンツの上記選択強化された部分を変更するモーション処理モジュール、を含むことができる。
例4において、例1乃至3のうちいずれか1つに記載の構成要件は、上記無線ネットワーキングモジュールは、IEEE802.11無線ネットワークプロトコルに従う上記無線ネットワークの動作を介して上記ビデオデータの上記ストリームを受信し、上記ビデオデータの上記選択されたストリームは、上記見物エリア内に位置する上記無線ネットワークの少なくとも1つのアクセスポイントに対する当該モバイルコンピューティングデバイスのロケーションに基づいて選択され、上記無線ネットワークのアクセスポイントに対する当該モバイルコンピューティングデバイスのロケーションの識別が、上記ビデオストリーミングサーバに通信されて当該モバイルコンピューティングデバイスのロケーションを示す、ことを含むことができる。
例5において、例1乃至4のうちいずれか1つに記載の構成要件は、上記ビデオ処理モジュールは、上記ビデオコンテンツ内に検出された少なくとも1つのインジケータを、上記ビデオデータ内に捕捉された上記シーンに対する当該モバイルコンピューティングデバイスの向きに相関させる、ことを含むことができる。
例6において、例1乃至5のうちいずれか1つに記載の構成要件は、上記少なくとも1つのインジケータを含む上記シーンの少なくとも部分のイメージを捕捉するカメラ、を含むことができ、上記ビデオ処理モジュールは、上記少なくとも1つのインジケータを含む上記シーンの少なくとも上記部分の上記イメージを、上記ビデオコンテンツの上記選択強化された部分に相関させる。
例7において、例1乃至6のうちいずれか1つに記載の構成要件は、上記ビデオ処理モジュールはさらに、上記カメラにより捕捉された上記シーンの少なくとも上記部分の上記イメージを、上記ビデオデータ内に捕捉された上記シーンのイメージと比較し、マッチさせて、上記シーンに対する当該モバイルコンピューティングデバイスの向きを決定する、ことを含むことができる。
例8は、モバイルデバイスにおいてストリーミングビデオを表示するための構成要件(例えば、方法、動作を実行する手段、マシンにより実行されると該マシンに動作を実行させる命令を含むマシン読取可能媒体、又は実行するための装置など)を含み、上記モバイルデバイスにおけるハードウェアコンポーネントで実行される動作により実施され、上記動作は、上記モバイルデバイスで、選択された高精細ビデオストリームにアクセスすることであって、上記高精細ビデオストリームは、上記モバイルデバイスから離れるビューの方向において及びシーンの関心エリアを向いて捕捉された上記シーンの高精細ビデオを提供する、ことと、上記関心エリアに対する上記モバイルデバイスの向きを、上記シーンの上記高精細ビデオの特定のズームされた部分に相関させることと、上記モバイルデバイスに上記シーンの上記高精細ビデオの上記特定のズームされた部分を表示することと、を含む。
例9において、例8に記載の構成要件は、上記シーンの上記高精細ビデオを、上記高精細ビデオの上記特定のズームされた部分に対してパンすることであって、該パンすることは、上記関心エリアに対する上記モバイルデバイスの向きを用いて実行される、ことと、上記シーンの上記高精細ビデオを、上記高精細ビデオの上記特定のズームされた部分に対してズームすることであって、該ズームすることは、上記関心エリアに対する上記モバイルデバイスの向きを用いて実行される、ことと、を含むことができる。
例10において、例8乃至9のうちいずれか1つに記載の構成要件は、上記モバイルデバイスのロケーション情報をリモートサーバに提供することであって、上記ロケーション情報は、上記シーンに隣接した見学エリア内における上記モバイルデバイスのロケーションを示す、ことと、複数の高精細ビデオストリームのうち1つから上記高精細ビデオストリームを受信することであって、上記高精細ビデオストリームは、上記モバイルデバイスのロケーション情報に基づいて上記リモートサーバにより選択される、ことと、を含むことができる。
例11において、例8乃至10のうちいずれか1つに記載の構成要件は、上記モバイルデバイスで、上記シーンのデジタルイメージを捕捉することと、上記モバイルデバイスで、上記シーンの上記デジタルイメージ内のマーカを検出することと、上記シーンの上記高精細ビデオ内で上記モバイルデバイスにより検出された上記マーカの位置に基づいて、上記高精細ビデオの上記特定のズームされた部分を選択することであって、上記高精細ビデオの上記特定のズームされた部分は、より大きい高精細ビデオのサブセットを提供する、ことと、を含むことができる。
例12において、例8乃至11のうちいずれか1つに記載の構成要件は、上記モバイルデバイスの向きを上記高精細ビデオの上記特定のズームされた部分に相関させることは、上記シーンの上記デジタルイメージ内の上記マーカを上記シーンの上記高精細ビデオのイメージ内のマーカにマッチさせて、上記高精細ビデオの上記特定のズームされた部分の上記選択において上記モバイルデバイスからの上記シーンの視点をシミュレートすることを含む、ことを含むことができる。
例13において、例8乃至12のうちいずれか1つに記載の構成要件は、上記マーカは、上記シーン内に位置決めされた少なくとも1つの赤外光により提供される、ことを含むことができる。
例14において、例8乃至13のうちいずれか1つに記載の構成要件は、上記マーカは、上記シーン内に位置決めされたマシン読取可能オブジェクトであり、上記マシン読取可能オブジェクトは、上記シーンに対するロケーションに関連付けられた識別子を提供する、ことを含むことができる。
例15において、例8乃至14のうちいずれか1つに記載の構成要件は、上記モバイルデバイスで、上記シーンのデジタルイメージを捕捉することと、上記シーンの上記デジタルイメージ内の少なくとも1つのオブジェクトのイメージ認識を実行することと、上記高精細ビデオの上記特定のズームされた部分に対する上記モバイルデバイスの向きの相関に基づいて、上記高精細ビデオの上記特定のズームされた部分を選択することであって、上記高精細ビデオの上記特定のズームされた部分は、より大きい高精細ビデオのサブセットを提供する、ことと、をさらに含むことができる。
例16において、例8乃至15のうちいずれか1つに記載の構成要件は、上記高精細ビデオの上記特定のズームされた部分に情報オーバーレイを表示することであって、上記情報オーバーレイは、上記高精細ビデオの上記特定のズームされた部分内に描写される少なくとも1つの実世界アイテムに関する情報を提供する、こと、をさらに含むことができる。
例17において、例8乃至16のうちいずれか1つに記載の構成要件は、上記モバイルデバイスでのグラフィカルユーザインターフェース出力に関連して受信される少なくとも1つのユーザ入力を処理することであって、上記少なくとも1つのユーザ入力は、複数の高精細ビデオストリームの中から上記高精細ビデオストリームを選択し、上記シーンの上記高精細ビデオの、上記シーンの別の関心エリアに対するパンニングを実行し、又は、上記シーンの上記関心エリアの別の部分のズームされた表示を生成するように上記シーンの上記高精細ビデオのズーミングを実行するように用いられる、こと、をさらに含むことができる。
例18は、モバイルコンピューティングデバイスにビデオ表示を出力するための構成要件(例えば、デバイス、装置、マシン、又はマシン読取可能媒体により具現化される)を含み、命令を用いて実施され、上記命令は実行されると上記モバイルコンピューティングデバイスに、無線ネットワークとの接続を確立することと、上記モバイルコンピューティングデバイスの第1の側面の視点から、上記モバイルコンピューティングデバイスの上記第1の側面に位置するカメラを用いてデジタルイメージを捕捉することと、関心エリアの高精細ビデオストリームを処理することであって、上記高精細ビデオストリームは、上記無線ネットワークとの上記接続を介して受信される、ことと、上記高精細ビデオストリーム内に提供されるビデオシーンの向きに対する上記モバイルコンピューティングデバイスの視点を決定することと、上記モバイルコンピューティングデバイスの第2の側面に位置する表示画面にデジタルビデオを出力することと、を行わせ、上記第2の側面は上記第1の側面の対向であり、上記デジタルビデオの出力は、上記モバイルコンピューティングデバイスの視点に似るようにズームされ及びパンされた上記高精細ビデオストリームの上記ビデオシーンの部分を含む。
例19において、例18に記載の構成要件は、上記モバイルコンピューティングデバイスに、上記カメラで捕捉された上記関心エリアのイメージを処理することと、上記関心エリアの上記イメージ内のマーカを検出することと、上記関心エリア内の上記マーカを上記ビデオシーンの上記部分の向きに相関させることと、をさらに行わせることを含むことができる。
例20において、例18乃至19のうちいずれか1つに記載の構成要件は、上記マーカはマシン検出可能マーカであり、上記マシン検出可能マーカは赤外光又はマシン検出可能オブジェクトを含む、ことを含むことができる。
例21において、例18乃至20のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスに、上記モバイルコンピューティングデバイスのロケーション情報をリモートビデオサーバに送信することと、上記ロケーション情報に応答して上記リモートビデオサーバから上記高精細ビデオストリームを受信することであって、上記高精細ビデオストリームは複数の高精細ビデオストリームから選択される、ことと、をさらに行わせることを含むことができる。
例22において、例18乃至21のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスの上記ロケーション情報は無線ネットワーク情報を含み、上記無線ネットワーク情報は上記無線ネットワークのための無線アクセスポイントのSSIDを含む、ことを含むことができる。
例23において、例18乃至22のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスの上記ロケーション情報は、QRコード、RFIDタグ、又はBluetooth低エネルギー(Low Energy)ビーコンから上記モバイルコンピューティングデバイスにより読み出された識別子を含む、ことを含むことができる。
例24において、例18乃至23のうちいずれか1つに記載の構成要件は、上記命令は実行されると、上記モバイルコンピューティングデバイスに、上記モバイルコンピューティングデバイスに対するユーザジェスチャ入力を検出し、処理することと、上記ユーザジェスチャ入力に基づいて上記高精細ビデオストリームの上記ビデオシーンの表示された部分を変更することと、をさらに行わせる、ことを含むことができる。
例25は、モバイルコンピューティングデバイスのプロセッサ及びメモリの動作で実行される仮想双眼鏡ビデオ表示の出力のための構成要件(例えば、方法、動作を実行する手段、マシンにより実行されると該マシンに動作を実行させる命令を含むマシン読取可能媒体、又は実行するための装置など)を含み、無線ネットワークを介してビデオストリーミングサーバからビデオデータの選択されたストリームを受信することと、上記ビデオデータの上記ストリームからのビデオコンテンツを処理することであって、ビデオデータの上記選択されたストリームは、上記ビデオデータ内に捕捉されたシーンに近接して位置する見物エリア内の上記モバイルコンピューティングデバイスのロケーションに基づいて選択される、ことと、上記ビデオコンテンツの選択強化された部分を出力することであって、上記選択強化された部分は、上記ビデオデータ内に捕捉された上記シーンに対する上記モバイルコンピューティングデバイスの向きに基づいて決定される、ことと、を含む。
例26において、例25に記載の構成要件は、上記ビデオコンテンツの上記選択強化された部分の上記出力の制御をもたらすユーザコマンドを受信すること、を含むことができる。
例27において、例25乃至26のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスにより検出される少なくとも1つのモーション入力に基づいて、表示される上記ビデオコンテンツの上記選択された部分を変更すること、を含むことができる。
例28において、例25乃至27のうちいずれか1つに記載の構成要件は、IEEE802.11無線ネットワークプロトコルに従う上記無線ネットワークの動作を介して上記ビデオデータの上記ストリームを受信すること、を含むことができ、上記ビデオデータの上記ストリームは、上記シーンに対する上記モバイルコンピューティングデバイスのロケーションに基づいて選択され、上記無線ネットワークのアクセスポイントに対する上記モバイルコンピューティングデバイスのロケーションの識別が、上記ビデオストリーミングサーバに通信されて上記モバイルコンピューティングデバイスのロケーションを示す。
例29において、例25乃至28のうちいずれか1つに記載の構成要件は、上記ビデオコンテンツ内に検出された少なくとも1つのインジケータを、上記ビデオデータ内に捕捉された上記シーンに対する上記モバイルコンピューティングデバイスの向きに相関させること、を含むことができる。
例30において、例25乃至29のうちいずれか1つに記載の構成要件は、上記少なくとも1つのインジケータを含む上記シーンの少なくとも部分のイメージを捕捉することと、上記少なくとも1つのインジケータを含む上記シーンの少なくとも上記部分の上記イメージを、上記ビデオコンテンツの上記選択部分に対して処理することと、カメラにより捕捉された上記シーンの少なくとも上記部分の上記イメージを、上記ビデオデータ内に捕捉された上記シーンのイメージとマッチさせて、上記シーンに対する上記モバイルコンピューティングデバイスの向きを決定する、ことと、を含むことができる。
例31は、モバイルコンピューティングデバイスにおいてビデオをストリーミングする命令を含む少なくとも1つのマシン読取可能記憶媒体を含み、上記命令はマシンにより実行されると、例25乃至30のうちいずれか1つを上記マシンに実行させる。
例32は、例25乃至30のうちいずれか1つを実行する手段を備えた装置を含む。
例33は、構成要件(例えば、デバイス、装置、又はマシンなど)を含み、無線ネットワークを介してビデオストリーミングサーバからビデオデータのストリームを受信する手段と、上記ビデオデータの上記ストリームからのビデオコンテンツを処理する手段であって、ビデオデータの上記選択されたストリームは、上記ビデオデータ内に捕捉されたシーンに近接して位置する見物エリア内のモバイルコンピューティングデバイスのロケーションに基づいて選択される、手段と、上記ビデオコンテンツの選択強化された部分を出力する手段であって、上記選択強化された部分は、上記ビデオデータ内に捕捉された上記シーンに対する上記モバイルコンピューティングデバイスの向きに基づいて決定される、手段と、を備える。
例34において、例33に記載の構成要件は、上記表示画面への上記ビデオコンテンツの上記選択強化された部分の上記出力の制御をもたらすユーザコマンドを受信する手段、を含むことができ、上記ビデオコンテンツの上記選択強化された部分は、上記ビデオデータの上記ストリームから上記ビデオコンテンツのズームされ及びパンされた部分を提供する。
例35において、例33乃至34のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスにより検出される少なくとも1つのモーション入力に基づいて上記表示画面上の上記ビデオコンテンツの上記選択強化された部分を変更する手段、を含むことができる。
例36において、例33乃至35のうちいずれか1つに記載の構成要件は、IEEE802.11無線ネットワークプロトコルに従う上記無線ネットワークの動作を介して上記ビデオデータの上記ストリームを受信すること、を含むことができ、上記ビデオデータの上記選択されたストリームは、上記見物エリア内に位置する上記無線ネットワークの少なくとも1つのアクセスポイントに対する上記モバイルコンピューティングデバイスのロケーションに基づいて選択され、上記無線ネットワークのアクセスポイントに対する上記モバイルコンピューティングデバイスのロケーションの識別が、上記ビデオストリーミングサーバに通信されて上記モバイルコンピューティングデバイスのロケーションを示す。
例37において、例33乃至36のうちいずれか1つに記載の構成要件は、上記ビデオコンテンツ内に検出された少なくとも1つのインジケータを、上記ビデオデータ内に捕捉された上記シーンに対する上記モバイルコンピューティングデバイスの向きに相関させる手段と、上記少なくとも1つのインジケータを含む上記シーンの少なくとも部分のイメージを捕捉する手段と、上記少なくとも1つのインジケータを含む上記シーンの少なくとも上記部分の上記イメージを、上記ビデオコンテンツの上記選択部分に対して処理する手段と、カメラにより捕捉された上記シーンの少なくとも上記部分の上記イメージを、上記ビデオデータ内に捕捉された上記シーンのイメージとマッチさせて、上記シーンに対する上記モバイルコンピューティングデバイスの向きを決定する手段と、を含むことができる。
例38は、動作を実行する少なくとも1つのプロセッサを備えたモバイルデバイスのための構成要件(例えば、デバイス、装置、又はマシンなど)を含み、上記動作は、選択された高精細ビデオストリームにアクセスすることであって、上記高精細ビデオストリームは、上記モバイルデバイスから離れるビューの方向において及びシーンの関心エリアを向いて捕捉された上記シーンの高精細ビデオを提供し、上記関心エリアに対する上記モバイルデバイスの向きを、上記シーンの上記高精細ビデオの特定のズームされた部分に相関させ、上記モバイルデバイスに上記シーンの上記高精細ビデオの上記特定のズームされた部分を表示する。
例39において、例38に記載の構成要件は、動作をさらに実行する上記少なくとも1つのプロセッサを含むことができ、上記動作は、上記シーンの上記高精細ビデオを、上記高精細ビデオの上記特定のズームされた部分に対してパンすることであって、該パンすることは、上記関心エリアに対する上記モバイルデバイスの向きを用いて実行され、上記シーンの上記高精細ビデオを、上記高精細ビデオの上記特定のズームされた部分に対してズームすることであって、該ズームすることは、上記関心エリアに対する上記モバイルデバイスの向きを用いて実行される。
例40において、例38乃至39のうちいずれか1つに記載の構成要件は、動作をさらに実行する上記少なくとも1つのプロセッサを含むことができ、上記動作は、上記モバイルデバイスのロケーション情報をリモートサーバに提供することであって、上記ロケーション情報は、上記シーンに隣接した見学エリア内における上記モバイルデバイスのロケーションを示し、複数の高精細ビデオストリームのうち1つから上記高精細ビデオストリームを受信することであって、上記高精細ビデオストリームは、上記モバイルデバイスのロケーション情報に基づいて上記リモートサーバにより選択される。
例41において、例38乃至40のうちいずれか1つに記載の構成要件は、動作をさらに実行する上記少なくとも1つのプロセッサを含むことができ、上記動作は、上記モバイルデバイスで、上記シーンのデジタルイメージを捕捉し、上記モバイルデバイスで、上記シーンの上記デジタルイメージ内のマーカを検出し、上記シーンの上記高精細ビデオ内で上記モバイルデバイスにより検出された上記マーカの位置に基づいて、上記高精細ビデオの上記特定のズームされた部分を選択することであって、上記高精細ビデオの上記特定のズームされた部分は、より大きい高精細ビデオのサブセットを提供する。
例42において、例38乃至41のうちいずれか1つに記載の構成要件は、動作をさらに実行する上記少なくとも1つのプロセッサを含むことができ、上記動作は、上記モバイルデバイスの向きを上記高精細ビデオの上記特定のズームされた部分に相関させることは、上記シーンの上記デジタルイメージ内の上記マーカを上記シーンの上記高精細ビデオのイメージ内のマーカにマッチさせて、上記高精細ビデオの上記特定のズームされた部分の上記選択において上記モバイルデバイスからの上記シーンの視点をシミュレートすることを含む。
例43において、例38乃至42のうちいずれか1つに記載の構成要件は、上記マーカは、上記シーン内に位置決めされた少なくとも1つの赤外光により提供される、ことを含むことができる。
例44において、例38乃至43のうちいずれか1つに記載の構成要件は、上記マーカは、上記シーン内に位置決めされたマシン読取可能オブジェクトであり、上記マシン読取可能オブジェクトは、上記シーンに対するロケーションに関連付けられた識別子を提供する、ことを含むことができる。
例45において、例38乃至44のうちいずれか1つに記載の構成要件は、動作をさらに実行する上記少なくとも1つのプロセッサを含むことができ、上記動作は、上記モバイルデバイスで、上記シーンのデジタルイメージを捕捉し、上記シーンの上記デジタルイメージ内の少なくとも1つのオブジェクトのイメージ認識を実行し、上記高精細ビデオの上記特定のズームされた部分に対する上記モバイルデバイスの向きの相関に基づいて、上記高精細ビデオの上記特定のズームされた部分を選択することであって、上記高精細ビデオの上記特定のズームされた部分は、より大きい高精細ビデオのサブセットを提供する。
例46において、例38乃至45のうちいずれか1つに記載の構成要件は、動作をさらに実行する上記少なくとも1つのプロセッサを含むことができ、上記動作は、上記高精細ビデオの上記特定のズームされた部分に情報オーバーレイを表示することであって、上記情報オーバーレイは、上記高精細ビデオの上記特定のズームされた部分内に描写される少なくとも1つの実世界アイテムに関する情報を提供する。
例47において、例38乃至46のうちいずれか1つに記載の構成要件は、動作をさらに実行する上記少なくとも1つのプロセッサを含むことができ、上記動作は、上記モバイルデバイスでのグラフィカルユーザインターフェース出力に関連して受信される少なくとも1つのユーザ入力を処理することであって、上記少なくとも1つのユーザ入力は、複数の高精細ビデオストリームの中から上記高精細ビデオストリームを選択し、上記シーンの上記高精細ビデオの、上記シーンの別の関心エリアに対するパンニングを実行し、又は、上記シーンの上記関心エリアの別の部分のズームされた表示を生成するように上記シーンの上記高精細ビデオのズーミングを実行するように用いられる。
例48は、モバイルデバイスにおいてビデオをストリーミングする命令を含む少なくとも1つのマシン読取可能記憶媒体を含み、上記命令はマシンにより実行されると、例8乃至17のうちいずれか1つを上記マシンに実行させる。
例49は、例8乃至17のうちいずれか1つを実行する手段を備えた装置を含む。
例50は、構成要件(例えば、デバイス、装置、又はマシンなど)を含み、モバイルデバイスで、選択された高精細ビデオストリームにアクセスする手段であって、上記高精細ビデオストリームは、上記モバイルデバイスから離れるビューの方向において及びシーンの関心エリアを向いて捕捉された上記シーンの高精細ビデオを提供する、手段と、上記関心エリアに対する上記モバイルデバイスの向きを、上記シーンの上記高精細ビデオの特定のズームされた部分に相関させる手段と、上記モバイルデバイスに上記シーンの上記高精細ビデオの上記特定のズームされた部分を表示する手段と、を備える。
例51において、例50に記載の構成要件は、上記シーンの上記高精細ビデオを、上記高精細ビデオの上記特定のズームされた部分に対してパンする手段であって、該パンすることは、上記関心エリアに対する上記モバイルデバイスの向きを用いて実行される、手段と、上記シーンの上記高精細ビデオを、上記高精細ビデオの上記特定のズームされた部分に対してズームする手段であって、該ズームすることは、上記関心エリアに対する上記モバイルデバイスの向きを用いて実行される、手段と、をさらに備える、ことを含むことができる。
例52において、例50乃至51のうちいずれか1つに記載の構成要件は、上記モバイルデバイスのロケーション情報をリモートサーバに提供する手段であって、上記ロケーション情報は、上記シーンに隣接した見学エリア内における上記モバイルデバイスのロケーションを示す、手段と、複数の高精細ビデオストリームのうち1つから上記高精細ビデオストリームを受信する手段であって、上記高精細ビデオストリームは、上記モバイルデバイスのロケーション情報に基づいて上記リモートサーバにより選択される、手段と、をさらに備える、ことを含むことができる。
例53において、例50乃至52のうちいずれか1つに記載の構成要件は、上記シーンのデジタルイメージを捕捉する手段と、上記シーンの上記デジタルイメージ内のマーカを検出する手段と、上記シーンの上記高精細ビデオ内で上記モバイルデバイスにより検出された上記マーカの位置に基づいて、上記高精細ビデオの上記特定のズームされた部分を選択する手段であって、上記高精細ビデオの上記特定のズームされた部分は、より大きい高精細ビデオのサブセットを提供する、手段と、をさらに備える、ことを含むことができる。
例54において、例50乃至53のうちいずれか1つに記載の構成要件は、上記モバイルデバイスの向きを上記高精細ビデオの上記特定のズームされた部分に相関させる手段は、上記シーンの上記デジタルイメージ内の上記マーカを上記シーンの上記高精細ビデオのイメージ内のマーカにマッチさせて、上記高精細ビデオの上記特定のズームされた部分の上記選択において上記モバイルデバイスからの上記シーンの視点をシミュレートすることを含む、ことを含むことができる。
例55において、例50乃至54のうちいずれか1つに記載の構成要件は、上記シーン内に位置決めされた少なくとも1つの赤外光により提供されるマーカを検出する手段、をさらに備える、ことを含むことができる。
例56において、例50乃至55のうちいずれか1つに記載の構成要件は、上記シーン内に位置決めされたマシン読取可能オブジェクトであるマーカを検出する手段、をさらに備え、上記マシン読取可能オブジェクトは、上記シーンに対するロケーションに関連付けられた識別子を提供する、ことを含むことができる。
例57において、例50乃至56のうちいずれか1つに記載の構成要件は、上記シーンのデジタルイメージを捕捉する手段と、上記シーンの上記デジタルイメージ内の少なくとも1つのオブジェクトのイメージ認識を実行する手段と、上記高精細ビデオの上記特定のズームされた部分に対する上記モバイルデバイスの向きの相関に基づいて、上記高精細ビデオの上記特定のズームされた部分を選択する手段であって、上記高精細ビデオの上記特定のズームされた部分は、より大きい高精細ビデオのサブセットを提供する、手段と、さらに備える、ことを含むことができる。
例58は、モバイルコンピューティングデバイスの少なくとも1つのプロセッサにより実行される構成要件(例えば、方法、動作を実行する手段、マシンにより実行されると該マシンに動作を実行させる命令を含むマシン読取可能媒体、又は実行するための装置など)を含み、上記構成要件は、無線ネットワークとの接続を確立することと、上記モバイルコンピューティングデバイスの上記第1の側面に位置するカメラを用いてデジタルイメージを捕捉することであって、上記デジタルイメージは上記第1の側面の視点から捕捉される、ことと、関心エリアの高精細ビデオストリームを処理することであって、上記高精細ビデオストリームは、上記無線ネットワークとの上記接続を介して受信される、ことと、上記高精細ビデオストリーム内に提供されるビデオシーンの向きに対する上記モバイルコンピューティングデバイスの視点を決定することと、上記モバイルコンピューティングデバイスの第2の側面に位置する表示画面にデジタルビデオを出力することと、を含み、上記第2の側面は上記第1の側面の対向であり、上記出力することは、上記表示画面に上記高精細ビデオストリームのより低い解像度部分を出力することを含み、上記高精細ビデオストリームの上記ビデオシーンは、上記モバイルコンピューティングデバイスの視点に似るように上記より低い解像度部分に対してズームされ、パンされる。
例59において、例58に記載の構成要件は、上記カメラで捕捉された上記関心エリアのイメージを処理することと、上記関心エリアの上記イメージ内のマーカを検出することと、上記関心エリア内の上記マーカを上記ビデオシーンの上記部分の向きに相関させることと、をさらに含む、ことを含むことができる。
例60において、例58乃至59のうちいずれか1つに記載の構成要件は、上記マーカはマシン検出可能マーカであり、上記マシン検出可能マーカは赤外光又はマシン検出可能オブジェクトを含む、ことを含むことができる。
例61において、例58乃至60のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスのロケーション情報をリモートビデオサーバに送信することと、上記ロケーション情報に応答して上記リモートビデオサーバから上記高精細ビデオストリームを受信することであって、上記高精細ビデオストリームは複数の高精細ビデオストリームから選択される、ことと、をさらに含む、ことを含むことができる。
例62において、例58乃至61のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスの上記ロケーション情報は無線ネットワーク情報を含み、上記無線ネットワーク情報は上記無線ネットワークのための無線アクセスポイントのSSIDを含む、ことを含むことができる。
例63において、例58乃至62のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスの上記ロケーション情報は、QRコード、RFIDタグ、又はBluetooth低エネルギービーコンから上記モバイルコンピューティングデバイスにより読み出された識別子を含む、ことを含むことができる。
例64において、例58乃至63のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスに対するユーザジェスチャ入力を検出し、処理することと、上記ユーザジェスチャ入力に基づいて上記高精細ビデオストリームの上記ビデオシーンの表示された部分を変更することと、をさらに含む、ことを含むことができる。
例65は、例58乃至64のうちいずれかを実行する手段を備えた装置を含む。
例66は、モバイルコンピューティングデバイスのための構成要件(例えば、デバイス、装置、又はマシンなど)を含み、少なくとも1つのプロセッサと、少なくとも1つの無線ネットワークとの接続を確立する無線送受信機と、上記モバイルコンピューティングデバイスの第1の側面に位置し、上記第1の側面の視点からデジタルイメージを捕捉するカメラと、上記モバイルコンピューティングデバイスの第2の側面に位置し、デジタルビデオを出力する表示画面であって、上記第2の側面は上記第1の側面の対向である、表示画面と、を命令を含む少なくとも1つのメモリと、を備え、上記命令は実行されると上記モバイルコンピューティングデバイスに、関心エリアの高精細ビデオストリームを処理することであって、上記高精細ビデオストリームは、上記無線送受信機を介して受信される、ことと、上記高精細ビデオストリーム内に提供されるビデオシーンの向きに対する上記モバイルコンピューティングデバイスの視点を決定することと、上記表示画面に上記高精細ビデオストリームのより低い解像度部分を出力することであって、上記高精細ビデオストリームの上記ビデオシーンは、上記モバイルコンピューティングデバイスの視点に似るように上記より低い解像度部分に対してズームされ、パンされる、ことと、を行わせる。
例67において、例66に記載の構成要件は、上記メモリが命令を更に含み、該命令は実行されると上記モバイルコンピューティングデバイスに、上記カメラで捕捉された上記関心エリアのイメージを処理することと、上記関心エリアの上記イメージ内のマーカを検出することと、上記関心エリア内の上記マーカを上記ビデオシーンの上記部分の向きに相関させることと、を行わせる、ことを含むことができる。
例68において、例66乃至67のうちいずれか1つに記載の構成要件は、上記マーカはマシン検出可能マーカであり、上記マシン検出可能マーカは赤外光又はマシン検出可能オブジェクトを含む、ことを含むことができる。
例69において、例66乃至68のうちいずれか1つに記載の構成要件は、上記メモリが命令を更に含み、該命令は実行されると上記モバイルコンピューティングデバイスに、上記モバイルコンピューティングデバイスのロケーション情報をリモートビデオサーバに送信することと、上記ロケーション情報に応答して上記リモートビデオサーバから上記高精細ビデオストリームを受信することであって、上記高精細ビデオストリームは複数の高精細ビデオストリームから選択される、ことと、を行わせる、ことを含むことができる。
例70において、例66乃至69のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスの上記ロケーション情報は上記無線送受信機からの無線ネットワーク情報を含み、上記無線ネットワーク情報は無線アクセスポイントのSSIDを含む、ことを含むことができる。
例71において、例66乃至70のうちいずれか1つに記載の構成要件は、上記モバイルコンピューティングデバイスの上記ロケーション情報は、QRコード、RFIDタグ、又はBluetooth低エネルギービーコンから上記モバイルコンピューティングデバイスにより読み出された識別子を含む、ことを含むことができる。
例72において、例66乃至71のうちいずれか1つに記載の構成要件は、上記メモリが命令を更に含み、該命令は実行されると上記モバイルコンピューティングデバイスに、上記モバイルコンピューティングデバイスに対するユーザジェスチャ入力を検出し、処理することと、上記ユーザジェスチャ入力に基づいて上記高精細ビデオストリームの上記ビデオシーンの表示された部分を変更することと、を行わせる、ことを含むことができる。
例73は、モバイルコンピューティングデバイスにビデオコンテンツを供給するビデオストリーミングサーバのための構成要件(例えば、デバイス、装置、又はマシンなど)を含み、複数の高精細ビデオカメラからビデオを取得するビデオ処理モジュールと、上記複数の高精細ビデオカメラに対する上記モバイルコンピューティングデバイスのロケーションを取得するロケーション処理モジュールと、上記複数の高精細ビデオカメラからのビデオコンテンツを処理するビデオコンテンツモジュールと、複数のビデオストリームをそれぞれのモバイルコンピューティングデバイスに提供するビデオストリーム送信モジュールであって、上記複数のビデオストリームは、上記モバイルコンピューティングデバイスに提供される高精細ビデオストリームを含む、ビデオストリーム送信モジュールと、を備える。
例74において、例73に記載の構成要件は、上記ビデオストリーミングサーバが無線アクセスポイントを介して上記複数のビデオストリームを通信し、上記無線アクセスポイントはIEEE802.11標準プロトコルに従い通信する、ことを含むことができる。
例75において、例73乃至74のうちいずれか1つに記載の構成要件は、上記ビデオストリーミングサーバがカメラ制御サーバとの間で通信し、上記カメラ制御サーバは、上記複数の高精細ビデオカメラのそれぞれのカメラの再位置決め及び制御を提供する、ことを含むことができる。
例76において、例73乃至75のうちいずれか1つに記載の構成要件は、上記ビデオストリーミングサーバが管理デバイスと通信し、上記管理デバイスはビデオストリーミング使用及びビデオストリーミングサーバ動作の監視及び制御を提供する、ことを含むことができる。
例77は、ストリーミングサーバからモバイルコンピューティングデバイスにビデオをストリーミングする方法のための構成要件(例えば、方法、動作を実行する手段、マシンにより実行されると該マシンに動作を実行させる命令を含むマシン読取可能媒体、又は実行するための装置など)を含み、関心エリアの複数の高精細ビデオカメラから取得されるビデオコンテンツを処理することと、上記複数の高精細ビデオカメラと上記関心エリアとのうち少なくとも1つに対する上記モバイルコンピューティングデバイスのロケーションを取得することと、上記ビデオコンテンツの高精細ビデオストリームを無線ネットワークを介して上記モバイルコンピューティングデバイスに送信することと、を含み、上記ビデオコンテンツの表示は、上記カメラに近接した及び上記関心エリアに近接した定義された見学エリア内における上記モバイルコンピューティングデバイスのロケーションに基づいて、上記モバイルコンピューティングデバイスにおいてカスタマイズされる。
例78において、例77に記載の構成要件は、上記複数の高精細ビデオカメラのそれぞれのカメラを再位置決めすること及び制御することを、をさらに含む、ことを含むことができる。
例79において、例77乃至78のうちいずれか1つに記載の構成要件は、上記ビデオコンテンツの上記高精細ビデオストリームは、複数のモバイルコンピューティングデバイスに対する高精細ビデオコンテンツのマルチキャストの一部として上記モバイルコンピューティングデバイスに送信され、上記複数のモバイルコンピューティングデバイスの各々は、上記関心エリアに対するそれぞれのモバイルコンピューティングデバイスのロケーションに基づいて上記高精細ビデオストリームの表示のカスタム視点を提供する、ことを含むことができる。
例80において、例77乃至79のうちいずれか1つに記載の構成要件は、上記高精細ビデオストリームについてのビデオストリーミング使用及びビデオストリーミングサーバ動作を監視すること、をさらに含む、ことを含むことができる。
例81は、モバイルビデオコンテンツをモバイルコンピューティングデバイスに供給する命令を含む少なくとも1つのマシン読取可能記憶媒体を含み、上記命令はマシンにより実行されると上記マシンに、例77乃至80のうちいずれかを実行させる。
例82は、例77乃至80のうちいずれかを実行する手段を備えた装置を含む。
例83は、構成要件(例えば、デバイス、装置、又はマシンなど)を含み、関心エリアの複数の高精細ビデオカメラから取得されるビデオコンテンツを処理する手段と、上記複数の高精細ビデオカメラと上記関心エリアとのうち少なくとも1つに対する上記モバイルコンピューティングデバイスのロケーションを取得する手段と、上記ビデオコンテンツの高精細ビデオストリームを無線ネットワークを介して上記モバイルコンピューティングデバイスに送信する手段と、を備え、上記ビデオコンテンツの表示は、上記カメラに近接した及び上記関心エリアに近接した定義された見学エリア内における上記モバイルコンピューティングデバイスのロケーションに基づいて、上記モバイルコンピューティングデバイスにおいてカスタマイズされる。
例84において、例83に記載の構成要件は、上記複数の高精細ビデオカメラのそれぞれのカメラを再位置決めし及び制御する手段、を含むことができる。
例85において、例83乃至84のうちいずれか1つに記載の構成要件は、複数のモバイルコンピューティングデバイスに対する高精細ビデオコンテンツのマルチキャストの一部として上記モバイルコンピューティングデバイスに上記ビデオコンテンツの上記高精細ビデオストリームを送信する手段、をさらに備え、上記複数のモバイルコンピューティングデバイスの各々は、上記関心エリアに対するそれぞれのモバイルコンピューティングデバイスのロケーションに基づいて上記高精細ビデオストリームの表示のカスタム視点を提供する、ことを含むことができる。
例86において、例83乃至85のうちいずれか1つに記載の構成要件は、ビデオストリーミング使用及びビデオストリーミングサーバ動作を監視する手段、をさらに備える、ことを含むことができる。
例87は、構成要件(例えば、デバイス、装置、又はマシンなど)を含み、複数の高精細ビデオカメラと、上記複数の高精細ビデオカメラからの高精細ビデオのそれぞれのストリームを提供するビデオストリーミングサーバと、無線ネットワークのカバレッジエリアを確立し、上記無線ネットワークの上記カバレッジエリア内におけるそれぞれのモバイルデバイスのロケーションに対する上記複数の高精細ビデオカメラの上記ストリームのデータを無線送信する複数のアクセスポイントと、を備える。
例88において、例87に記載の構成要件は、複数のマーカ、をさらに備え、上記複数のマーカは、上記複数の高精細ビデオカメラにより捕捉された関心エリアに対する上記モバイルデバイスのロケーションを決定するために上記それぞれのモバイルデバイスにより検出可能である、ことを含むことができる。
例89において、例87乃至88のうちいずれか1つに記載の構成要件は、上記複数のマーカが赤外線マーカであり、上記赤外線マーカは上記それぞれのモバイルデバイスのための標示を提供して、上記モバイルデバイスに対する上記赤外線マーカの可視性に基づいて上記複数の高精細ビデオカメラのうち特定のストリームの選択を可能にする、ことを含むことができる。
例90において、例87乃至89のうちいずれか1つに記載の構成要件は、上記それぞれのモバイルデバイス、をさらに備え、上記モバイルデバイスは、上記モバイルデバイスのロケーションと上記赤外線マーカとに対する上記複数の高精細ビデオカメラのそれぞれのストリームの選択された部分を出力する、ことを含むことができる。
例91において、例87乃至90のうちいずれか1つに記載の構成要件は、上記複数のアクセスポイントがIEEE802.11無線ネットワーク標準で動作する、ことを含むことができる。
例92において、例8に記載の構成要件は、上記シーンの上記高精細ビデオの向きに対する上記モバイルデバイスの視点を決定することと、上記モバイルデバイスの表示画面のためのデジタルビデオ出力を生成することであって、上記デジタルビデオの出力は、上記モバイルデバイスの視点に似るようにズームされ及びパンされた上記シーンの上記高精細ビデオの特定の部分を含む、ことと、を含むことができる。
例93において、例8又は92のうちいずれか1つに記載の構成要件は、上記モバイルデバイスの第1の側面の視点から、上記モバイルデバイスの上記第1の側面に位置するカメラを用いて、デジタルイメージを捕捉することであって、上記モバイルデバイスの上記第1の側面は、上記モバイルデバイスの第2の側面の対向であり、上記表示画面は、上記モバイルデバイスの上記第2の側面に位置する、ことと、上記カメラで捕捉された上記関心エリアのイメージを処理することと、上記関心エリアの上記イメージ内のマーカを検出することと、上記関心エリア内の上記マーカを上記ビデオシーンの上記部分の向きに相関させることと、を含むことができる。
例94において、例8又は92乃至93のうちいずれか1つに記載の構成要件は、上記マーカはマシン検出可能マーカであり、上記マシン検出可能マーカは赤外光又はマシン検出可能オブジェクトを含む、ことを含むことができる。
例95において、例8又は92乃至94のうちいずれか1つに記載の構成要件は、無線ネットワークとの接続を確立することと、上記モバイルデバイスのロケーション情報を上記無線ネットワークとの上記接続を介してリモートビデオサーバに送信することと、上記ロケーション情報に応答して上記無線ネットワークとの上記接続を介して上記リモートビデオサーバから上記高精細ビデオストリームを受信することであって、上記高精細ビデオストリームは複数の高精細ビデオストリームから選択される、ことと、を含むことができる。
例96において、例8又は92乃至95のうちいずれか1つに記載の構成要件は、上記記モバイルコンピューティングデバイスの上記ロケーション情報は無線ネットワーク情報を含み、上記無線ネットワーク情報は上記無線ネットワークのための無線アクセスポイントのSSIDを含む、ことを含むことができる。
例97において、例8又は92乃至96のうちいずれか1つに記載の構成要件は、上記モバイルデバイスの上記ロケーション情報は、QRコード、RFIDタグ、又はBluetooth低エネルギービーコンから上記モバイルデバイスにより読み出された識別子を含む、ことを含むことができる。
例98において、上記構成要件は、命令を含む少なくとも1つのマシン読取可能記憶媒体を含むことができ、上記命令は実行されると上記マシンに、例92乃至97のうちいずれかを実行させる。
例99において、上記構成要件は、例92乃至97のうちいずれかを実行するぢゅさんを備えた装置、をさらに含むことができる。
上記詳細説明は添付図面に対する参照を含み、添付図面は詳細説明の一部を形成する。図面は、例示として、実践され得る具体的実施形態を示す。これら実施形態は、本明細書において「例」とも呼ばれる。こうした例は、図示され又は説明された要素に追加で、要素を含んでもよい。しかしながら、図示され又は説明された要素を含む例もまた企図される。さらに、特定の例(又は、その1つ以上の態様)に関連して、又は本明細書に図示され又は説明された他の例(又は、その1つ以上の態様)に関連して、図示され又は説明された上記要素(又は、その1つ以上の態様)の任意の組み合わせ又は入れ替えを用いた例もまた企図される。
本文献において、用語「一の(a、an)」は、特許文献において一般的であるように、「少なくとも1つ」又は「1つ以上」の任意の他のインスタンス又は使用から独立して、1つ又は1つより多くを含むように用いられる。本文献において、用語「又は(or)」は、非排他的な又は(or)を参照するように用いられ、そのため、「A又はB」には、別段示されない限り、「BでなくA」、「AでなくB」、及び「A及びB」が含まれる。別記の請求項において、用語「含む(including)」及び「それにおいて(in which)」は、用語「含む(comprising)」及び「それにおいて(wherein)」それぞれの、平易な英語の均等物として用いられる。さらに、下記の請求項において、用語「含む(including)」及び「含む(comprising)」は開放型であり、すなわち、請求項内で上記用語の後に列挙された要素に追加で要素を含むシステム、デバイス、製品、又は処理が、依然としてその請求項の範囲内に入るとみなされる。さらに、下記の請求項において、用語「第1の」、「第2の」、及び「第3の」等は単にラベルとして用いられ、そうしたオブジェクトのための数的順序を示唆することは意図されない。
上記説明は、制限的でなく例示的であることが意図される。例えば、上述された例(又は、その1つ以上の態様)は、他との組み合わせで用いられてもよい。上記説明を精査した当業者によってなどで、他の実施形態が用いられてもよい。要約書は、読み手が本技術開示の性質を迅速に確かめることを可能にするものであり、請求項の範囲又は意味を解釈し又は限定するのに用いられることはないという理解で提出される。また、上記詳細な説明において、様々な特徴が、本開示を能率化するように一緒にグループ化されることがある。しかしながら、請求項は、本明細書に開示されるあらゆる特徴を明記してはいないことがあり、なぜならば、実施形態は、上記特徴のサブセットを特色にすることがあるからである。さらに、実施形態は、特定の例内に開示される特徴よりもより少ない特徴を含むことがある。ゆえに、下記の請求項は詳細な説明に組み込まれ、請求項はそれ独自で別個の実施形態として自立する。本明細書に開示される実施形態の範囲は、別記の請求項を、該請求項が権利を与えられる均等物の全範囲と共に参照して、決定されるべきである。

Claims (24)

  1. 仮想双眼鏡表示を提供するモバイルコンピューティングデバイスであって、
    プロセッサと、
    前記プロセッサで動作し、無線ネットワークを介してビデオストリーミングサーバからビデオデータの選択されたストリームを受信する無線ネットワーキングモジュールと、
    前記プロセッサで動作し、前記ビデオデータの前記ストリームからのビデオコンテンツを処理するビデオ処理モジュールであって、ビデオデータの前記選択されたストリームは、前記ビデオデータ内に捕捉されたシーンに近接して位置する見物エリア内の当該モバイルコンピューティングデバイスのロケーションに基づいて選択される、ビデオ処理モジュールと、
    前記プロセッサで動作し、当該モバイルコンピューティングデバイスの表示画面に前記ビデオコンテンツの選択強化された部分を出力する表示モジュールであって、前記選択強化された部分は、前記ビデオデータ内に捕捉された前記シーンに対する当該モバイルコンピューティングデバイスの向きに基づいて決定される、表示モジュールと、
    前記シーンのデジタルイメージを捕捉するカメラと、
    を備え、
    前記ビデオデータの前記ストリームからの前記ビデオコンテンツを処理することは、
    前記シーンの前記デジタルイメージ内の少なくとも1つのオブジェクトのイメージ認識を実行することと、
    前記ビデオコンテンツの前記選択強化された部分の中の前記少なくとも1つのオブジェクトのロケーションに基づいて、前記ビデオコンテンツの前記選択強化された部分を識別することと、
    を含み、
    前記プロセッサにより実施され、当該モバイルコンピューティングデバイスにより検出される少なくとも1つのモーション入力に基づいて前記表示画面上の前記ビデオコンテンツの前記選択強化された部分を変更するモーション処理モジュール
    をさらに備え、
    前記少なくとも1つのモーション入力は、前記少なくとも1つのオブジェクトに対する当該モバイルコンピューティングデバイスの動きを含む、モバイルコンピューティングデバイス。
  2. 前記プロセッサにより実施され、前記表示画面への前記ビデオコンテンツの前記選択強化された部分の前記出力の制御をもたらすユーザコマンドを受信するユーザインタラクションモジュール、をさらに備え、前記ビデオコンテンツの前記選択強化された部分は、前記ビデオデータの前記ストリームから前記ビデオコンテンツのズームされ及びパンされた部分を提供する、請求項1に記載のモバイルコンピューティングデバイス。
  3. 前記無線ネットワーキングモジュールは、IEEE802.11無線ネットワークプロトコルに従う前記無線ネットワークの動作を介して前記ビデオデータの前記ストリームを受信し、前記ビデオデータの前記選択されたストリームは、前記見物エリア内に位置する前記無線ネットワークの少なくとも1つのアクセスポイントに対する当該モバイルコンピューティングデバイスのロケーションに基づいて選択され、前記無線ネットワークのアクセスポイントに対する当該モバイルコンピューティングデバイスのロケーションの識別が、前記ビデオストリーミングサーバに通信されて当該モバイルコンピューティングデバイスのロケーションを示す、請求項1に記載のモバイルコンピューティングデバイス。
  4. 前記少なくとも1つのオブジェクトは少なくとも1つのインジケータを含み、前記ビデオ処理モジュールは、前記ビデオコンテンツの前記選択強化された部分の中の前記少なくとも1つのオブジェクトのロケーションに基づいて、前記シーンの前記デジタルイメージ内に検出された前記少なくとも1つのインジケータを、前記ビデオデータ内に捕捉された前記シーンに対する当該モバイルコンピューティングデバイスの向きに相関させる、請求項1に記載のモバイルコンピューティングデバイス。
  5. 記ビデオ処理モジュールは、前記少なくとも1つのインジケータを含む前記シーンの少なくとも部分の前記デジタルイメージを、前記ビデオコンテンツの前記選択強化された部分に相関させる、請求項に記載のモバイルコンピューティングデバイス。
  6. 前記ビデオ処理モジュールはさらに、前記カメラにより捕捉された前記シーンの少なくとも前記部分の前記デジタルイメージを、前記ビデオデータ内に捕捉された前記シーンのイメージと比較し、マッチさせて、前記シーンに対する当該モバイルコンピューティングデバイスの向きを決定する、請求項に記載のモバイルコンピューティングデバイス。
  7. モバイルデバイスにストリーミングビデオを表示する方法であって、当該方法は、前記モバイルデバイスにおけるハードウェアコンポーネントで実行される動作を含み、前記動作は、
    前記モバイルデバイスで、シーンのデジタルイメージを捕捉することと、
    前記シーンの前記デジタルイメージ内の少なくとも1つのオブジェクトのイメージ認識を実行することと、
    前記モバイルデバイスで、選択された高精細ビデオストリームにアクセスすることであって、前記高精細ビデオストリームは、前記モバイルデバイスから離れるビューの方向において及び前記シーンの関心エリアを向いて捕捉された前記シーンの高精細ビデオを提供する、ことと、
    前記少なくとも1つのオブジェクトに基づいて前記関心エリアに対する前記モバイルデバイスの向きを決定することと、
    前記関心エリアに対する前記モバイルデバイスの向きの決定に基づいて前記高精細ビデオの特定のズームされた部分を選択することと、
    前記モバイルデバイスに前記シーンの前記高精細ビデオの前記特定のズームされた部分を表示することと、
    前記モバイルデバイスにより検出される少なくとも1つのモーション入力に基づいて前記高精細ビデオの前記特定のズームされた部分を変更することであって、前記少なくとも1つのモーション入力は、前記少なくとも1つのオブジェクトに対する前記モバイルデバイスの動きを含む、ことと、
    を含む、方法。
  8. 前記シーンの前記高精細ビデオを、前記高精細ビデオの前記特定のズームされた部分に対してパンすることであって、該パンすることは、前記関心エリアに対する前記モバイルデバイスの向きを用いて実行される、ことと、
    前記シーンの前記高精細ビデオを、前記高精細ビデオの前記特定のズームされた部分に対してズームすることであって、該ズームすることは、前記関心エリアに対する前記モバイルデバイスの向きを用いて実行される、ことと、
    をさらに含む請求項に記載の方法。
  9. 前記モバイルデバイスのロケーション情報をリモートサーバに提供することであって、前記ロケーション情報は、前記シーンに隣接した見学エリア内における前記モバイルデバイスのロケーションを示す、ことと、
    複数の高精細ビデオストリームのうち1つから前記高精細ビデオストリームを受信することであって、前記高精細ビデオストリームは、前記モバイルデバイスのロケーション情報に基づいて前記リモートサーバにより選択される、ことと、
    をさらに含む請求項に記載の方法。
  10. 前記少なくとも1つのオブジェクトはマーカであり、当該方法は
    前記モバイルデバイスで、前記シーンの前記デジタルイメージ内の前記マーカを検出すること、をさらに含み、
    前記シーンの前記高精細ビデオ内で前記モバイルデバイスにより検出された前記マーカの位置に基づいて、前記高精細ビデオの前記特定のズームされた部分がさらに選択される
    請求項に記載の方法。
  11. 前記モバイルデバイスの向きを前記高精細ビデオの前記特定のズームされた部分に相関させることは、前記シーンの前記デジタルイメージ内の前記マーカを前記シーンの前記高精細ビデオのイメージ内のマーカにマッチさせて、前記高精細ビデオの前記特定のズームされた部分の前記選択において前記モバイルデバイスからの前記シーンの視点をシミュレートすることを含む、請求項1に記載の方法。
  12. 前記マーカは、前記シーン内に位置決めされた少なくとも1つの赤外光により提供される、請求項1に記載の方法。
  13. 前記マーカは、前記シーン内に位置決めされたマシン読取可能オブジェクトであり、前記マシン読取可能オブジェクトは、前記シーンに対するロケーションに関連付けられた識別子を提供する、請求項1に記載の方法。
  14. 前記高精細ビデオの前記特定のズームされた部分に情報オーバーレイを表示することであって、前記情報オーバーレイは、前記高精細ビデオの前記特定のズームされた部分内に描写される少なくとも1つの実世界アイテムに関する情報を提供する、こと
    をさらに含む請求項に記載の方法。
  15. 前記モバイルデバイスでのグラフィカルユーザインターフェース出力に関連して受信される少なくとも1つのユーザ入力を処理することであって、前記少なくとも1つのユーザ入力は、
    複数の高精細ビデオストリームの中から前記高精細ビデオストリームを選択し、
    前記シーンの前記高精細ビデオの、前記シーンの別の関心エリアに対するパンニングを実行し、又は、
    前記シーンの前記関心エリアの別の部分のズームされた表示を生成するように前記シーンの前記高精細ビデオのズーミングを実行する
    ように用いられる、こと
    をさらに含む請求項に記載の方法。
  16. 前記シーンの前記高精細ビデオの向きに対する前記モバイルデバイスの視点を決定することと、
    前記モバイルデバイスの表示画面のためのデジタルビデオ出力を生成することであって、前記デジタルビデオ出力は、前記モバイルデバイスの視点にマッチするようにズームされ及びパンされた前記シーンの前記高精細ビデオの特定の部分を含む、ことと、
    をさらに含む請求項に記載の方法。
  17. 前記少なくとも1つのオブジェクトはマーカであり、当該方法は
    メラで捕捉された前記関心エリアの前記デジタルイメージを処理することと、
    前記関心エリアの前記デジタルイメージ内の前記マーカを検出することと、
    前記関心エリア内の前記マーカを前記シーンの前記特定の部分の向きに相関させることと、
    をさらに含む請求項1に記載の方法。
  18. 前記マーカはマシン検出可能マーカであり、前記マシン検出可能マーカは赤外光又はマシン検出可能オブジェクトを含む、請求項1に記載の方法。
  19. 無線ネットワークとの接続を確立することと、
    前記無線ネットワークとの前記接続を介して前記モバイルデバイスのロケーション情報をリモートビデオサーバに送信することと、
    前記ロケーション情報に応答して前記無線ネットワークとの前記接続を介して前記リモートビデオサーバから前記高精細ビデオストリームを受信することであって、前記高精細ビデオストリームは複数の高精細ビデオストリームから選択される、ことと、
    をさらに含む請求項1に記載の方法。
  20. 前記モバイルデバイスの前記ロケーション情報は無線ネットワーク情報を含み、前記無線ネットワーク情報は前記無線ネットワークのための無線アクセスポイントのSSIDを含む、請求項19に記載の方法。
  21. 前記モバイルデバイスの前記ロケーション情報は、QRコード、RFIDタグ、又はBluetooth低エネルギービーコンから前記モバイルデバイスにより読み出された識別子を含む、請求項19に記載の方法。
  22. マシンに請求項乃至2のうちいずれか1項に記載の方法を実行させるコンピュータプログラム。
  23. 請求項乃至2のうちいずれか1項に記載の方法を実行する手段を備えた装置。
  24. 請求項2に記載のコンピュータプログラムを記憶したマシン読取可能記憶媒体。
JP2017530760A 2014-12-23 2015-12-01 インタラクティブ双眼鏡ビデオ表示 Active JP6622308B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/581,548 US9591349B2 (en) 2014-12-23 2014-12-23 Interactive binocular video display
US14/581,548 2014-12-23
PCT/US2015/063168 WO2016105880A1 (en) 2014-12-23 2015-12-01 Interactive binocular video display

Publications (2)

Publication Number Publication Date
JP2018505584A JP2018505584A (ja) 2018-02-22
JP6622308B2 true JP6622308B2 (ja) 2019-12-18

Family

ID=56131045

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017530760A Active JP6622308B2 (ja) 2014-12-23 2015-12-01 インタラクティブ双眼鏡ビデオ表示

Country Status (6)

Country Link
US (1) US9591349B2 (ja)
EP (1) EP3238445B1 (ja)
JP (1) JP6622308B2 (ja)
KR (1) KR102475595B1 (ja)
CN (1) CN107079184B (ja)
WO (1) WO2016105880A1 (ja)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102016545B1 (ko) * 2013-10-25 2019-10-21 한화테크윈 주식회사 검색 시스템 및 그의 동작 방법
US9591349B2 (en) * 2014-12-23 2017-03-07 Intel Corporation Interactive binocular video display
US10503264B1 (en) * 2015-06-16 2019-12-10 Snap Inc. Radial gesture navigation
GB201520519D0 (en) * 2015-11-20 2016-01-06 Microsoft Technology Licensing Llc Communication system
GB201520509D0 (en) 2015-11-20 2016-01-06 Microsoft Technology Licensing Llc Communication system
US20180376193A1 (en) * 2016-03-17 2018-12-27 Hewlett-Packard Development Company, L.P. Frame transmission
US10530731B1 (en) 2016-03-28 2020-01-07 Snap Inc. Systems and methods for chat with audio and video elements
US10057604B2 (en) * 2016-07-01 2018-08-21 Qualcomm Incorporated Cloud based vision associated with a region of interest based on a received real-time video feed associated with the region of interest
US9948982B2 (en) * 2016-07-05 2018-04-17 Sony Corporation Locality systems and methods for digital broadcasting
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
US10152959B2 (en) * 2016-11-30 2018-12-11 Plantronics, Inc. Locality based noise masking
US10078909B1 (en) * 2017-05-16 2018-09-18 Facebook, Inc. Video stream customization using graphics
KR102431712B1 (ko) * 2017-09-04 2022-08-12 삼성전자 주식회사 전자장치, 그 제어방법 및 그 컴퓨터프로그램제품
US10855728B2 (en) * 2017-09-29 2020-12-01 Honeywell International Inc Systems and methods for directly accessing video data streams and data between devices in a video surveillance system
CN110163050B (zh) * 2018-07-23 2022-09-27 腾讯科技(深圳)有限公司 一种视频处理方法及装置、终端设备、服务器及存储介质
US11275292B2 (en) 2018-10-22 2022-03-15 Good Sportsman Marketing, Llc Viewing device for optical devices
US11037225B2 (en) * 2019-04-25 2021-06-15 Capital One Services, Llc Generating augmented reality vehicle information for a vehicle captured by cameras in a vehicle lot
US12025711B2 (en) * 2020-03-26 2024-07-02 Mcafee, Llc Crowdsourced reputations for wireless networks
CN112601117B (zh) * 2020-12-11 2022-10-28 海信视像科技股份有限公司 显示设备和内容展示方法
KR20220078298A (ko) * 2020-12-03 2022-06-10 삼성전자주식회사 적응적 증강 현실 스트리밍 제공 방법 및 이를 수행하는 장치
WO2023132132A1 (ja) * 2022-01-07 2023-07-13 株式会社Nttドコモ 画像送信システムおよび画像送信装置
US20240073090A1 (en) * 2022-08-24 2024-02-29 Dell Products, L.P. Contextual move detection and handling during a collaboration session in a heterogenous computing platform

Family Cites Families (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060174297A1 (en) * 1999-05-28 2006-08-03 Anderson Tazwell L Jr Electronic handheld audio/video receiver and listening/viewing device
US7796162B2 (en) * 2000-10-26 2010-09-14 Front Row Technologies, Llc Providing multiple synchronized camera views for broadcast from a live venue activity to remote viewers
US8583027B2 (en) * 2000-10-26 2013-11-12 Front Row Technologies, Llc Methods and systems for authorizing computing devices for receipt of venue-based data based on the location of a user
US7812856B2 (en) * 2000-10-26 2010-10-12 Front Row Technologies, Llc Providing multiple perspectives of a venue activity to electronic wireless hand held devices
EP1586190B1 (de) * 2003-01-23 2006-05-24 BenQ Mobile GmbH & Co. oHG Mobiltelefon mit schwenkbarer kamera
US20060104600A1 (en) * 2004-11-12 2006-05-18 Sfx Entertainment, Inc. Live concert/event video system and method
FR2878641B1 (fr) * 2004-11-26 2007-07-06 Eastman Kodak Co Procede de navigation automatique contrainte vers des regions d'interet d'une image
WO2007009225A1 (en) * 2005-07-22 2007-01-25 Kangaroo Media Inc. System and methods for enhancing the experience of spectators attending a live sporting event
US20070109324A1 (en) 2005-11-16 2007-05-17 Qian Lin Interactive viewing of video
EP1916845A1 (en) * 2006-10-23 2008-04-30 Udo Tschimmel Method and system for transmitting views from within an event area to spectators within the event area
US20080147730A1 (en) * 2006-12-18 2008-06-19 Motorola, Inc. Method and system for providing location-specific image information
US8180396B2 (en) 2007-10-18 2012-05-15 Yahoo! Inc. User augmented reality for camera-enabled mobile devices
US9185361B2 (en) * 2008-07-29 2015-11-10 Gerald Curry Camera-based tracking and position determination for sporting events using event information and intelligence data extracted in real-time from position information
US20100208082A1 (en) * 2008-12-18 2010-08-19 Band Crashers, Llc Media systems and methods for providing synchronized multiple streaming camera signals of an event
KR20110131247A (ko) 2009-02-27 2011-12-06 파운데이션 프로덕션, 엘엘씨 헤드셋 기반 원격통신 플랫폼
JP2011055250A (ja) * 2009-09-02 2011-03-17 Sony Corp 情報提供方法及び装置、情報表示方法及び携帯端末、プログラム、並びに情報提供システム
US9083956B2 (en) 2009-09-28 2015-07-14 Samsung Electronics Co., Ltd. System and method for creating 3D video
US8953022B2 (en) * 2011-01-10 2015-02-10 Aria Glassworks, Inc. System and method for sharing virtual and augmented reality scenes between users and viewers
US8488011B2 (en) * 2011-02-08 2013-07-16 Longsand Limited System to augment a visual data stream based on a combination of geographical and visual information
US9930225B2 (en) 2011-02-10 2018-03-27 Villmer Llc Omni-directional camera and related viewing software
US8836771B2 (en) * 2011-04-26 2014-09-16 Echostar Technologies L.L.C. Apparatus, systems and methods for shared viewing experience using head mounted displays
US9123155B2 (en) 2011-08-09 2015-09-01 Covidien Lp Apparatus and method for using augmented reality vision system in surgical procedures
US20130249947A1 (en) 2011-08-26 2013-09-26 Reincloud Corporation Communication using augmented reality
US9258459B2 (en) 2012-01-24 2016-02-09 Radical Switchcam Llc System and method for compiling and playing a multi-channel video
JP2013161390A (ja) * 2012-02-08 2013-08-19 Sony Corp サーバ、クライアント端末、システム、およびプログラム
JP5891843B2 (ja) * 2012-02-24 2016-03-23 ソニー株式会社 クライアント端末、サーバ、およびプログラム
US9661047B2 (en) 2012-04-30 2017-05-23 Mobilatv Ltd. Method and system for central utilization of remotely generated large media data streams despite network bandwidth limitations
US8825374B2 (en) * 2012-06-05 2014-09-02 At&T Intellectual Property I, L.P. Navigation route updates
WO2014025319A1 (en) * 2012-08-08 2014-02-13 National University Of Singapore System and method for enabling user control of live video stream(s)
US9532095B2 (en) * 2012-11-29 2016-12-27 Fanvision Entertainment Llc Mobile device with smart gestures
US20150347827A1 (en) * 2012-12-19 2015-12-03 Fanpics, Llc Image capture, processing and delivery at group events
GB2512621A (en) * 2013-04-04 2014-10-08 Sony Corp A method and apparatus
US20150178817A1 (en) * 2013-06-06 2015-06-25 Zih Corp. Method, apparatus, and computer program product for enhancement of fan experience based on location data
US20150007238A1 (en) * 2013-06-26 2015-01-01 Delaware General Corporation Systems and mehtods for content streaming to event spectators
US9729711B2 (en) * 2013-09-27 2017-08-08 GreatCall, Inc. Unintentional call detection and response
KR20150133496A (ko) * 2014-05-20 2015-11-30 (주)에프엑스기어 네트워크를 통해 헤드마운트형 디스플레이 장치를 포함하는 수신기에 영상을 전송하는 방법과, 이를 위한 송신기, 중계 서버 및 수신기
JP6459380B2 (ja) * 2014-10-20 2019-01-30 セイコーエプソン株式会社 頭部装着型表示装置、頭部装着型表示装置の制御方法、および、コンピュータープログラム
US9591349B2 (en) * 2014-12-23 2017-03-07 Intel Corporation Interactive binocular video display

Also Published As

Publication number Publication date
KR20170107424A (ko) 2017-09-25
JP2018505584A (ja) 2018-02-22
US20160182940A1 (en) 2016-06-23
WO2016105880A1 (en) 2016-06-30
KR102475595B1 (ko) 2022-12-08
CN107079184A (zh) 2017-08-18
US9591349B2 (en) 2017-03-07
CN107079184B (zh) 2020-11-17
EP3238445A4 (en) 2018-11-14
EP3238445B1 (en) 2022-03-30
EP3238445A1 (en) 2017-11-01

Similar Documents

Publication Publication Date Title
JP6622308B2 (ja) インタラクティブ双眼鏡ビデオ表示
US10445941B2 (en) Interactive mixed reality system for a real-world event
CN107534789B (zh) 影像同步装置及影像同步方法
US10277813B1 (en) Remote immersive user experience from panoramic video
US10911694B2 (en) System and method for creating metadata model to improve multi-camera production
WO2016009864A1 (ja) 情報処理装置、表示装置、情報処理方法、プログラム、および情報処理システム
US9392248B2 (en) Dynamic POV composite 3D video system
WO2015174501A1 (ja) 全周動画配信システム、全周動画配信方法、画像処理装置、通信端末装置およびそれらの制御方法と制御プログラム
US10296281B2 (en) Handheld multi vantage point player
US11688079B2 (en) Digital representation of multi-sensor data stream
US10156898B2 (en) Multi vantage point player with wearable display
JP2015220595A (ja) 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
JP6002191B2 (ja) 全周動画配信システム、全周動画配信方法、通信端末装置およびそれらの制御方法と制御プログラム
WO2017133147A1 (zh) 一种实景地图的生成方法、推送方法及其装置
EP3503101A1 (en) Object based user interface
US20180227572A1 (en) Venue specific multi point image capture
KR102523493B1 (ko) 가상 카메라 머신을 이용한 콘텐츠 제공 시스템 및 방법
JP2020042407A (ja) 情報処理装置、情報処理方法及びプログラム
US20180077356A1 (en) System and method for remotely assisted camera orientation
US11657574B2 (en) Systems and methods for providing an audio-guided virtual reality tour
US20190246171A1 (en) Device, System, and Method for Game Enhancement Using Cross-Augmentation
KR20150030889A (ko) 멀티앵글영상서비스 제공 방법 및 시스템
WO2024116270A1 (ja) 携帯情報端末及び仮想現実表示システム
WO2024084943A1 (ja) 情報処理装置、情報処理方法、プログラム
EP4430829A1 (en) Systems and methods for providing rapid content switching in media assets featuring multiple content streams that are delivered over computer networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191121

R150 Certificate of patent or registration of utility model

Ref document number: 6622308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250