JP6742444B2 - ライブストリーミング用のバーチャルリアリティ360度ビデオカメラシステム - Google Patents

ライブストリーミング用のバーチャルリアリティ360度ビデオカメラシステム Download PDF

Info

Publication number
JP6742444B2
JP6742444B2 JP2018564252A JP2018564252A JP6742444B2 JP 6742444 B2 JP6742444 B2 JP 6742444B2 JP 2018564252 A JP2018564252 A JP 2018564252A JP 2018564252 A JP2018564252 A JP 2018564252A JP 6742444 B2 JP6742444 B2 JP 6742444B2
Authority
JP
Japan
Prior art keywords
image data
video image
cameras
camera
imaging system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018564252A
Other languages
English (en)
Other versions
JP2019524020A (ja
Inventor
チョウ,チャンイン
Original Assignee
ヴィズビット インコーポレイテッド
ヴィズビット インコーポレイテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヴィズビット インコーポレイテッド, ヴィズビット インコーポレイテッド filed Critical ヴィズビット インコーポレイテッド
Publication of JP2019524020A publication Critical patent/JP2019524020A/ja
Application granted granted Critical
Publication of JP6742444B2 publication Critical patent/JP6742444B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/21805Source of audio or video content, e.g. local disk arrays enabling multiple viewpoints, e.g. using a plurality of cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/194Transmission of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2181Source of audio or video content, e.g. local disk arrays comprising remotely distributed storage units, e.g. when movies are replicated over a plurality of video servers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/816Monomedia components thereof involving special video data, e.g 3D video
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8166Monomedia components thereof involving executable data, e.g. software
    • H04N21/8173End-user applications, e.g. Web browser, game
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Marketing (AREA)
  • Business, Economics & Management (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Computer Hardware Design (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

関連出願への相互参照
本出願は、2016年6月7日出願の米国仮特許出願第62/347,077号に基づく利益を主張し、上記仮特許出願の内容を参照により本明細書に援用する。
背景
ストリーミング360度ビデオコンテンツは、バーチャルリアリティ(VR)及び拡張現実(AR)アプリケーションのための没入型環境を提供することができる。
概要
一態様では、撮像システムが提供される。撮像システムは、環境のそれぞれの視野に基づいてビデオ画像データをキャプチャするように構成された複数のカメラを含む。複数のカメラのうちの各カメラが、通信インターフェースを介して複数のカメラのうちの近隣のカメラと通信可能に結合される。複数のカメラのうちの各カメラは、少なくとも1つのプロセッサ、及びメモリを含む。少なくとも1つのプロセッサが、メモリに格納された命令を実行して操作を実施する。操作は、それぞれの視野のビデオ画像データをキャプチャすること、及びオーバーレイ領域を決定することを含む。オーバーレイ領域が、それぞれのカメラと近隣のカメラの少なくとも1つとによってキャプチャされたビデオ画像データの重畳部分を含む。また、操作は、それぞれの視野のキャプチャされたビデオ画像データをオーバーレイ領域に基づいてトリミング及びワーピングして、それぞれの処理されたビデオ画像データを生成することも含む。
一態様では、方法が提供される。この方法は、撮像システムの複数のカメラのうちのそれぞれのカメラに関連する処理されたビデオ画像データを受信することを含む。複数のカメラのうちの各カメラは、環境のそれぞれの視野のビデオ画像をキャプチャするように構成される。処理されたビデオ画像データは、オーバーレイ領域に基づいて、トリミング及びワーピングされたビデオ画像データを含む。オーバーレイ領域は、複数のカメラのうちの少なくとも2つの近隣のカメラによってキャプチャされたビデオ画像データの重畳部分を含む。また、この方法は、ストリーミングされたビデオを、複数の通信リンクを介してクライアントデバイスに提供することも含む。ストリーミングされたビデオは、処理されたビデオ画像データに基づく。
一態様では、システムが提供される。システムは、本明細書で述べる他のそれぞれの態様の操作を行うための様々な手段を含む。
これら及び他の実施形態、態様、利点、及び代替形態は、添付図面を適宜参照しながら以下の詳細な説明を読めば当業者には明らかになろう。さらに、この概要、並びに本明細書において提供される他の記載及び図は、単に例として実施形態を例示することを意図されており、したがって多くの変形形態が可能であることを理解されたい。例えば、特許請求される実施形態の範囲内に留まりながら、構造要素及びプロセスステップを構成し直す、組み合わせる、分散する、削除する、又は他の方法で変更することができる。
図面の簡単な説明
従来のバーチャルリアリティ360°ビデオストリーミングパイプラインを示す図である。 従来のバーチャルリアリティ360°ビデオストリーミングパイプラインを示す図である。 従来のバーチャルリアリティ360°ビデオストリーミングパイプラインを示す図である。 従来のバーチャルリアリティ360°ビデオストリーミングパイプラインを示す図である。 1つの例示的実施形態による、分散型バーチャルリアリティ360°ビデオキャプチャ、処理、及びストリーミングシステムを示す図である。 1つの例示的実施形態によるシステムを示す図である。 1つの例示的実施形態による、独立したカメラを有するシステムを示す図である。 1つの例示的実施形態による幾何学的なカメラ配置を示す図である。 1つの例示的実施形態によるユニット間接続を示す図である。 1つの例示的実施形態によるユニット間接続を示す図である。 1つの例示的実施形態による、隣接するカメラユニットにおけるワーピング及びトリミングを示す図である。 1つの例示的実施形態による、奥行きマップを推定することによる画像フレームのワーピング及びトリミングを示す図である。 1つの例示的実施形態による、奥行きマップを推定することによる画像フレームのワーピング及びトリミングを示す図である。 1つの例示的実施形態による、グラフカットによる画像フレームのワーピング及びトリミングを示す図である。 1つの例示的実施形態による、キャプチャから消費までのライブストリームを示す図である。 1つの例示的実施形態による、キャプチャから消費までのライブストリームを示す図である。
詳細な説明
例示的な方法、デバイス、及びシステムを本明細書に述べる。「例」及び「例示的」という語は、本明細書では、「例、実例、又は例示として役立つ」ことを意味するために使用されることを理解されたい。「例」又は「例示的」であるものとして本明細書で述べる任意の実施形態又は特徴は、他の実施形態又は特徴よりも好ましい又は有利であるとは必ずしも解釈されない。本明細書で提示する主題の範囲から逸脱することなく、他の実施形態を利用することができ、他の変更を施すこともできる。
したがって、本明細書で述べる例示的実施形態は、限定するものとは意図されていない。本明細書で全般的に述べ、図面に示す本開示の態様は、多様な異なる構成で配置する、置換する、組み合わせる、分離する、及び設計することができ、それら全てが本明細書で企図される。
さらに、文脈上特に示唆されていない限り、各図に示す特徴を互いに組み合わせて使用してもよい。したがって、図面は、概して、1つ又は複数の全体的な実施形態の一態様とみなすべきであり、例示する特徴全てが各実施形態に必要というわけではないことを理解されたい。
I.概要
バーチャルリアリティ(VR)360°ビデオは、制作から消費までの長いパイプラインを有する。図1に、従来のバーチャルリアリティ360°ビデオストリーミングパイプライン100を示す。(1)パイプライン100は、VR360°カメラから始まる。VR360°カメラは、複数のカメラからなることが多い。これらのカメラはリグに取り付けられ、各カメラは、異なる視野角をキャプチャするように配置される。これらのカメラは、重畳する視野(FOV)を含み、画像ステッチングによって360×180度の球状ビュー全体をカバーする。(2)全てのカメラからのデータが処理ユニットに読み込まれ、処理ユニットは、複数のビデオストリームを整列させてステッチし、1つの360°ストリームにする;(3)次いで、360°ストリームを編集することができる;(4)次いで、編集されたビデオが符号化されて、クラウドにアップロードされる;(5)次いで、ビデオは、クラウドにおいてトランスコードされ、ストリーミングの準備が整う;(6)ビデオコンテンツがクライアントに配信される;さらに(7)クライアントアプリケーションがコンテンツを受信し、それらをエンドユーザにレンダリング/表示する。
パイプラインは、実際の実装ではいくつかのコンポーネントに分かれることがある。例えば、図2に、従来のバーチャルリアリティ360°ビデオストリーミングパイプライン200を示す。このパイプライン200は、A.360°カメラ、B.強力なコンピュータ、C.強力なクラウドサーバ、及びD.VRヘッドセット又はスマートフォンからなる。この構成では、強力なコンピュータ(C)は、ステッチング、編集、符号化からアップロードまで、多くの高負荷な作業を行う。コンピュータが360°カメラから大量のデータを受信すること、ステッチング及び符号化は大きな計算量を必要とすること、ローカルストレージが、大きなデータを格納するのに十分に大きくなければならないこと、及び処理されたビデオをインターネットのクラウドにアップロードするにはかなりの時間及び帯域幅を要することに留意されたい。これらの難点により、このコンピュータは、超強力(高速I/IO、大量のメモリ、高速CPU又はGPU、及び高速インターネット接続)にしなければならず、高価である。さらに、360°カメラは、より高い品質のためにより多くのカメラを含むように容易にスケールアップすることができるが、それに応じて強力なコンピュータをスケールアップすることは困難である。その結果、この解決策は通常、ライブストリーミングに十分に速くデータを処理することができない。
図3に、従来のバーチャルリアリティ360°ビデオストリーミングパイプライン300を示し、このパイプライン300では、符号化及びアップロードが専用のデバイスによって行われ、強力なコンピュータは、ビデオ編集及びステッチングのみを扱う。しかしやはり、360°カメラがスケールアップするにつれて、ライブストリーミングに十分に速くステッチングが行われない可能性がある;また、1つの専用デバイスは、高解像度(例えば4K、8K、12K)ビデオをリアルタイムで符号化することができないことがある。
別の従来のバーチャルリアリティ360°ビデオストリーミングパイプライン400を図4に示す。ステッチング及び符号化が、360°カメラにおいてハードウェア解決策で行われ、強力なコンピュータは、(必要であれば)さらなる編集及び符号化を行い、最終結果をアップロードする。この構成では、VRカメラでの作業が非常に高負荷であることが多く、ビデオ品質と解像度を犠牲にしなければならないことが多い。
本発明者らは、VR360°ビデオキャプチャ及びライブストリーミングのための分散型インフラストラクチャを提案する。図5に、1つの例示的実施形態による、分散型バーチャルリアリティ360°ビデオキャプチャ、処理、及びストリーミングシステム500を示す。システムの各カメラは、プロセッサ(CPU、GPU)、ストレージ、及び送信ユニットと一体化されている。したがって、各カメラは、一体型モジュールに組み込まれてもよい。このモジュールは、小さいFOVに関して、画像のキャプチャ、ワーピング、ステッチング、編集、符号化、トランスコーディング、アップロードまでを行うように構成されてもよい。このVR360°ビデオカメラシステムは、K個の一体型カメラモジュールからなる。これらのモジュールは、最良のステッチングのために互いに通信し、操作を並列に行うことができる。
各一体型カメラモジュールからのビデオは注意深くワーピングされトリミングされているので、それらをステッチし合わせるためにさらなる整列は必要とされない。クラウドにおいて比較的低い計算量で全てのビデオをステッチし合わせることを選択することができ、又は最終的な表示デバイス(例えば、VRヘッドセット、スマートフォンなど)においてレンダリング中にビデオをステッチすることを選択することもできる。
II.例示的なシステム
A.一体型カメラユニット
一実施形態では、図6に示すように、カメラ、プロセッサ、ストレージ、及び送信モジュールの一体型ユニットを形成して、1つのモジュールにすることができる。すなわち、図6には、1つの例示的実施形態によるシステム600を示す。
別の実施形態では、図7に示すように、カメラを他の構成要素から物理的に分離することができる。図7には、1つの例示的実施形態による、独立したカメラを有するシステム700を示す。そのような配置は、VR360°カメラリグの正しい位置へのカメラの取付けをより簡単にすることができる。
また、各カメラユニットは、マイクロフォンを含んでいてもよく、それにより、全てのカメラユニットが合わさって、異なる方向でのサウンドを記録してストリーミングすることができる。
B.VR360°カメラシステムの幾何学的形状
VR360°カメラシステムは、様々な数のカメラからなっていてよい。これらのカメラは、所望のFOVをカバーするために様々な形で幾何学的に配置することができる。図8に、1つの例示的実施形態による幾何学的なカメラ配置800を示す。図8には、全視野をカバーする14個のカメラユニットの例示的な幾何学的配置を示す。上部(平面1)にあるカメラ1は上方向に向いており、魚眼レンズで100°×100°FOVをカバーする。平面2にあるカメラ2〜7は、外方向に向き、50°×360°FOVの円柱ビューをカバーし、各カメラが50°×65°FOVをカバーし、連続する(例えば隣接及び/又は近接する)カメラ間で5°の水平方向重畳を有する。システムの下半分(例えば、カメラ8〜14)は、上半分に対して対称的でよい。
球よりも小さいFOVが望まれる場合、又は個々のカメラそれぞれがより大きいFOVを有する場合、より少数のカメラを実装してもよい。カメラ間のより大きい重畳が望まれる場合(例えば、より簡単なステッチングや、より大きい冗長性のために)、又は個々のカメラそれぞれがより小さいFOVを有する場合、より多くのカメラを実装してもよい。
1つの例示的実施形態では、各平面に沿って(例えば各視点に)一対のカメラを配置して、全ての視野に関する立体視を提供することができる。
また、本開示は360°ビデオに関わる例を提供するが、360°未満の視野を有するビデオを提供するために同じ方法及びシステムを適用することができる。
C.カメラユニット間の相互接続
本明細書で提案されるVR360°カメラシステムでは、各カメラユニットは、ビデオフレームを処理して、異なるカメラからのフレームを出力し、それらを直接ステッチして球状ビューを形成することができ、又はステッチした後に少量のさらなる処理で球状ビューを形成することができる。そのようなシナリオでは、各カメラは、画像処理(例えばワーピング及び/又はトリミング)を行うために、その近隣のカメラユニット(例えば近隣のカメラ)から情報を受信する必要がある。
一実施形態では、これらのカメラユニットは、図9Aに示すように、有線又は無線通信インターフェース(例えば、BLUETOOTH(登録商標)、BLUETOOTH(登録商標) LOW ENERGY、WiFi、又は別の種類の通信プロトコル)を介して互いに直接接続される。図9Aに、ユニット間接続を示す。別の実施形態では、図9Bに示すように有線又は無線通信インターフェースを介して各カメラユニットを中央ハブデバイスに接続することができる。この相互接続により、カメラユニットは、ランタイム時に各カメラユニットでのそれぞれの画像処理に関する情報を交換することが可能になる。
一実施形態では、全てのカメラの幾何学的位置を事前に較正することができ、これにより、ランタイム中のカメラ間の通信をなくすことができる。これは、ステッチング品質を犠牲にしてシステムを単純化する。例えば、高品質のステッチングは、カメラの幾何学的配置と、撮像された被写体の空間的位置との両方の結果として得られる。
バッテリは、一体型ユニットに含まれていても含まれていなくてもよい。例えば、撮像システムは、外部から電力供給されてもよい。追加として又は代替として、バッテリは、撮像システムにいくらかの電力又は全ての電力を供給することができる。
1つの例示的実施形態では、アップロードプロセスを高速化するように又は容易化の助けとなるように、VRカメラシステムとクラウドサーバとの間の通信リンク及びハードウェアアーキテクチャにネットワークデバイスを組み込むことができる。
III.例示的な方法
A.カメラ同期
本明細書で提案されたVR360°カメラシステムにおける各カメラユニットは、球状ビューの一部をキャプチャする。各カメラからの画像をステッチし合わせて360°画像フレーム(及び360°ビデオ)にするためには、各カメラユニットにおける画像キャプチャを同期させる必要がある。カメラシステムクロックは、カメラ間の通信に基づいて同期させることができる。追加として又は代替として、カメラがビデオをキャプチャしている間に同期フラッシュが発光されてもよい。そのようなシナリオでは、同期フラッシュをキャプチャするそれぞれのビデオデータからのフレームを見つけることによって、カメラを同期させることができる。追加として又は代替として、(例えばカメラのビデオキャプチャを同時に停止することにより)最後のビデオクリップを分析することによってカメラを同期させることができる。
全てのカメラが同期されている場合、任意の所与の時点tに関して、ターゲット360°ビデオにおいて、tに最も近い各ビデオクリップでの1つのフレームを特定し、それらをステッチし合わせることができる。ここで、より良い平滑性のために、時間次元において線形補間を使用してもよい。
B.ビデオステッチングのためのワーピングとトリミング
1.背景
ビデオステッチングの難しさは、1)レンズ歪;及び2)カメラ間の視野差に起因することがある。レンズ歪は、ランタイム前又はランタイム時に行うことができるカメラ較正によってほぼ補正することができる。カメラの視野差はシーンに依存し、ビデオがキャプチャされているときにカメラの重畳を使用して対処することができる。
1つのカメラユニットからのフレームは、その近隣のカメラユニットからのフレームと重畳する。図10に、異なるカメラユニットからの2つのフレームを示す。重畳する領域は、赤い長方形でマークされている。これらの重畳領域を使用して、フレームをワーピング及びトリミングする。そのようなワーピング及び/又はトリミングが個々のフレームに対して行われた後、図示するようにフレームをシームレスにステッチすることができる。
重畳領域の情報は、様々な形で送信することができる。1)(図10に赤い長方形で示すような)取り得る最大のオーバーレイ領域をその近隣のカメラユニットに送信することができる;2)これらの領域で特徴点(例えば、SIFT(スケール不変特徴変換)点)を検出し、これらの特徴点をその近隣のカメラユニットに送信することができる;3)画素の重畳領域と検出された特徴点との両方を送信することができる;4)フレームごとに、又はフレームの周期的若しくは非周期的な間隔にわたってこれらの情報を送信することができる。例えば、重畳領域に関する情報は、キャプチャされたシーンが(例えば画像ヒストグラム又は別の画像測定基準に基づいて)閾値量だけ変化したのに応答して、及び/又は既知の重畳領域付近の特徴が閾値距離を超えて移動したのに応答して、近隣のカメラに送信することができる。
2.カメラユニットごとのビデオワーピング及びトリミング
図11A及び11Bに、1つの例示的実施形態による、奥行きマップを推定することによる画像フレームのワーピング及びトリミングを示す。図11A及び11Bには、5つのカメラが360°視野内に一様に分布し、それぞれが90°FOVをカバーする2Dビューの例を示す。一方法では、各カメラユニットは、中心点の視点から72°の最終的な画像の生成を担い、したがって、5つのカメラからの全てのフレームを組み合わせて、単一の視点Oからの360°の1フレームが生成される。各カメラユニットの担当するFOVは較正中に予め決定される。
図11Bに示すように、視点Aからの画像F1と、それぞれ点B及びCからの近隣のカメラからの画像F2及びF3とを用いて、単一の視点Oから画像を生成する様々な方法がある。例示的なプロセスを図11Bに示す。
1.F1とF2の間で、F1、P1の最も右の画素に関する視差を計算し、次いでこの画素の奥行きを推測する。
2.F1とF3の間で、F1、P2の最も左の画素に関する視差を計算し、次いでこの画素の奥行きを推測する。
3.F1内の他の画素の奥行きを推定し、P1及びP2の奥行きの線形補間を使用する。
4.全ての画素の奥行きが推定されると、視点Oに関して、ターゲットの72°にF1をマッピングし直すことができる。
ターゲット画像を生成するために奥行きを明示的に計算する必要はない。別の例示的な解決策を図12に示す。図12には、1つの例示的実施形態による、グラフカットによる画像フレームのワーピング及びトリミングを示す。
1.点Aからのフレーム(2)ごとに、重畳し得る領域を取得する。例えば、視点C及びAからの領域W及びU、並びに視点A及びBからの領域P及びQである。
2.重畳領域の対ごとに、(4)及び(5)に示したように、WとUの間、及びPとQの間の不連続性を最小にする最良のカットを見つける。多くのグラフカットアルゴリズムが文献で提案されている。
3.(6)に示したように、フレーム1から、領域W及び領域Qをトリミングし、次いで、残りの領域を水平方向にワーピングして、矩形の画像にする。
4.実際には、各フレームは、その近隣のカメラとの4つの重畳領域を有することがある。その結果、フレーム1は、(7)に示したように4方向でトリミングすることができる(W、V、Q、Y)。次いで、残りの領域は、水平方向及び垂直方向にワーピングされて、最終的な長方形の画像にされる。
5.全てのカメラからのトリミング及びワーピングされたフレームは、より少量のステッチングアーチファクトで球状ビュー全体をカバーする。
一実施形態では、時間的な平滑性のために、重畳領域間の最良のカットを見つけるときに、さらなる平滑性制約(例えば、エッジアライメント、動き補償、カラー/形状マッチング、トーンマッピング、露出補正などを行う)を課してもよい。
この処理は、フレームごとに、又はフレームの周期的若しくは非周期的な間隔にわたって行うことができる。グラフカット(例えばトリミング及びワーピング)は、画像処理期間の間のそれぞれの画像の推定移動速度及び/又は他の変化に基づいて補間されてもよい。
C.データストレージ
各カメラユニットからのビデオデータは、即座にローカルストレージに保存されてもよく、又はローカルストレージへの保存前に(前のセッションで述べたように)まずトリミング及びワーピングされてもよい。
ローカルストレージ内の1つのファイルに保存する前に、ビデオデータを符号化することもできる(例えば、H.264、VP8、VP9など)。また、ビデオデータは、後のストリーミング(例えば、HLS、DASH)のためにローカルストレージ内の一連の小さなトランクファイルに符号化されてもよい。
D.ビデオデータのアップロードとライブストリーム
ローカルストレージに保存するか否かにかかわらず、処理されたビデオデータは、リアルタイムでクラウドにアップロードすることができる。図13に示す一例では、ビデオデータが小さなトランクに符号化されると、各トランクを即座にクラウドにアップロードすることができる。図13には、1つの例示的実施形態による、キャプチャから消費までのライブストリーム1300を示す。
この場合、クラウドは、様々なストリーミングプロトコル(例えば、HLS、DASHなど)を介して複数のユーザにブロードキャストすることが可能であり得る。
VR360°カメラシステムは、いくつかのカメラユニットからなることに留意されたい。図13に示すように、各ユニットが、1つのデータストリームをクラウドにアップロードする。クラウドストリームサーバ内にメタデータを作成して、VR360°カメラシステムの幾何学的情報及び他のビデオメタデータ(例えば、フレームレート、解像度、ビデオフォーマット、ビデオ/オーディオコーデックなど)を記述することができる。
1.クライアントアプリケーションでのストリーム及びステッチング
まず、クライアントデバイス上のアプリケーションが、ストリームサーバからメタデータを取得し、次いでビデオトランクの全ての必要なリストに接続する。このアプリケーションは、必要に応じて、所要のビデオトランクをストリーミング及び同期し、それらをステッチし合わせて、スクリーンにレンダリングするように設計されており、したがってエンドユーザにVR360°ビデオを提供する。1つの適用可能な解決策が、2016年4月8日出願の米国仮特許出願第62/320,451号に記載されている。
2.クラウド上でステッチし、次いでクライアントアプリケーションにストリーミングする
全てのカメラユニットからのビデオデータをクラウド上でステッチすることもできる。アップロード前に全てのデータが既に整列されているので、ステッチングのための計算は比較的少なく、リアルタイムで行うことができる。ステッチング後、ステッチされたビデオデータは、通常のビデオストリームであるように見え、これは、通常のストリーミングプロトコル(例えば、HLS、DASHなど)を介してクライアントデバイスにストリーミングすることができる。
3.クラウドステッチングとクライアントステッチングを組み合わせる
クラウド上で低解像度の360°ビデオをステッチし、クライアントアプリケーションにおいて高解像度の360°ビデオをステッチすることもできる。クラウド上での計算を少なく済ますために、VR360°カメラシステムにおける各カメラユニットは、図14に示すように、2つの一連のトランク、すなわち1つの高解像度トランク及び1つの低解像度トランクをクラウドにアップロードすることができる。図14には、1つの例示的実施形態による、キャプチャから消費までのライブストリーム1400を示す。
図面に示した特定の構成は、限定とみなすべきではない。他の実施形態は、所与の図に示した各要素をより多数又はより少数含んでいてもよいことを理解されたい。さらに、例示した要素のいくつかを組み合わせてよく、又は省略してもよい。さらにまた、例示的実施形態は、図面に示していない要素を含んでいてもよい。
情報の処理を表すステップ又はブロックは、本明細書で述べた方法又は技法の特定の論理的機能を行うように構成することができる回路に対応し得る。代替として又は追加として、情報の処理を表すステップ又はブロックは、モジュール、セグメント、又はプログラムコードの一部(関連データを含む)に対応し得る。プログラムコードは、方法又は技法における特定の論理的機能又は作用を実施するためにプロセッサによって実行可能な1つ又は複数の命令を含むことができる。プログラムコード及び/又は関連データは、ディスク、ハードドライブ、又は他の記憶媒体を含むストレージデバイスなど、任意のタイプのコンピュータ可読媒体に記憶することができる。
また、コンピュータ可読媒体は、非一時的なコンピュータ可読媒体、例えば、レジスタメモリ、プロセッサキャッシュ、及びランダムアクセスメモリ(RAM)など短期間だけデータを記憶するコンピュータ可読媒体も含むことができる。また、コンピュータ可読媒体は、より長期間にわたってプログラムコード及び/又はデータを記憶する非一時的なコンピュータ可読媒体を含むこともできる。したがって、コンピュータ可読媒体は、例えば、読み出し専用メモリ(ROM)、光ディスク又は磁気ディスク、コンパクトディスク読み出し専用メモリ(CD−ROM)など、二次的又は永続的長期ストレージを含むことができる。また、コンピュータ可読媒体は、任意の他の揮発性又は不揮発性記憶システムでもよい。コンピュータ可読媒体は、例えばコンピュータ可読記憶媒体、又は有形記憶デバイスとみなすことができる。
様々な例及び実施形態を開示してきたが、他の例及び実施形態も当業者には明らかであろう。開示した様々な例及び実施形態は、例示の目的であり、限定とは意図されず、本発明の真の範囲は添付の特許請求の範囲によって示される。

Claims (21)

  1. 環境のそれぞれの視野に基づいてビデオ画像データをキャプチャするように構成された複数のカメラを備える撮像システムであって、前記複数のカメラのうちの各カメラが、1つ又は複数の通信インターフェースを介して前記複数のカメラのうちの近隣のカメラと通信可能に結合され、前記複数のカメラのうちの各カメラが、少なくとも1つのプロセッサ及びメモリを備え、前記少なくとも1つのプロセッサが、メモリに格納された命令を実行して操作を実施し、前記操作が、
    前記それぞれの視野のビデオ画像データをキャプチャすること、
    オーバーレイ領域を決定することであって、前記オーバーレイ領域が、前記それぞれのカメラと前記近隣のカメラの少なくとも1つとによってキャプチャされたビデオ画像データの重畳部分を含むこと、並びに
    前記それぞれの視野の前記キャプチャされたビデオ画像データを前記オーバーレイ領域に基づいてトリミング及びワーピングして、それぞれの処理されたビデオ画像データを生成すること
    を含む撮像システム。
  2. 前記オーバーレイ領域を決定することが、前記通信インターフェースを介して、前記近隣のカメラのうちの少なくとも1つからオーバーレイ情報を受信することを含む、請求項1に記載の撮像システム。
  3. 前記操作が、前記通信インターフェースを介して、前記オーバーレイ領域を示す情報を前記近隣のカメラのうちの少なくとも1つに送信することをさらに含む、請求項1に記載の撮像システム。
  4. 前記操作が、前記処理されたビデオ画像データをリアルタイムでサーバにアップロードすることをさらに含む、請求項1に記載の撮像システム。
  5. 前記操作が、
    前記通信インターフェースを介して、時間基準を示す情報を受信すること、及び
    前記時間基準に基づいて少なくとも1つの操作を行うこと
    をさらに含む、請求項1に記載の撮像システム。
  6. 前記操作が、前記ビデオ画像データをキャプチャしている間に、前記環境の視野内で同期フラッシュをキャプチャすることをさらに含み、前記時間基準が前記同期フラッシュを含む、請求項5に記載の撮像システム。
  7. 前記操作が、前記ビデオ画像データをキャプチャしている間に、前記複数のカメラのうちの各カメラに関するビデオ画像データキャプチャを同時に中断することをさらに含、請求項5に記載の撮像システム。
  8. 前記操作が、ビデオ画像データの前記重畳部分内の重畳する画素の部分を決定することをさらに含み、前記オーバーレイ領域を決定することが、重畳する画素の前記部分に基づく、請求項1に記載の撮像システム。
  9. 前記操作が、ビデオ画像データの前記重畳部分内の少なくとも1つの画像特徴点を決定することをさらに含み、前記オーバーレイ領域を決定することが、前記画像特徴点に基づく、請求項1に記載の撮像システム。
  10. 前記少なくとも1つの画像特徴点が、少なくとも1つのSIFT(structure invariant function transfer; 構造不変関数伝達)点を含む、請求項9に記載の撮像システム。
  11. 前記撮像システムが、14個の面を有する3次元物体を備え、前記複数のカメラが、各面に沿って配置された少なくとも1つのカメラを備える、請求項1に記載の撮像システム。
  12. 前記複数のカメラのうちの各カメラが、少なくとも1つのマイクロフォンを備える、請求項1に記載の撮像システム。
  13. 撮像システムの複数のカメラのうちのそれぞれのカメラに関連する処理されたビデオ画像データを受信することであって、前記複数のカメラのうちの各カメラが、環境のそれぞれの視野のビデオ画像をキャプチャするように構成され、前記処理されたビデオ画像データが、オーバーレイ領域に基づいて、トリミング及びワーピングされたビデオ画像データを備え、前記オーバーレイ領域が、前記複数のカメラのうちの少なくとも2つの近隣のカメラによってキャプチャされたビデオ画像データの重畳部分を含むこと、並びに
    ストリーミングされたビデオを、複数の通信リンクを介してクライアントデバイスに提供することであって、前記ストリーミングされたビデオが、前記処理されたビデオ画像データに基づくこと
    を含む方法。
  14. 前記処理されたビデオ画像データの低解像度表現をステッチして低解像度360度ビデオ画像データを提供することをさらに含み、前記ストリーミングされたビデオが、前記低解像度360度ビデオ画像データを含む、請求項13に記載の方法。
  15. 前記処理されたビデオ画像データをステッチして高解像度360度ビデオ画像データを提供することをさらに含み、前記ストリーミングされたビデオが、前記高解像度360度ビデオ画像データを含む、請求項13に記載の方法。
  16. 前記クライアントデバイスにメタデータを提供することをさらに含み、前記メタデータが、前記撮像システムに関連する前記複数のカメラの幾何学的配置に関する情報を含む、請求項13に記載の方法。
  17. 前記ストリーミングされたビデオが、ストリーミング通信プロトコルに従って提供され、前記ストリーミング通信プロトコルが、HTTP Live Streaming(HLS)又はDynamic Active Streaming over HTTP(DASH)の少なくとも一方を含む、請求項13に記載の方法。
  18. 時間基準を示す情報を受信すること、及び
    前記時間基準に基づいて、隣接する視野からの前記処理されたビデオ画像データをステッチすること
    をさらに含む、請求項13に記載の方法。
  19. 前記処理されたビデオ画像データをステッチすることが、前記時間基準に基づいて、処理されたビデオ画像を、隣接する処理されたビデオ画像の時間補間表現とステッチすることを含む、請求項18に記載の方法。
  20. 前記クライアントデバイスが、360度ビデオ画像データを提供するために、前記ストリーミングされたビデオの少なくとも一部をステッチするように構成される、請求項13に記載の方法。
  21. 前記処理されたビデオ画像データを受信することが、クラウドサーバシステムによって行われる、請求項13に記載の方法。
JP2018564252A 2016-06-07 2017-06-07 ライブストリーミング用のバーチャルリアリティ360度ビデオカメラシステム Expired - Fee Related JP6742444B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662347077P 2016-06-07 2016-06-07
US62/347,077 2016-06-07
PCT/US2017/036385 WO2017214291A1 (en) 2016-06-07 2017-06-07 Virtual reality 360-degree video camera system for live streaming

Publications (2)

Publication Number Publication Date
JP2019524020A JP2019524020A (ja) 2019-08-29
JP6742444B2 true JP6742444B2 (ja) 2020-08-19

Family

ID=60482419

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018564252A Expired - Fee Related JP6742444B2 (ja) 2016-06-07 2017-06-07 ライブストリーミング用のバーチャルリアリティ360度ビデオカメラシステム

Country Status (5)

Country Link
US (1) US10652517B2 (ja)
EP (1) EP3466080A4 (ja)
JP (1) JP6742444B2 (ja)
CN (1) CN109863754B (ja)
WO (1) WO2017214291A1 (ja)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020502955A (ja) * 2016-10-04 2020-01-23 リブライク インコーポレーテッド モバイルデバイスのためのピクチャ・イン・ピクチャに基づくビデオストリーミング
CN107967665B (zh) * 2016-10-20 2021-07-13 株式会社理光 图像处理方法和图像处理装置
CN108153412A (zh) * 2017-12-11 2018-06-12 虚拟现实(深圳)智能科技有限公司 局域网vr直播方法及系统
US11055348B2 (en) * 2017-12-29 2021-07-06 Facebook, Inc. Systems and methods for automatically generating stitched media content
GB2570298A (en) * 2018-01-17 2019-07-24 Nokia Technologies Oy Providing virtual content based on user context
CN108858187B (zh) * 2018-06-01 2021-12-28 南京理工大学 一种带电接搭引流线作业现场的快速重构方法
US10623791B2 (en) 2018-06-01 2020-04-14 At&T Intellectual Property I, L.P. Field of view prediction in live panoramic video streaming
US10812774B2 (en) 2018-06-06 2020-10-20 At&T Intellectual Property I, L.P. Methods and devices for adapting the rate of video content streaming
US10616621B2 (en) 2018-06-29 2020-04-07 At&T Intellectual Property I, L.P. Methods and devices for determining multipath routing for panoramic video content
US11019361B2 (en) 2018-08-13 2021-05-25 At&T Intellectual Property I, L.P. Methods, systems and devices for adjusting panoramic view of a camera for capturing video content
US10708494B2 (en) 2018-08-13 2020-07-07 At&T Intellectual Property I, L.P. Methods, systems and devices for adjusting panoramic video content
KR102613098B1 (ko) * 2019-01-23 2023-12-12 한화비전 주식회사 이미지 센서 모듈
CN110113629B (zh) * 2019-04-22 2021-07-27 山西共致科技有限公司 一种照片直播系统及其方法
US20220360865A1 (en) * 2019-07-03 2022-11-10 Beijing Xiaomi Mobile Software Co., Ltd. Method, system and apparatus for building virtual reality environment
CN112581364B (zh) * 2019-09-30 2024-04-09 西安诺瓦星云科技股份有限公司 图像处理方法及装置、视频处理器
JP7442029B2 (ja) * 2019-10-17 2024-03-04 株式会社東海理化電機製作所 画像処理装置、画像処理プログラム
KR102295264B1 (ko) 2019-11-28 2021-08-30 주식회사 알파서클 하나의 스트리밍영상을 이용하여 복수의 가상현실영상을 재생하는 가상현실영상재생장치 및 방법
US11699001B2 (en) * 2020-10-13 2023-07-11 Flyreel, Inc. Generating measurements of physical structures and environments through automated analysis of sensor data
US11483368B1 (en) 2021-07-06 2022-10-25 City University Of Hong Kong Video streaming method and system

Family Cites Families (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3530652B2 (ja) * 1995-09-26 2004-05-24 キヤノン株式会社 画像合成方法及び画像合成装置
JP2001204015A (ja) * 2000-01-18 2001-07-27 Sony Corp 周囲カメラ・システム、周囲カメラの撮像画像に基づいて周囲画像を生成する方法、隣接カメラによる撮像画像の接続処理装置及び方法、並びに、隣接カメラを用いた距離測定装置及び方法
JP2006503375A (ja) * 2002-10-18 2006-01-26 サーノフ・コーポレーション 複数のカメラを用いたパノラマ映像化を可能とする方法およびシステム
US7428000B2 (en) * 2003-06-26 2008-09-23 Microsoft Corp. System and method for distributed meetings
JP4606989B2 (ja) * 2005-10-07 2011-01-05 富士フイルム株式会社 撮影装置
US7697839B2 (en) * 2006-06-30 2010-04-13 Microsoft Corporation Parametric calibration for panoramic camera systems
JP4345829B2 (ja) * 2007-03-09 2009-10-14 ソニー株式会社 画像表示システム、画像表示装置、画像表示方法およびプログラム
CN101146231A (zh) * 2007-07-03 2008-03-19 浙江大学 根据多视角视频流生成全景视频的方法
US8724007B2 (en) * 2008-08-29 2014-05-13 Adobe Systems Incorporated Metadata-driven method and apparatus for multi-image processing
WO2010052548A2 (en) * 2008-11-05 2010-05-14 Easywalk Capital S.A. System and method for creating interactive panoramic walk-through applications
US8237771B2 (en) * 2009-03-26 2012-08-07 Eastman Kodak Company Automated videography based communications
WO2010124074A1 (en) * 2009-04-22 2010-10-28 Terrence Dashon Howard System for merging virtual reality and reality to provide an enhanced sensory experience
WO2011091604A1 (zh) * 2010-01-29 2011-08-04 华为终端有限公司 视频通信的方法、装置和系统
GB2477793A (en) 2010-02-15 2011-08-17 Sony Corp A method of creating a stereoscopic image in a client device
KR101335391B1 (ko) * 2010-04-12 2013-12-03 한국전자통신연구원 영상 합성 장치 및 그 방법
KR101776702B1 (ko) * 2011-03-25 2017-09-08 한화테크윈 주식회사 3차원 영상을 생성하는 감시 카메라 및 그 방법
US8792405B2 (en) * 2011-11-15 2014-07-29 Verizon Patent And Licensing Inc. Adaptive bandwidth for media content
US9516225B2 (en) * 2011-12-02 2016-12-06 Amazon Technologies, Inc. Apparatus and method for panoramic video hosting
US20130250040A1 (en) * 2012-03-23 2013-09-26 Broadcom Corporation Capturing and Displaying Stereoscopic Panoramic Images
DE102012205902A1 (de) * 2012-04-11 2013-10-17 Tyco Electronics Amp Gmbh Weggeber zum berührungslosen Messen einer Position mittels einer Vielzahl von in Reihe angeordneten Magnetfeldsensoren
US9204041B1 (en) * 2012-07-03 2015-12-01 Gopro, Inc. Rolling shutter synchronization
US9241103B2 (en) * 2013-03-15 2016-01-19 Voke Inc. Apparatus and method for playback of multiple panoramic videos with control codes
US9369662B2 (en) * 2013-04-25 2016-06-14 Microsoft Technology Licensing, Llc Smart gallery and automatic music video creation from a set of photos
US9438794B2 (en) * 2013-06-25 2016-09-06 Omnivision Technologies, Inc. Method and apparatus for distributed image processing in cameras for minimizing artifacts in stitched images
CN103501409B (zh) * 2013-10-01 2017-01-11 中国人民解放军国防科学技术大学 一种超高分辨率全景高速球一体机系统
US20150095964A1 (en) * 2013-10-01 2015-04-02 Opentv, Inc. Bumper video carousel for digital video delivery
US20150138311A1 (en) * 2013-11-21 2015-05-21 Panavision International, L.P. 360-degree panoramic camera systems
US20150316835A1 (en) * 2014-05-01 2015-11-05 Ryan Douglas Scott Camera positioning and mounting apparatus
US20150346812A1 (en) * 2014-05-29 2015-12-03 Nextvr Inc. Methods and apparatus for receiving content and/or playing back content
US10477179B2 (en) * 2014-08-13 2019-11-12 Telefonaktiebolaget Lm Ericsson (Publ) Immersive video
US10313656B2 (en) * 2014-09-22 2019-06-04 Samsung Electronics Company Ltd. Image stitching for three-dimensional video
US20160094810A1 (en) * 2014-09-30 2016-03-31 Verizon Patent And Licensing Inc. System and method for providing neighborhood services through networked cameras
TWI592015B (zh) * 2015-08-14 2017-07-11 晶睿通訊股份有限公司 多鏡頭攝影機及監視系統
JP6004071B2 (ja) * 2015-11-06 2016-10-05 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム

Also Published As

Publication number Publication date
EP3466080A4 (en) 2020-01-08
EP3466080A1 (en) 2019-04-10
WO2017214291A1 (en) 2017-12-14
US10652517B2 (en) 2020-05-12
JP2019524020A (ja) 2019-08-29
CN109863754B (zh) 2021-12-28
CN109863754A (zh) 2019-06-07
US20170352191A1 (en) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6742444B2 (ja) ライブストリーミング用のバーチャルリアリティ360度ビデオカメラシステム
US11051081B2 (en) Virtual reality resource scheduling of processes in a cloud-based virtual reality processing system
US10853915B2 (en) Generating virtual reality content based on corrections to stitching errors
JP6872131B2 (ja) 符号化装置および符号化方法、復号装置および復号方法
US9930238B2 (en) Image stitching
CN108886611B (zh) 全景立体视频系统的拼接方法和装置
JP6911765B2 (ja) 画像処理装置および画像処理方法
US9973694B1 (en) Image stitching to form a three dimensional panoramic image
EP3669330A1 (en) Encoding and decoding of volumetric video
JP2019523921A5 (ja)
JP6984416B2 (ja) 画像処理装置および画像処理方法
US10652314B2 (en) Cloud-based virtual reality project system
WO2018172614A1 (en) A method and an apparatus and a computer program product for adaptive streaming
US20200137376A1 (en) Method for generating a light-field 3d display unit image and a generating device
US10846820B2 (en) Generation device, identification information generation method, reproduction device, and image generation method
JP7177034B2 (ja) レガシー及び没入型レンダリングデバイスのために没入型ビデオをフォーマットする方法、装置、及びストリーム
JPWO2020004013A1 (ja) 画像処理装置および画像処理方法
US8019180B2 (en) Constructing arbitrary-plane and multi-arbitrary-plane mosaic composite images from a multi-imager
US20200176031A1 (en) Using sharding to generate virtual reality content
JP2016163342A (ja) 三次元形状情報の配信または放送の方法
US20210250501A1 (en) Aggregating Images to Generate Content
KR20150088583A (ko) 영상 처리 방법 및 장치
WO2020179473A1 (ja) 画像処理装置、画像生成方法、および、画像処理方法
JP7009996B2 (ja) 画像処理装置および画像処理方法
JP2005101797A (ja) 立体表示システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190205

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200501

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200617

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200701

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R150 Certificate of patent or registration of utility model

Ref document number: 6742444

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees