JP2017535985A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2017535985A5 JP2017535985A5 JP2017512770A JP2017512770A JP2017535985A5 JP 2017535985 A5 JP2017535985 A5 JP 2017535985A5 JP 2017512770 A JP2017512770 A JP 2017512770A JP 2017512770 A JP2017512770 A JP 2017512770A JP 2017535985 A5 JP2017535985 A5 JP 2017535985A5
- Authority
- JP
- Japan
- Prior art keywords
- image
- camera
- correction information
- content
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000012937 correction Methods 0.000 claims description 153
- 238000009877 rendering Methods 0.000 claims description 98
- 238000000034 method Methods 0.000 claims description 58
- 230000007613 environmental effect Effects 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 12
- 230000003287 optical effect Effects 0.000 claims description 8
- 230000004044 response Effects 0.000 claims description 4
- 238000001514 detection method Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims 6
- 230000008929 regeneration Effects 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
Description
[0250] 上記で述べた様々な実施形態の方法および装置に関する数多くの追加の変形形態が、上の記載に鑑みて当業者には明らかであろう。そのような変形形態も、本範囲に含まれるものと見なされるべきである。
以下、本願出願時の特許請求の範囲に記載の発明を付記する。
[C1]
立体視コンテンツを提供する方法であって、
第1の立体視カメラ対の第1のカメラのための第1の補正情報を記憶することと、
前記第1の立体視カメラ対の第2のカメラのための第2の補正情報を記憶することと、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供するようにサーバを動作させることと、
を備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものである、方法。
[C2]
前記第1の補正情報は、第1のカメラに依存するメッシュ補正情報であり、
前記第2の補正情報は、第2のカメラに依存するメッシュ補正情報であり、
前記第1の立体視カメラ対は、第1の方向に対応し、
前記方法は、さらに、
前記第1のカメラおよび前記第2のカメラにより取り込まれた画像コンテンツから生成された符号化画像を含む立体視コンテンツストリームを送信するように、前記サーバを動作させることを備える、
[C1]に記載の方法。
[C3]
画像コンテンツをレンダリングすることに使用される環境メッシュモデルを、前記再生デバイスに送信することをさらに備える、[C2]に記載の方法。
[C4]
前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含む、
[C3]に記載の方法。
[C5]
画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を、前記環境メッシュモデルの部分にマップするために使用されるために、第1のUVマップを前記再生デバイスに送信することをさらに備える、[C4]に記載の方法。
[C6]
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含む、[C5]に記載の方法。
[C7]
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含む、[C6]に記載の方法。
[C8]
前記立体視コンテンツストリームは、前記第1の立体視カメラ対の前記第1のカメラおよび前記第2のカメラにより取り込まれた符号化された左眼画像と右眼画像とを含む符号
化された画像コンテンツを伝達する、[C2]に記載の方法。
[C9]
第3のメッシュ補正情報と第4のメッシュ補正情報とを前記再生デバイスに提供するように前記サーバを動作させることをさらに備え、
前記第3のメッシュ補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第4のメッシュ補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C8]に記載の方法。
[C10]
前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、[C9]に記載の方法。
[C11]
前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3および第4のメッシュ補正情報が使用されるべきであることを、前記再生デバイスに示すことをさらに備える、[C9]に記載の方法。
[C12]
前記第3のメッシュ補正情報および前記第4のメッシュ補正情報が使用されるべきであることを前記再生デバイスに示すことが、
i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換え(例えば、ソースカメラにおける放送者のカメラで制御された切換えの部分として)、または
ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更、
に応じて実施される、[C11]に記載の方法。
[C13]
第3の立体視カメラ対の第1のカメラのための第5のメッシュ補正情報を記憶することと、
前記第3の立体視カメラ対の第2のカメラのための第6のメッシュ補正情報を記憶することと、
前記第5のメッシュ補正情報および前記第6のメッシュ補正情報を前記再生デバイスに提供するように前記サーバを動作させることと、
をさらに備え、
前記第5のメッシュ補正情報は、前記第3の立体視カメラ対の前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第6のメッシュ補正情報は、前記第3の立体視カメラ対の前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C12]に記載の方法。
[C14]
コンテンツ配信をするシステムであって、
第1の立体視カメラ対の第1のカメラのための記憶された第1の補正情報と、前記第1の立体視カメラ対の第2のカメラのための記憶された第2の補正情報とを含むメモリと、
前記第1の補正情報および前記第2の補正情報を再生デバイスに提供するように前記システムを制御するように構成されたプロセッサと、
を備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
システム。
[C15]
前記第1の立体視カメラ対は、第1の方向に対応し、
前記プロセッサは、前記第1および第2のカメラにより取り込まれた画像コンテンツから生成された符号化された画像を含む立体視コンテンツストリームを送信するように前記システムを制御するようさらに構成される、
[C14]に記載のシステム。
[C16]
前記プロセッサは、画像コンテンツをレンダリングすることに使用される環境メッシュモデルを、前記再生デバイスに送信するようにさらに構成される、[C15]に記載のシステム。
[C17]
前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含む、[C16]に記載のシステム。
[C18]
前記プロセッサは、画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を前記環境メッシュモデルの部分にマップするために使用される第1のUVマップを、前記再生デバイスに送信するようにさらに構成される、[C17]に記載のシステム。
[C19]
前記プロセッサは、第3のメッシュ補正情報と第4のメッシュ補正情報とを前記再生デバイスに提供するように前記システムを制御するようにさらに構成され、
前記第3のメッシュ補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第4のメッシュ補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C14]に記載のシステム。
[C20]
前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、[C19]に記載のシステム。
[C21]
前記プロセッサは、前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3のメッシュ補正情報および前記第4のメッシュ補正情報が使用されるべきであることを前記再生デバイスに示すようにさらに構成される、[C19]に記載のシステム。
[C22]
前記プロセッサは、前記システムが、
i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換えを、または、
ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更を、
検出することに応じて、前記第3のメッシュ補正情報および前記第4のメッシュ補正情報とすべきであることを前記再生デバイスに示すように構成される、[C21]に記載のシステム。
[C23]
前記メモリは、第3の立体視カメラ対の第1のカメラのために記憶された第5のメッシュ補正情報と、第3の立体視カメラ対の第2のカメラのために記憶された第6のメッシュ補正情報とをさらに含み、
前記プロセッサは、前記第5のメッシュ補正情報および前記第6のメッシュ補正情報を前記再生デバイスに提供するように前記システムを制御するようにさらに構成され、
前記第5のメッシュ補正情報は、前記第3の立体視カメラ対の前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第6のメッシュ補正情報は、前記第3の立体視カメラ対の前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、[C22]に記載のシステム。
[C24]
コンテンツ配信システムであって、
第1の立体視カメラ対の第1のカメラのための記憶された第1の補正情報と、前記第1の立体視カメラ対の第2のカメラのための記憶された第2の補正情報とを含むメモリと、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供するように構成されたストリームコントローラとを備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、コンテンツ配信システム。
[C25]
コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
第1の立体視カメラ対の第1のカメラのための第1の補正情報をメモリに記憶し、
前記第1の立体視カメラ対の第2のカメラのための第2の補正情報をメモリに記憶し、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供する、
ようにコンテンツ配信システムを制御するプロセッサが実行可能な命令を含み、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
コンピュータが読み出し可能な非一時的な媒体。
[C26]
第1のカメラに対応する第1の補正情報を受信することと、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信することと、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号することと、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施することと、
を備えるコンテンツ再生方法。
[C27]
第2のカメラに対応する第2の補正情報を受信することと、 前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信することと、
第2の復号された画像を生成するために、前記第2の符号化された画像を復号することと、
表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施することと、
をさらに備える、[C26]に記載のコンテンツ再生方法。
[C28]
前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
[C27]に記載のコンテンツ再生方法。
[C29]
前記第1のレンダリング動作および前記第2のレンダリング動作は、第1のUVマップに応じてさらに実施され、
前記第1の補正情報は、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために、前記第1のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C28]に記載のコンテンツ再生方法。
[C30]
前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、[C29]に記載のコンテンツ再生方法。
[C31]
前記第2の補正情報は、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するために、前記第2のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C29]に記載のコンテンツ再生方法。
[C32]
前記第1のレンダリング動作の部分として、前記第1の画像の部分を前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用することをさらに備える、[C31]に記載のコンテンツ再生方法。
[C33]
異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応する、[C32]に記載のコンテンツ再生方法。
[C34]
前記第2のレンダリング動作の部分として、前記第2の画像の部分を前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用することをさらに備える、[C33]に記載のコンテンツ再生方法。
[C35]
前記第1の画像は前方視界に対応する左眼画像であり、
異なる視界に対応する前記第1の画像は、前記前方視界に隣接する側方視界に対応する第3のカメラにより取り込まれた左眼画像である、
[C33]に記載のコンテンツ再生方法。
[C36]
前記第2の画像は、前方視界に対応する右眼画像であり、
異なる視界に対応する前記第2の画像は、前記前方視界に隣接する側方視界に対応する第4のカメラにより取り込まれた右眼画像である、
[C35]に記載のコンテンツ再生方法。
[C37]
複数の異なるカメラに対応する追加のメッシュ補正情報を受信することと、
前記追加のメッシュ補正情報を記憶することと
をさらに備える、[C26]に記載のコンテンツ再生方法。
[C38]
第4のカメラに対応するメッシュ補正情報を、前記第4のカメラに対応する画像をレンダリングするとき、使用することをさらに備え、
前記第4のカメラは、前記複数の異なるカメラのうちの1つである、
[C37]に記載のコンテンツ再生方法。
[C39]
レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どのメッシュ補正情報を使用すべきかを決定することをさらに備える、[C38]に記載のコンテンツ再生方法。
[C40]
コンテンツ再生デバイスであって、
インターフェースであって、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信する、
ように構成されたインターフェースと、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号するように構成された復号器と、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施するように構成されたレンダリングエンジンと、
を備えるコンテンツ再生デバイス。
[C41]
前記インターフェースは、
第2のカメラに対応する第2の補正情報を受信し、
前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信する、
ようにさらに構成され、
前記復号器は、第2の復号された画像を生成するために、前記第2の符号化された画像を復号するようにさらに構成され、
前記レンダリングエンジンは、表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施するようにさらに構成される、
[C40]に記載のコンテンツ再生デバイス。
[C42]
前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
[C41]に記載のコンテンツ再生デバイス。
[C43]
前記レンダリングエンジンは、前記第1のレンダリング動作および前記第2のレンダリング動作を実施するために第1のUVマップを使用するようにさらに構成され、
前記第1の補正情報は、前記第1のレンダリング動作が、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、
[C42]に記載のコンテンツ再生デバイス。
[C44]
前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、[C43]に記載のコンテンツ再生デバイス。
[C45]
前記第2の補正情報は、前記第2のレンダリング動作が、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するように実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C43]に記載のコンテンツ再生デバイス。
[C46]
前記レンダリングエンジンは、前記第1のレンダリング動作の部分として、前記第1の画像の部分を、前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用するようにさらに構成される、[C45]に記載のコンテンツ再生デバイス。
[C47]
異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応する、[C46]に記載のコンテンツ再生デバイス。
[C48]
前記レンダリングエンジンは、前記第2のレンダリング動作の部分として、前記第2の画像の部分を、前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用するようにさらに構成される、[C47]に記載のコンテンツ再生デバイス。
[C49]
前記第1の画像は、前方視界に対応する左眼画像であり、
異なる視界に対応する前記第1の画像は、前記前方視界に隣接する側方視界に対応する第3のカメラにより取り込まれた左眼画像である、
[C47]に記載のコンテンツ再生デバイス。
[C50]
前記第2の画像は、前方視界に対応する右眼画像であり、
異なる視界に対応する前記第2の画像は、前記前方視界に隣接する側方視界に対応する第4のカメラにより取り込まれた右眼画像である、
[C49]に記載のコンテンツ再生デバイス。
[C51]
前記インターフェースは、複数の異なるカメラに対応する追加のメッシュ補正情報を受信するようにさらに構成され、
前記コンテンツ再生デバイスは、前記受信された追加のメッシュ補正情報を記憶するためのメモリをさらに含む、
[C40]に記載のコンテンツ再生デバイス。
[C52]
前記レンダリングエンジンは、第4のカメラに対応するメッシュ補正情報を、前記第4のカメラに対応する画像をレンダリングするとき、使用するようにさらに構成され、
前記第4のカメラは、前記複数の異なるカメラの1つである、[C51]に記載のコンテンツ再生デバイス。
[C53]
レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どのメッシュ補正情報を使用すべきであるかを決定するように構成された決定モジュールをさらに備える、[C52]に記載のコンテンツ再生デバイス。
[C54]
コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信し、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号し、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施する、
ように再生システムを制御するプロセッサが実行可能な命令を含む、コンピュータが読み出し可能な非一時的な媒体。
[C55]
コンテンツ再生デバイスであって、
少なくとも1つのプロセッサであって、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信し、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号し、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施する、
ように構成された少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに結合されたメモリと、
を備えるコンテンツ再生デバイス。
以下、本願出願時の特許請求の範囲に記載の発明を付記する。
[C1]
立体視コンテンツを提供する方法であって、
第1の立体視カメラ対の第1のカメラのための第1の補正情報を記憶することと、
前記第1の立体視カメラ対の第2のカメラのための第2の補正情報を記憶することと、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供するようにサーバを動作させることと、
を備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものである、方法。
[C2]
前記第1の補正情報は、第1のカメラに依存するメッシュ補正情報であり、
前記第2の補正情報は、第2のカメラに依存するメッシュ補正情報であり、
前記第1の立体視カメラ対は、第1の方向に対応し、
前記方法は、さらに、
前記第1のカメラおよび前記第2のカメラにより取り込まれた画像コンテンツから生成された符号化画像を含む立体視コンテンツストリームを送信するように、前記サーバを動作させることを備える、
[C1]に記載の方法。
[C3]
画像コンテンツをレンダリングすることに使用される環境メッシュモデルを、前記再生デバイスに送信することをさらに備える、[C2]に記載の方法。
[C4]
前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含む、
[C3]に記載の方法。
[C5]
画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を、前記環境メッシュモデルの部分にマップするために使用されるために、第1のUVマップを前記再生デバイスに送信することをさらに備える、[C4]に記載の方法。
[C6]
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含む、[C5]に記載の方法。
[C7]
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含む、[C6]に記載の方法。
[C8]
前記立体視コンテンツストリームは、前記第1の立体視カメラ対の前記第1のカメラおよび前記第2のカメラにより取り込まれた符号化された左眼画像と右眼画像とを含む符号
化された画像コンテンツを伝達する、[C2]に記載の方法。
[C9]
第3のメッシュ補正情報と第4のメッシュ補正情報とを前記再生デバイスに提供するように前記サーバを動作させることをさらに備え、
前記第3のメッシュ補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第4のメッシュ補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C8]に記載の方法。
[C10]
前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、[C9]に記載の方法。
[C11]
前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3および第4のメッシュ補正情報が使用されるべきであることを、前記再生デバイスに示すことをさらに備える、[C9]に記載の方法。
[C12]
前記第3のメッシュ補正情報および前記第4のメッシュ補正情報が使用されるべきであることを前記再生デバイスに示すことが、
i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換え(例えば、ソースカメラにおける放送者のカメラで制御された切換えの部分として)、または
ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更、
に応じて実施される、[C11]に記載の方法。
[C13]
第3の立体視カメラ対の第1のカメラのための第5のメッシュ補正情報を記憶することと、
前記第3の立体視カメラ対の第2のカメラのための第6のメッシュ補正情報を記憶することと、
前記第5のメッシュ補正情報および前記第6のメッシュ補正情報を前記再生デバイスに提供するように前記サーバを動作させることと、
をさらに備え、
前記第5のメッシュ補正情報は、前記第3の立体視カメラ対の前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第6のメッシュ補正情報は、前記第3の立体視カメラ対の前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C12]に記載の方法。
[C14]
コンテンツ配信をするシステムであって、
第1の立体視カメラ対の第1のカメラのための記憶された第1の補正情報と、前記第1の立体視カメラ対の第2のカメラのための記憶された第2の補正情報とを含むメモリと、
前記第1の補正情報および前記第2の補正情報を再生デバイスに提供するように前記システムを制御するように構成されたプロセッサと、
を備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
システム。
[C15]
前記第1の立体視カメラ対は、第1の方向に対応し、
前記プロセッサは、前記第1および第2のカメラにより取り込まれた画像コンテンツから生成された符号化された画像を含む立体視コンテンツストリームを送信するように前記システムを制御するようさらに構成される、
[C14]に記載のシステム。
[C16]
前記プロセッサは、画像コンテンツをレンダリングすることに使用される環境メッシュモデルを、前記再生デバイスに送信するようにさらに構成される、[C15]に記載のシステム。
[C17]
前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含む、[C16]に記載のシステム。
[C18]
前記プロセッサは、画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を前記環境メッシュモデルの部分にマップするために使用される第1のUVマップを、前記再生デバイスに送信するようにさらに構成される、[C17]に記載のシステム。
[C19]
前記プロセッサは、第3のメッシュ補正情報と第4のメッシュ補正情報とを前記再生デバイスに提供するように前記システムを制御するようにさらに構成され、
前記第3のメッシュ補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第4のメッシュ補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C14]に記載のシステム。
[C20]
前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、[C19]に記載のシステム。
[C21]
前記プロセッサは、前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3のメッシュ補正情報および前記第4のメッシュ補正情報が使用されるべきであることを前記再生デバイスに示すようにさらに構成される、[C19]に記載のシステム。
[C22]
前記プロセッサは、前記システムが、
i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換えを、または、
ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更を、
検出することに応じて、前記第3のメッシュ補正情報および前記第4のメッシュ補正情報とすべきであることを前記再生デバイスに示すように構成される、[C21]に記載のシステム。
[C23]
前記メモリは、第3の立体視カメラ対の第1のカメラのために記憶された第5のメッシュ補正情報と、第3の立体視カメラ対の第2のカメラのために記憶された第6のメッシュ補正情報とをさらに含み、
前記プロセッサは、前記第5のメッシュ補正情報および前記第6のメッシュ補正情報を前記再生デバイスに提供するように前記システムを制御するようにさらに構成され、
前記第5のメッシュ補正情報は、前記第3の立体視カメラ対の前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第6のメッシュ補正情報は、前記第3の立体視カメラ対の前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、[C22]に記載のシステム。
[C24]
コンテンツ配信システムであって、
第1の立体視カメラ対の第1のカメラのための記憶された第1の補正情報と、前記第1の立体視カメラ対の第2のカメラのための記憶された第2の補正情報とを含むメモリと、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供するように構成されたストリームコントローラとを備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、コンテンツ配信システム。
[C25]
コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
第1の立体視カメラ対の第1のカメラのための第1の補正情報をメモリに記憶し、
前記第1の立体視カメラ対の第2のカメラのための第2の補正情報をメモリに記憶し、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供する、
ようにコンテンツ配信システムを制御するプロセッサが実行可能な命令を含み、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
コンピュータが読み出し可能な非一時的な媒体。
[C26]
第1のカメラに対応する第1の補正情報を受信することと、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信することと、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号することと、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施することと、
を備えるコンテンツ再生方法。
[C27]
第2のカメラに対応する第2の補正情報を受信することと、 前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信することと、
第2の復号された画像を生成するために、前記第2の符号化された画像を復号することと、
表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施することと、
をさらに備える、[C26]に記載のコンテンツ再生方法。
[C28]
前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
[C27]に記載のコンテンツ再生方法。
[C29]
前記第1のレンダリング動作および前記第2のレンダリング動作は、第1のUVマップに応じてさらに実施され、
前記第1の補正情報は、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために、前記第1のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C28]に記載のコンテンツ再生方法。
[C30]
前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、[C29]に記載のコンテンツ再生方法。
[C31]
前記第2の補正情報は、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するために、前記第2のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C29]に記載のコンテンツ再生方法。
[C32]
前記第1のレンダリング動作の部分として、前記第1の画像の部分を前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用することをさらに備える、[C31]に記載のコンテンツ再生方法。
[C33]
異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応する、[C32]に記載のコンテンツ再生方法。
[C34]
前記第2のレンダリング動作の部分として、前記第2の画像の部分を前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用することをさらに備える、[C33]に記載のコンテンツ再生方法。
[C35]
前記第1の画像は前方視界に対応する左眼画像であり、
異なる視界に対応する前記第1の画像は、前記前方視界に隣接する側方視界に対応する第3のカメラにより取り込まれた左眼画像である、
[C33]に記載のコンテンツ再生方法。
[C36]
前記第2の画像は、前方視界に対応する右眼画像であり、
異なる視界に対応する前記第2の画像は、前記前方視界に隣接する側方視界に対応する第4のカメラにより取り込まれた右眼画像である、
[C35]に記載のコンテンツ再生方法。
[C37]
複数の異なるカメラに対応する追加のメッシュ補正情報を受信することと、
前記追加のメッシュ補正情報を記憶することと
をさらに備える、[C26]に記載のコンテンツ再生方法。
[C38]
第4のカメラに対応するメッシュ補正情報を、前記第4のカメラに対応する画像をレンダリングするとき、使用することをさらに備え、
前記第4のカメラは、前記複数の異なるカメラのうちの1つである、
[C37]に記載のコンテンツ再生方法。
[C39]
レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どのメッシュ補正情報を使用すべきかを決定することをさらに備える、[C38]に記載のコンテンツ再生方法。
[C40]
コンテンツ再生デバイスであって、
インターフェースであって、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信する、
ように構成されたインターフェースと、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号するように構成された復号器と、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施するように構成されたレンダリングエンジンと、
を備えるコンテンツ再生デバイス。
[C41]
前記インターフェースは、
第2のカメラに対応する第2の補正情報を受信し、
前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信する、
ようにさらに構成され、
前記復号器は、第2の復号された画像を生成するために、前記第2の符号化された画像を復号するようにさらに構成され、
前記レンダリングエンジンは、表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施するようにさらに構成される、
[C40]に記載のコンテンツ再生デバイス。
[C42]
前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
[C41]に記載のコンテンツ再生デバイス。
[C43]
前記レンダリングエンジンは、前記第1のレンダリング動作および前記第2のレンダリング動作を実施するために第1のUVマップを使用するようにさらに構成され、
前記第1の補正情報は、前記第1のレンダリング動作が、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、
[C42]に記載のコンテンツ再生デバイス。
[C44]
前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、[C43]に記載のコンテンツ再生デバイス。
[C45]
前記第2の補正情報は、前記第2のレンダリング動作が、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するように実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C43]に記載のコンテンツ再生デバイス。
[C46]
前記レンダリングエンジンは、前記第1のレンダリング動作の部分として、前記第1の画像の部分を、前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用するようにさらに構成される、[C45]に記載のコンテンツ再生デバイス。
[C47]
異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応する、[C46]に記載のコンテンツ再生デバイス。
[C48]
前記レンダリングエンジンは、前記第2のレンダリング動作の部分として、前記第2の画像の部分を、前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用するようにさらに構成される、[C47]に記載のコンテンツ再生デバイス。
[C49]
前記第1の画像は、前方視界に対応する左眼画像であり、
異なる視界に対応する前記第1の画像は、前記前方視界に隣接する側方視界に対応する第3のカメラにより取り込まれた左眼画像である、
[C47]に記載のコンテンツ再生デバイス。
[C50]
前記第2の画像は、前方視界に対応する右眼画像であり、
異なる視界に対応する前記第2の画像は、前記前方視界に隣接する側方視界に対応する第4のカメラにより取り込まれた右眼画像である、
[C49]に記載のコンテンツ再生デバイス。
[C51]
前記インターフェースは、複数の異なるカメラに対応する追加のメッシュ補正情報を受信するようにさらに構成され、
前記コンテンツ再生デバイスは、前記受信された追加のメッシュ補正情報を記憶するためのメモリをさらに含む、
[C40]に記載のコンテンツ再生デバイス。
[C52]
前記レンダリングエンジンは、第4のカメラに対応するメッシュ補正情報を、前記第4のカメラに対応する画像をレンダリングするとき、使用するようにさらに構成され、
前記第4のカメラは、前記複数の異なるカメラの1つである、[C51]に記載のコンテンツ再生デバイス。
[C53]
レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どのメッシュ補正情報を使用すべきであるかを決定するように構成された決定モジュールをさらに備える、[C52]に記載のコンテンツ再生デバイス。
[C54]
コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信し、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号し、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施する、
ように再生システムを制御するプロセッサが実行可能な命令を含む、コンピュータが読み出し可能な非一時的な媒体。
[C55]
コンテンツ再生デバイスであって、
少なくとも1つのプロセッサであって、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信し、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号し、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施する、
ように構成された少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに結合されたメモリと、
を備えるコンテンツ再生デバイス。
Claims (41)
- 立体視コンテンツを提供する方法であって、
第1の立体視カメラ対の第1のカメラのための第1の補正情報を記憶することと、ここで、前記第1の補正情報は、第1のカメラに依存する補正情報であり、
前記第1の立体視カメラ対の第2のカメラのための第2の補正情報を記憶することと、ここで、前記第2の補正情報は、第2のカメラに依存する補正情報であり、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供するようにサーバを動作させることと、
を備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものである、
方法。 - さらに、前記再生デバイスに、画像コンテンツをレンダリングすることに使用される環境メッシュモデルを送信することを備え、
前記環境メッシュモデルは、球形のモデルである、
請求項1に記載の方法。 - 前記球形のモデルは、三角形と、環境の実際の測定を反映するように変更されているデフォルトの球形の形状を用いるモデルであり、
前記第1の立体視カメラ対は、第1の方向に対応し、
前記方法は、さらに、
前記第1のカメラおよび前記第2のカメラにより取り込まれた画像コンテンツから生成された符号化画像を含む立体視コンテンツストリームを送信するように、前記サーバを動作させることを備える、
請求項2に記載の方法。 - 前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含む、
請求項3に記載の方法。 - 画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を、前記環境メッシュモデルの部分にマップするために使用されるために、第1のUVマップを前記再生デバイスに送信することをさらに備える、請求項4に記載の方法。
- 前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含む、
請求項5に記載の方法。 - 前記立体視コンテンツストリームは、前記第1の立体視カメラ対の前記第1のカメラおよび前記第2のカメラにより取り込まれた符号化された左眼画像と右眼画像とを含む符号
化された画像コンテンツを伝達する、請求項3に記載の方法。 - 第3の補正情報と第4の補正情報とを前記再生デバイスに提供するように前記サーバを動作させることをさらに備え、
前記第3の補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第4の補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
請求項7に記載の方法。 - 前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、請求項8に記載の方法。
- 前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3および第4の補正情報が使用されるべきであることを、前記再生デバイスに示すことをさらに備える、請求項8に記載の方法。
- 前記第3の補正情報および前記第4の補正情報が使用されるべきであることを前記再生デバイスに示すことが、
i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換え(ソースカメラにおける放送者のカメラで制御された切換えの部分として)、または
ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更、
に応じて実施される、請求項10に記載の方法。 - 第3の立体視カメラ対の第1のカメラのための第5の補正情報を記憶することと、
前記第3の立体視カメラ対の第2のカメラのための第6の補正情報を記憶することと、
前記第5の補正情報および前記第6の補正情報を前記再生デバイスに提供するように前記サーバを動作させることと、
をさらに備え、
前記第5の補正情報は、前記第3の立体視カメラ対の前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第6の補正情報は、前記第3の立体視カメラ対の前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
請求項11に記載の方法。 - コンテンツ配信をするシステムであって、
第1の立体視カメラ対の第1のカメラのための記憶された第1の補正情報と、前記第1の立体視カメラ対の第2のカメラのための記憶された第2の補正情報とを含むメモリと、ここで、前記第1の補正情報は、第1のカメラに依存する補正情報であり、前記第2の補正情報は、第2のカメラに依存する補正情報であり、 前記第1の補正情報および前記第2の補正情報を再生デバイスに提供するように前記システムを制御するように構成されたプロセッサと、
を備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
システム。 - 前記プロセッサは、さらに、前記再生デバイスに、画像コンテンツをレンダリングすることに使用される環境メッシュモデルを送信するように構成され、
前記環境メッシュモデルは、球形のモデルである、
請求項13に記載のシステム。 - 前記球形のモデルは、三角形と、環境の実際の測定を反映するように変更されているデフォルトの球形の形状を用いるモデルであり、
前記第1の立体視カメラ対は、第1の方向に対応し、
前記プロセッサは、前記第1および第2のカメラにより取り込まれた画像コンテンツから生成された符号化された画像を含む立体視コンテンツストリームを送信するように前記システムを制御するようさらに構成される、
請求項14に記載のシステム。 - 前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含み、
前記プロセッサは、さらに、画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を前記環境メッシュモデルの部分にマップするために使用される第1のUVマップを、前記再生デバイスに送信するように構成される、
請求項15に記載のシステム。 - 前記プロセッサは、第3の補正情報と第4の補正情報とを前記再生デバイスに提供するように前記システムを制御するようにさらに構成され、
前記第3の補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第4の補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
請求項13に記載のシステム。 - 前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、請求項17に記載のシステム。
- 前記プロセッサは、前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3の補正情報および前記第4の補正情報が使用されるべきであることを前記再生デバイスに示すようにさらに構成される、
前記プロセッサは、
前記第3の補正情報と前記第4の補正情報が、
i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換えを、または、
ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更を、
前記システムが検出することに応じるべきである
ことを、前記再生デバイスに示すように構成される、
請求項17に記載のシステム。 - コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
第1の立体視カメラ対の第1のカメラのための第1の補正情報をメモリに記憶し、ここで、前記第1の補正情報は、第1のカメラに依存する補正情報であり、
前記第1の立体視カメラ対の第2のカメラのための第2の補正情報をメモリに記憶し、ここで、前記第2の補正情報は、第2のカメラに依存する補正情報であり、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供する、
ようにコンテンツ配信システムを制御するプロセッサが実行可能な命令を含み、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
コンピュータが読み出し可能な非一時的な媒体。 - 第1のカメラに対応する第1の補正情報を受信することと、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信することと、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号することと、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、球形の環境メッシュモデルとを用いて、第1のレンダリング動作を実施することと、
を備えるコンテンツ再生方法。 - 前記球形の環境メッシュモデルは、三角形と、環境の実際の測定を反映するように変更されているデフォルトの球形の形状を用いるモデルである、請求項21に記載のコンテンツ再生方法。
- 第2のカメラに対応する第2の補正情報を受信することと、
前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信することと、
第2の復号された画像を生成するために、前記第2の符号化された画像を復号することと、
表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施することと、
をさらに備え、
前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
請求項22に記載のコンテンツ再生方法。 - 前記第1のレンダリング動作および前記第2のレンダリング動作は、第1のUVマップに応じてさらに実施され、
前記第1の補正情報は、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために、前記第1のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、
請求項23に記載のコンテンツ再生方法。 - 前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、請求項24に記載のコンテンツ再生方法。
- 前記第2の補正情報は、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するために、前記第2のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、請求項24に記載のコンテンツ再生方法。
- 前記第1のレンダリング動作の部分として、前記第1の画像の部分を前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用することをさらに備える、請求項26に記載のコンテンツ再生方法。
- 異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応する、請求項27に記載のコンテンツ再生方法。
- 前記第2のレンダリング動作の部分として、前記第2の画像の部分を前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用することをさらに備える、請求項28に記載のコンテンツ再生方法。
- 前記第1の画像は前方視界に対応する左眼画像であり、
異なる視界に対応する前記第1の画像は、前記前方視界に隣接する側方視界に対応する第3のカメラにより取り込まれた左眼画像であり、
前記第2の画像は、前方視界に対応する右眼画像であり、
異なる視界に対応する前記第2の画像は、前記前方視界に隣接する側方視界に対応する第4のカメラにより取り込まれた右眼画像である、
請求項28に記載のコンテンツ再生方法。 - 複数の異なるカメラに対応する追加の補正情報を受信することと、
前記追加の補正情報を記憶することと
をさらに備える、請求項22に記載のコンテンツ再生方法。 - 第4のカメラに対応する補正情報を、前記第4のカメラに対応する画像をレンダリングするとき、使用することと、ここで、前記第4のカメラは、前記複数の異なるカメラのうちの1つであり、
レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どの補正情報を使用すべきかを決定することと
をさらに備える、
請求項31に記載のコンテンツ再生方法。 - コンテンツ再生デバイスであって、
インターフェースであって、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信する、
ように構成されたインターフェースと、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号するように構成された復号器と、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、球形の環境メッシュモデルとを用いて、第1のレンダリング動作を実施するように構成されたレンダリングエンジンと、
を備えるコンテンツ再生デバイス。 - 前記球形の環境メッシュモデルは、三角形と、環境の実際の測定を反映するように変更されているデフォルトの球形の形状を用いるモデルである、請求項33に記載のコンテンツ再生デバイス。
- 前記インターフェースは、
第2のカメラに対応する第2の補正情報を受信し、
前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信する、
ようにさらに構成され、
前記復号器は、第2の復号された画像を生成するために、前記第2の符号化された画像を復号するようにさらに構成され、
前記レンダリングエンジンは、表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施するようにさらに構成される、
請求項34に記載のコンテンツ再生デバイス。 - 前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
請求項35に記載のコンテンツ再生デバイス。 - 前記レンダリングエンジンは、前記第1のレンダリング動作および前記第2のレンダリング動作を実施するために第1のUVマップを使用するようにさらに構成され、
前記第1の補正情報は、前記第1のレンダリング動作が、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、
請求項36に記載のコンテンツ再生デバイス。 - 前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、請求項37に記載のコンテンツ再生デバイス。
- 前記第2の補正情報は、前記第2のレンダリング動作が、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するように実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供し、
前記レンダリングエンジンは、前記第1のレンダリング動作の部分として、前記第1の画像の部分を前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用するようにさらに構成され、
異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応し、
前記レンダリングエンジンは、前記第2のレンダリング動作の部分として、前記第2の画像の部分を前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用するようにさらに構成される
請求項37に記載のコンテンツ再生デバイス。 - レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どのメッシュ補正情報を使用すべきであるかを決定するように構成された決定モジュールをさらに備える、請求項33に記載のコンテンツ再生デバイス。
- コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信し、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号し、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、球形の環境メッシュモデルとを用いて、第1のレンダリング動作を実施する、
ように再生システムを制御するプロセッサが実行可能な命令を含む、コンピュータが読み出し可能な非一時的な媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462045004P | 2014-09-03 | 2014-09-03 | |
US62/045,004 | 2014-09-03 | ||
PCT/US2015/048439 WO2016037014A1 (en) | 2014-09-03 | 2015-09-03 | Methods and apparatus for capturing, streaming and/or playing back content |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017535985A JP2017535985A (ja) | 2017-11-30 |
JP2017535985A5 true JP2017535985A5 (ja) | 2018-10-11 |
Family
ID=55404093
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017512770A Withdrawn JP2017535985A (ja) | 2014-09-03 | 2015-09-03 | コンテンツを取り込み、ストリーミングし、および/または、再生するための方法および装置 |
Country Status (7)
Country | Link |
---|---|
US (3) | US11122251B2 (ja) |
EP (2) | EP3189657B1 (ja) |
JP (1) | JP2017535985A (ja) |
KR (2) | KR102632421B1 (ja) |
CN (1) | CN106605407A (ja) |
CA (1) | CA2961175A1 (ja) |
WO (1) | WO2016037014A1 (ja) |
Families Citing this family (85)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10298834B2 (en) | 2006-12-01 | 2019-05-21 | Google Llc | Video refocusing |
WO2015179574A1 (en) | 2014-05-20 | 2015-11-26 | Nextvr Inc. | Methods and apparatus including or for use with one or more cameras |
KR102281690B1 (ko) * | 2014-12-01 | 2021-07-26 | 삼성전자주식회사 | 3 차원 이미지 생성 방법 및 장치 |
WO2016092698A1 (ja) * | 2014-12-12 | 2016-06-16 | キヤノン株式会社 | 画像処理装置、画像処理方法およびプログラム |
US10531071B2 (en) | 2015-01-21 | 2020-01-07 | Nextvr Inc. | Methods and apparatus for environmental measurements and/or stereoscopic image capture |
US9832449B2 (en) | 2015-01-30 | 2017-11-28 | Nextvr Inc. | Methods and apparatus for controlling a viewing position |
EP3259739A4 (en) | 2015-02-17 | 2018-08-29 | NEXTVR Inc. | Methods and apparatus for generating and using reduced resolution images and/or communicating such images to a playback or content distribution device |
US10362290B2 (en) | 2015-02-17 | 2019-07-23 | Nextvr Inc. | Methods and apparatus for processing content based on viewing information and/or communicating content |
US9894350B2 (en) | 2015-02-24 | 2018-02-13 | Nextvr Inc. | Methods and apparatus related to capturing and/or rendering images |
WO2016138043A1 (en) | 2015-02-24 | 2016-09-01 | NextVR, Inc. | Calibration for immersive content systems |
US20160253839A1 (en) | 2015-03-01 | 2016-09-01 | Nextvr Inc. | Methods and apparatus for making environmental measurements and/or using such measurements in 3d image rendering |
US10546424B2 (en) | 2015-04-15 | 2020-01-28 | Google Llc | Layered content delivery for virtual and augmented reality experiences |
US10440407B2 (en) * | 2017-05-09 | 2019-10-08 | Google Llc | Adaptive control for immersive experience delivery |
US10567464B2 (en) | 2015-04-15 | 2020-02-18 | Google Llc | Video compression with adaptive view-dependent lighting removal |
US10341632B2 (en) | 2015-04-15 | 2019-07-02 | Google Llc. | Spatial random access enabled video system with a three-dimensional viewing volume |
US10412373B2 (en) | 2015-04-15 | 2019-09-10 | Google Llc | Image capture for virtual reality displays |
US10444931B2 (en) | 2017-05-09 | 2019-10-15 | Google Llc | Vantage generation and interactive playback |
US10275898B1 (en) | 2015-04-15 | 2019-04-30 | Google Llc | Wedge-based light-field video capture |
US10419737B2 (en) | 2015-04-15 | 2019-09-17 | Google Llc | Data structures and delivery methods for expediting virtual reality playback |
US10469873B2 (en) | 2015-04-15 | 2019-11-05 | Google Llc | Encoding and decoding virtual reality video |
US10540818B2 (en) | 2015-04-15 | 2020-01-21 | Google Llc | Stereo image generation and interactive playback |
US9930315B2 (en) | 2015-04-29 | 2018-03-27 | Lucid VR, Inc. | Stereoscopic 3D camera for virtual reality experience |
US20170006219A1 (en) | 2015-06-30 | 2017-01-05 | Gopro, Inc. | Image stitching in a multi-camera array |
US9836845B2 (en) | 2015-08-25 | 2017-12-05 | Nextvr Inc. | Methods and apparatus for detecting objects in proximity to a viewer and presenting visual representations of objects in a simulated environment |
US10306156B2 (en) | 2015-11-30 | 2019-05-28 | Photopotech LLC | Image-capture device |
US10114467B2 (en) | 2015-11-30 | 2018-10-30 | Photopotech LLC | Systems and methods for processing image information |
US10778877B2 (en) | 2015-11-30 | 2020-09-15 | Photopotech LLC | Image-capture device |
US10706621B2 (en) * | 2015-11-30 | 2020-07-07 | Photopotech LLC | Systems and methods for processing image information |
US11217009B2 (en) | 2015-11-30 | 2022-01-04 | Photopotech LLC | Methods for collecting and processing image information to produce digital assets |
US9992502B2 (en) | 2016-01-29 | 2018-06-05 | Gopro, Inc. | Apparatus and methods for video compression using multi-resolution scalable coding |
US10291910B2 (en) | 2016-02-12 | 2019-05-14 | Gopro, Inc. | Systems and methods for spatially adaptive video encoding |
US10484621B2 (en) | 2016-02-29 | 2019-11-19 | Gopro, Inc. | Systems and methods for compressing video content |
WO2017164798A1 (en) * | 2016-03-21 | 2017-09-28 | Voysys Ab | Method, device and program storage unit for live broadcasting of spherical video |
US9990775B2 (en) * | 2016-03-31 | 2018-06-05 | Verizon Patent And Licensing Inc. | Methods and systems for point-to-multipoint delivery of independently-controllable interactive media content |
US10257501B2 (en) | 2016-04-06 | 2019-04-09 | Facebook, Inc. | Efficient canvas view generation from intermediate views |
US10645362B2 (en) | 2016-04-11 | 2020-05-05 | Gopro, Inc. | Systems, methods and apparatus for compressing video content |
US10474745B1 (en) | 2016-04-27 | 2019-11-12 | Google Llc | Systems and methods for a knowledge-based form creation platform |
JP6958545B2 (ja) * | 2016-04-28 | 2021-11-02 | ソニーグループ株式会社 | 情報処理装置及び情報処理方法 |
KR20170124424A (ko) * | 2016-05-02 | 2017-11-10 | 삼성전자주식회사 | 영상을 처리하는 방법, 장치 및 기록매체 |
US10672180B2 (en) | 2016-05-02 | 2020-06-02 | Samsung Electronics Co., Ltd. | Method, apparatus, and recording medium for processing image |
US10390007B1 (en) * | 2016-05-08 | 2019-08-20 | Scott Zhihao Chen | Method and system for panoramic 3D video capture and display |
US11039181B1 (en) | 2016-05-09 | 2021-06-15 | Google Llc | Method and apparatus for secure video manifest/playlist generation and playback |
US10750248B1 (en) | 2016-05-10 | 2020-08-18 | Google Llc | Method and apparatus for server-side content delivery network switching |
US10771824B1 (en) | 2016-05-10 | 2020-09-08 | Google Llc | System for managing video playback using a server generated manifest/playlist |
US10595054B2 (en) | 2016-05-10 | 2020-03-17 | Google Llc | Method and apparatus for a virtual online video channel |
US10785508B2 (en) | 2016-05-10 | 2020-09-22 | Google Llc | System for measuring video playback events using a server generated manifest/playlist |
US11069378B1 (en) | 2016-05-10 | 2021-07-20 | Google Llc | Method and apparatus for frame accurate high resolution video editing in cloud using live video streams |
US10750216B1 (en) | 2016-05-10 | 2020-08-18 | Google Llc | Method and apparatus for providing peer-to-peer content delivery |
CN106993126B (zh) * | 2016-05-11 | 2023-04-07 | 深圳市圆周率软件科技有限责任公司 | 一种将镜头图像展开为全景图像的方法及装置 |
US11032588B2 (en) * | 2016-05-16 | 2021-06-08 | Google Llc | Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback |
US10163029B2 (en) | 2016-05-20 | 2018-12-25 | Gopro, Inc. | On-camera image processing based on image luminance data |
US10462466B2 (en) | 2016-06-20 | 2019-10-29 | Gopro, Inc. | Systems and methods for spatially selective video coding |
US10979607B2 (en) | 2016-07-20 | 2021-04-13 | Apple Inc. | Camera apparatus and methods |
US10200672B2 (en) | 2016-08-17 | 2019-02-05 | Nextvr Inc. | Methods and apparatus for capturing images of an environment |
US10650590B1 (en) * | 2016-09-07 | 2020-05-12 | Fastvdo Llc | Method and system for fully immersive virtual reality |
CN109890472A (zh) * | 2016-11-14 | 2019-06-14 | 华为技术有限公司 | 一种图像渲染的方法、装置及vr设备 |
GB2556910A (en) * | 2016-11-25 | 2018-06-13 | Nokia Technologies Oy | Virtual reality display |
US10679361B2 (en) | 2016-12-05 | 2020-06-09 | Google Llc | Multi-view rotoscope contour propagation |
US10198862B2 (en) | 2017-01-23 | 2019-02-05 | Gopro, Inc. | Methods and apparatus for providing rotated spherical viewpoints |
US20180225537A1 (en) * | 2017-02-08 | 2018-08-09 | Nextvr Inc. | Methods and apparatus relating to camera switching and/or making a decision to switch between cameras |
JP6378794B1 (ja) * | 2017-02-23 | 2018-08-22 | 株式会社 ディー・エヌ・エー | 画像処理装置、画像処理プログラム、及び、画像処理方法 |
US10567733B2 (en) | 2017-03-06 | 2020-02-18 | Nextvr Inc. | Methods and apparatus for communicating and/or using frames including a captured image and/or including additional image content |
US11252391B2 (en) | 2017-03-06 | 2022-02-15 | Nevermind Capital Llc | Methods and apparatus for packing images into a frame and/or including additional content or graphics |
US10979663B2 (en) * | 2017-03-30 | 2021-04-13 | Yerba Buena Vr, Inc. | Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for VR videos |
US10594945B2 (en) | 2017-04-03 | 2020-03-17 | Google Llc | Generating dolly zoom effect using light field image data |
US10742964B2 (en) | 2017-04-04 | 2020-08-11 | Nextvr Inc. | Methods and apparatus for displaying images |
US11398059B2 (en) * | 2017-05-06 | 2022-07-26 | Beijing Dajia Internet Information Technology Co., Ltd. | Processing 3D video content |
CN108882018B (zh) * | 2017-05-09 | 2020-10-20 | 阿里巴巴(中国)有限公司 | 虚拟场景中的视频播放、数据提供方法、客户端及服务器 |
US10474227B2 (en) | 2017-05-09 | 2019-11-12 | Google Llc | Generation of virtual reality with 6 degrees of freedom from limited viewer data |
WO2018211782A1 (ja) * | 2017-05-18 | 2018-11-22 | ソニー株式会社 | 情報処理装置、情報処理方法、プログラム |
US10354399B2 (en) | 2017-05-25 | 2019-07-16 | Google Llc | Multi-view back-projection to a light-field |
JP2018205988A (ja) * | 2017-06-01 | 2018-12-27 | 株式会社リコー | 画像処理装置、画像処理方法及びプログラム |
WO2018227098A1 (en) * | 2017-06-09 | 2018-12-13 | Vid Scale, Inc. | External camera assisted virtual reality |
JP6721631B2 (ja) * | 2017-07-07 | 2020-07-15 | ノキア テクノロジーズ オーユー | ビデオの符号化・復号の方法、装置、およびコンピュータプログラムプロダクト |
US10965862B2 (en) | 2018-01-18 | 2021-03-30 | Google Llc | Multi-camera navigation interface |
CN110062152B (zh) * | 2018-01-18 | 2021-04-06 | 钰立微电子股份有限公司 | 校正相机的系统 |
US10735709B2 (en) | 2018-04-04 | 2020-08-04 | Nextvr Inc. | Methods and apparatus for capturing, processing and/or communicating images |
US11232532B2 (en) * | 2018-05-30 | 2022-01-25 | Sony Interactive Entertainment LLC | Multi-server cloud virtual reality (VR) streaming |
WO2019245303A1 (en) * | 2018-06-22 | 2019-12-26 | Lg Electronics Inc. | Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video, and apparatus for receiving 360-degree video |
GB2582251B (en) * | 2019-01-31 | 2023-04-19 | Wacey Adam | Volumetric communication system |
US11050938B2 (en) * | 2019-07-03 | 2021-06-29 | Gopro, Inc. | Apparatus and methods for pre-processing and stabilization of captured image data |
CN111629242B (zh) * | 2020-05-27 | 2022-04-08 | 腾讯科技(深圳)有限公司 | 一种图像渲染方法、装置、系统、设备及存储介质 |
US11734789B2 (en) | 2020-06-02 | 2023-08-22 | Immersive Tech, Inc. | Systems and methods for image distortion correction |
CN116458153A (zh) * | 2020-06-09 | 2023-07-18 | 苹果公司 | 双凸透镜图像生成 |
US20230252714A1 (en) * | 2022-02-10 | 2023-08-10 | Disney Enterprises, Inc. | Shape and appearance reconstruction with deep geometric refinement |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2267656A3 (en) | 1998-07-31 | 2012-09-26 | Panasonic Corporation | Image displaying apparatus und image displaying method |
US6788333B1 (en) * | 2000-07-07 | 2004-09-07 | Microsoft Corporation | Panoramic video |
JP2002203254A (ja) * | 2000-08-30 | 2002-07-19 | Usc Corp | 曲面像変換方法及びこの曲面像変換方法を記録した記録媒体 |
US8401336B2 (en) * | 2001-05-04 | 2013-03-19 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with augmented computer-generated elements |
JP4077755B2 (ja) * | 2003-04-07 | 2008-04-23 | 本田技研工業株式会社 | 位置検出方法、その装置及びそのプログラム、並びに、較正情報生成方法 |
US20100002070A1 (en) * | 2004-04-30 | 2010-01-07 | Grandeye Ltd. | Method and System of Simultaneously Displaying Multiple Views for Video Surveillance |
JP4095491B2 (ja) * | 2003-05-19 | 2008-06-04 | 本田技研工業株式会社 | 距離測定装置、距離測定方法、及び距離測定プログラム |
US20050185711A1 (en) * | 2004-02-20 | 2005-08-25 | Hanspeter Pfister | 3D television system and method |
US20120182403A1 (en) | 2004-09-30 | 2012-07-19 | Eric Belk Lange | Stereoscopic imaging |
WO2006062325A1 (en) | 2004-12-06 | 2006-06-15 | Electronics And Telecommunications Research Institute | Apparatus for correcting image distortion of stereo-camera and method thereof |
GB2436921A (en) | 2006-04-06 | 2007-10-10 | British Broadcasting Corp | Methods and apparatus providing central, primary displays with surrounding display regions |
CN101479765B (zh) * | 2006-06-23 | 2012-05-23 | 图象公司 | 对2d电影进行转换用于立体3d显示的方法和系统 |
JP4858263B2 (ja) * | 2007-03-28 | 2012-01-18 | 株式会社日立製作所 | 3次元計測装置 |
JP2009139246A (ja) * | 2007-12-07 | 2009-06-25 | Honda Motor Co Ltd | 画像処理装置、画像処理方法、画像処理プログラムおよび位置検出装置並びにそれを備えた移動体 |
US8564644B2 (en) * | 2008-01-18 | 2013-10-22 | Sony Corporation | Method and apparatus for displaying and editing 3D imagery |
JP5233926B2 (ja) * | 2009-09-10 | 2013-07-10 | 大日本印刷株式会社 | 魚眼監視システム |
KR101699957B1 (ko) * | 2009-11-18 | 2017-01-25 | 톰슨 라이센싱 | 유연한 디스패리티 선택이 가능한 3차원 컨텐트 전달 방법 및 시스템 |
US9973742B2 (en) * | 2010-09-17 | 2018-05-15 | Adobe Systems Incorporated | Methods and apparatus for preparation of casual stereoscopic video |
US9122053B2 (en) * | 2010-10-15 | 2015-09-01 | Microsoft Technology Licensing, Llc | Realistic occlusion for a head mounted augmented reality display |
US20120154519A1 (en) | 2010-12-17 | 2012-06-21 | Microsoft Corporation | Chassis assembly for 360-degree stereoscopic video capture |
US8432435B2 (en) * | 2011-08-10 | 2013-04-30 | Seiko Epson Corporation | Ray image modeling for fast catadioptric light field rendering |
JP5790345B2 (ja) * | 2011-09-07 | 2015-10-07 | 株式会社リコー | 画像処理装置、画像処理方法、プログラムおよび画像処理システム |
US9113043B1 (en) * | 2011-10-24 | 2015-08-18 | Disney Enterprises, Inc. | Multi-perspective stereoscopy from light fields |
US8736603B2 (en) * | 2011-11-02 | 2014-05-27 | Visual Technology Services Limited | Compression of texture rendered wire mesh models |
JP2013211672A (ja) * | 2012-03-30 | 2013-10-10 | Namco Bandai Games Inc | 曲面投影立体視装置 |
US9536345B2 (en) * | 2012-12-26 | 2017-01-03 | Intel Corporation | Apparatus for enhancement of 3-D images using depth mapping and light source synthesis |
JP6044328B2 (ja) * | 2012-12-26 | 2016-12-14 | 株式会社リコー | 画像処理システム、画像処理方法およびプログラム |
JP5843751B2 (ja) * | 2012-12-27 | 2016-01-13 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置、情報処理システム、および情報処理方法 |
US9451162B2 (en) * | 2013-08-21 | 2016-09-20 | Jaunt Inc. | Camera array including camera modules |
US9396585B2 (en) * | 2013-12-31 | 2016-07-19 | Nvidia Corporation | Generating indirection maps for texture space effects |
-
2015
- 2015-09-03 KR KR1020227030554A patent/KR102632421B1/ko active IP Right Grant
- 2015-09-03 CA CA2961175A patent/CA2961175A1/en active Pending
- 2015-09-03 CN CN201580047315.4A patent/CN106605407A/zh active Pending
- 2015-09-03 JP JP2017512770A patent/JP2017535985A/ja not_active Withdrawn
- 2015-09-03 EP EP15837993.3A patent/EP3189657B1/en active Active
- 2015-09-03 KR KR1020177008939A patent/KR102441437B1/ko active IP Right Grant
- 2015-09-03 US US14/845,208 patent/US11122251B2/en active Active
- 2015-09-03 EP EP22191201.7A patent/EP4113991A1/en active Pending
- 2015-09-03 US US14/845,202 patent/US10397543B2/en active Active
- 2015-09-03 WO PCT/US2015/048439 patent/WO2016037014A1/en active Application Filing
-
2021
- 2021-09-13 US US17/473,639 patent/US20210409672A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2017535985A5 (ja) | ||
KR101467430B1 (ko) | 클라우드 컴퓨팅 기반 어플리케이션 제공 방법 및 시스템 | |
JP2016510525A5 (ja) | ||
JP2018513612A5 (ja) | ||
US11736673B2 (en) | Methods and apparatus for capturing, processing and/or communicating images | |
JP2008219862A5 (ja) | ||
JP2019519982A5 (ja) | ||
JP2019521583A (ja) | イメージ中の最も関心のある領域の高度なシグナリング | |
JP2014519773A5 (ja) | ||
JP2015510313A5 (ja) | ||
JP2016197862A5 (ja) | ||
JP2016537914A5 (ja) | ||
JP2015507883A5 (ja) | ||
US10911809B2 (en) | Communication apparatus, communication method, and program | |
JP2023517709A (ja) | エンコードされた6dofオーディオビットストリームのレンダリング及び遅延型更新 | |
US20130010060A1 (en) | IM Client And Method For Implementing 3D Video Communication | |
JP2015513258A5 (ja) | ||
JP2018501717A5 (ja) | ||
US20210029386A1 (en) | Information processing device, method, and program | |
TW201501508A (zh) | 立體顯示方法 | |
CN107211171A (zh) | 共享的场景网格数据同步 | |
CN105208407B (zh) | 用于处理视频数据流的设备和方法 | |
JP2016507929A (ja) | 実視点映像方法及び装置 | |
KR20200136393A (ko) | 정보 처리 장치, 정보 처리 방법 및 프로그램 | |
CN107251527A (zh) | 共享的场景对象同步 |