JP2017535985A5 - - Google Patents

Download PDF

Info

Publication number
JP2017535985A5
JP2017535985A5 JP2017512770A JP2017512770A JP2017535985A5 JP 2017535985 A5 JP2017535985 A5 JP 2017535985A5 JP 2017512770 A JP2017512770 A JP 2017512770A JP 2017512770 A JP2017512770 A JP 2017512770A JP 2017535985 A5 JP2017535985 A5 JP 2017535985A5
Authority
JP
Japan
Prior art keywords
image
camera
correction information
content
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2017512770A
Other languages
English (en)
Other versions
JP2017535985A (ja
Filing date
Publication date
Application filed filed Critical
Priority claimed from PCT/US2015/048439 external-priority patent/WO2016037014A1/en
Publication of JP2017535985A publication Critical patent/JP2017535985A/ja
Publication of JP2017535985A5 publication Critical patent/JP2017535985A5/ja
Withdrawn legal-status Critical Current

Links

Description

[0250] 上記で述べた様々な実施形態の方法および装置に関する数多くの追加の変形形態が、上の記載に鑑みて当業者には明らかであろう。そのような変形形態も、本範囲に含まれるものと見なされるべきである。
以下、本願出願時の特許請求の範囲に記載の発明を付記する。
[C1]
立体視コンテンツを提供する方法であって、
第1の立体視カメラ対の第1のカメラのための第1の補正情報を記憶することと、
前記第1の立体視カメラ対の第2のカメラのための第2の補正情報を記憶することと、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供するようにサーバを動作させることと、
を備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものである、方法。
[C2]
前記第1の補正情報は、第1のカメラに依存するメッシュ補正情報であり、
前記第2の補正情報は、第2のカメラに依存するメッシュ補正情報であり、
前記第1の立体視カメラ対は、第1の方向に対応し、
前記方法は、さらに、
前記第1のカメラおよび前記第2のカメラにより取り込まれた画像コンテンツから生成された符号化画像を含む立体視コンテンツストリームを送信するように、前記サーバを動作させることを備える、
[C1]に記載の方法。
[C3]
画像コンテンツをレンダリングすることに使用される環境メッシュモデルを、前記再生デバイスに送信することをさらに備える、[C2]に記載の方法。
[C4]
前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含む、
[C3]に記載の方法。
[C5]
画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を、前記環境メッシュモデルの部分にマップするために使用されるために、第1のUVマップを前記再生デバイスに送信することをさらに備える、[C4]に記載の方法。
[C6]
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含む、[C5]に記載の方法。
[C7]
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含む、[C6]に記載の方法。
[C8]
前記立体視コンテンツストリームは、前記第1の立体視カメラ対の前記第1のカメラおよび前記第2のカメラにより取り込まれた符号化された左眼画像と右眼画像とを含む符号
化された画像コンテンツを伝達する、[C2]に記載の方法。
[C9]
第3のメッシュ補正情報と第4のメッシュ補正情報とを前記再生デバイスに提供するように前記サーバを動作させることをさらに備え、
前記第3のメッシュ補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第4のメッシュ補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C8]に記載の方法。
[C10]
前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、[C9]に記載の方法。
[C11]
前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3および第4のメッシュ補正情報が使用されるべきであることを、前記再生デバイスに示すことをさらに備える、[C9]に記載の方法。
[C12]
前記第3のメッシュ補正情報および前記第4のメッシュ補正情報が使用されるべきであることを前記再生デバイスに示すことが、
i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換え(例えば、ソースカメラにおける放送者のカメラで制御された切換えの部分として)、または
ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更、
に応じて実施される、[C11]に記載の方法。
[C13]
第3の立体視カメラ対の第1のカメラのための第5のメッシュ補正情報を記憶することと、
前記第3の立体視カメラ対の第2のカメラのための第6のメッシュ補正情報を記憶することと、
前記第5のメッシュ補正情報および前記第6のメッシュ補正情報を前記再生デバイスに提供するように前記サーバを動作させることと、
をさらに備え、
前記第5のメッシュ補正情報は、前記第3の立体視カメラ対の前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第6のメッシュ補正情報は、前記第3の立体視カメラ対の前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C12]に記載の方法。
[C14]
コンテンツ配信をするシステムであって、
第1の立体視カメラ対の第1のカメラのための記憶された第1の補正情報と、前記第1の立体視カメラ対の第2のカメラのための記憶された第2の補正情報とを含むメモリと、
前記第1の補正情報および前記第2の補正情報を再生デバイスに提供するように前記システムを制御するように構成されたプロセッサと、
を備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
システム。
[C15]
前記第1の立体視カメラ対は、第1の方向に対応し、
前記プロセッサは、前記第1および第2のカメラにより取り込まれた画像コンテンツから生成された符号化された画像を含む立体視コンテンツストリームを送信するように前記システムを制御するようさらに構成される、
[C14]に記載のシステム。
[C16]
前記プロセッサは、画像コンテンツをレンダリングすることに使用される環境メッシュモデルを、前記再生デバイスに送信するようにさらに構成される、[C15]に記載のシステム。
[C17]
前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含み、
前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含む、[C16]に記載のシステム。
[C18]
前記プロセッサは、画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を前記環境メッシュモデルの部分にマップするために使用される第1のUVマップを、前記再生デバイスに送信するようにさらに構成される、[C17]に記載のシステム。
[C19]
前記プロセッサは、第3のメッシュ補正情報と第4のメッシュ補正情報とを前記再生デバイスに提供するように前記システムを制御するようにさらに構成され、
前記第3のメッシュ補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第4のメッシュ補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
[C14]に記載のシステム。
[C20]
前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、[C19]に記載のシステム。
[C21]
前記プロセッサは、前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3のメッシュ補正情報および前記第4のメッシュ補正情報が使用されるべきであることを前記再生デバイスに示すようにさらに構成される、[C19]に記載のシステム。
[C22]
前記プロセッサは、前記システムが、
i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換えを、または、
ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更を、
検出することに応じて、前記第3のメッシュ補正情報および前記第4のメッシュ補正情報とすべきであることを前記再生デバイスに示すように構成される、[C21]に記載のシステム。
[C23]
前記メモリは、第3の立体視カメラ対の第1のカメラのために記憶された第5のメッシュ補正情報と、第3の立体視カメラ対の第2のカメラのために記憶された第6のメッシュ補正情報とをさらに含み、
前記プロセッサは、前記第5のメッシュ補正情報および前記第6のメッシュ補正情報を前記再生デバイスに提供するように前記システムを制御するようにさらに構成され、
前記第5のメッシュ補正情報は、前記第3の立体視カメラ対の前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第6のメッシュ補正情報は、前記第3の立体視カメラ対の前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、[C22]に記載のシステム。
[C24]
コンテンツ配信システムであって、
第1の立体視カメラ対の第1のカメラのための記憶された第1の補正情報と、前記第1の立体視カメラ対の第2のカメラのための記憶された第2の補正情報とを含むメモリと、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供するように構成されたストリームコントローラとを備え、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、コンテンツ配信システム。
[C25]
コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
第1の立体視カメラ対の第1のカメラのための第1の補正情報をメモリに記憶し、
前記第1の立体視カメラ対の第2のカメラのための第2の補正情報をメモリに記憶し、
前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供する、
ようにコンテンツ配信システムを制御するプロセッサが実行可能な命令を含み、
前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
コンピュータが読み出し可能な非一時的な媒体。
[C26]
第1のカメラに対応する第1の補正情報を受信することと、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信することと、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号することと、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施することと、
を備えるコンテンツ再生方法。
[C27]
第2のカメラに対応する第2の補正情報を受信することと、 前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信することと、
第2の復号された画像を生成するために、前記第2の符号化された画像を復号することと、
表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施することと、
をさらに備える、[C26]に記載のコンテンツ再生方法。
[C28]
前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
[C27]に記載のコンテンツ再生方法。
[C29]
前記第1のレンダリング動作および前記第2のレンダリング動作は、第1のUVマップに応じてさらに実施され、
前記第1の補正情報は、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために、前記第1のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C28]に記載のコンテンツ再生方法。
[C30]
前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、[C29]に記載のコンテンツ再生方法。
[C31]
前記第2の補正情報は、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するために、前記第2のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C29]に記載のコンテンツ再生方法。
[C32]
前記第1のレンダリング動作の部分として、前記第1の画像の部分を前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用することをさらに備える、[C31]に記載のコンテンツ再生方法。
[C33]
異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応する、[C32]に記載のコンテンツ再生方法。
[C34]
前記第2のレンダリング動作の部分として、前記第2の画像の部分を前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用することをさらに備える、[C33]に記載のコンテンツ再生方法。
[C35]
前記第1の画像は前方視界に対応する左眼画像であり、
異なる視界に対応する前記第1の画像は、前記前方視界に隣接する側方視界に対応する第3のカメラにより取り込まれた左眼画像である、
[C33]に記載のコンテンツ再生方法。
[C36]
前記第2の画像は、前方視界に対応する右眼画像であり、
異なる視界に対応する前記第2の画像は、前記前方視界に隣接する側方視界に対応する第4のカメラにより取り込まれた右眼画像である、
[C35]に記載のコンテンツ再生方法。
[C37]
複数の異なるカメラに対応する追加のメッシュ補正情報を受信することと、
前記追加のメッシュ補正情報を記憶することと
をさらに備える、[C26]に記載のコンテンツ再生方法。
[C38]
第4のカメラに対応するメッシュ補正情報を、前記第4のカメラに対応する画像をレンダリングするとき、使用することをさらに備え、
前記第4のカメラは、前記複数の異なるカメラのうちの1つである、
[C37]に記載のコンテンツ再生方法。
[C39]
レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どのメッシュ補正情報を使用すべきかを決定することをさらに備える、[C38]に記載のコンテンツ再生方法。
[C40]
コンテンツ再生デバイスであって、
インターフェースであって、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信する、
ように構成されたインターフェースと、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号するように構成された復号器と、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施するように構成されたレンダリングエンジンと、
を備えるコンテンツ再生デバイス。
[C41]
前記インターフェースは、
第2のカメラに対応する第2の補正情報を受信し、
前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信する、
ようにさらに構成され、
前記復号器は、第2の復号された画像を生成するために、前記第2の符号化された画像を復号するようにさらに構成され、
前記レンダリングエンジンは、表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施するようにさらに構成される、
[C40]に記載のコンテンツ再生デバイス。
[C42]
前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
[C41]に記載のコンテンツ再生デバイス。
[C43]
前記レンダリングエンジンは、前記第1のレンダリング動作および前記第2のレンダリング動作を実施するために第1のUVマップを使用するようにさらに構成され、
前記第1の補正情報は、前記第1のレンダリング動作が、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、
[C42]に記載のコンテンツ再生デバイス。
[C44]
前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、[C43]に記載のコンテンツ再生デバイス。
[C45]
前記第2の補正情報は、前記第2のレンダリング動作が、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するように実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、[C43]に記載のコンテンツ再生デバイス。
[C46]
前記レンダリングエンジンは、前記第1のレンダリング動作の部分として、前記第1の画像の部分を、前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用するようにさらに構成される、[C45]に記載のコンテンツ再生デバイス。
[C47]
異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応する、[C46]に記載のコンテンツ再生デバイス。
[C48]
前記レンダリングエンジンは、前記第2のレンダリング動作の部分として、前記第2の画像の部分を、前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用するようにさらに構成される、[C47]に記載のコンテンツ再生デバイス。
[C49]
前記第1の画像は、前方視界に対応する左眼画像であり、
異なる視界に対応する前記第1の画像は、前記前方視界に隣接する側方視界に対応する第3のカメラにより取り込まれた左眼画像である、
[C47]に記載のコンテンツ再生デバイス。
[C50]
前記第2の画像は、前方視界に対応する右眼画像であり、
異なる視界に対応する前記第2の画像は、前記前方視界に隣接する側方視界に対応する第4のカメラにより取り込まれた右眼画像である、
[C49]に記載のコンテンツ再生デバイス。
[C51]
前記インターフェースは、複数の異なるカメラに対応する追加のメッシュ補正情報を受信するようにさらに構成され、
前記コンテンツ再生デバイスは、前記受信された追加のメッシュ補正情報を記憶するためのメモリをさらに含む、
[C40]に記載のコンテンツ再生デバイス。
[C52]
前記レンダリングエンジンは、第4のカメラに対応するメッシュ補正情報を、前記第4のカメラに対応する画像をレンダリングするとき、使用するようにさらに構成され、
前記第4のカメラは、前記複数の異なるカメラの1つである、[C51]に記載のコンテンツ再生デバイス。
[C53]
レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どのメッシュ補正情報を使用すべきであるかを決定するように構成された決定モジュールをさらに備える、[C52]に記載のコンテンツ再生デバイス。
[C54]
コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信し、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号し、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施する、
ように再生システムを制御するプロセッサが実行可能な命令を含む、コンピュータが読み出し可能な非一時的な媒体。
[C55]
コンテンツ再生デバイスであって、
少なくとも1つのプロセッサであって、
第1のカメラに対応する第1の補正情報を受信し、
前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信し、
第1の復号された画像を生成するために、前記第1の符号化された画像を復号し、
表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、環境メッシュモデルとを用いて、第1のレンダリング動作を実施する、
ように構成された少なくとも1つのプロセッサと、
前記少なくとも1つのプロセッサに結合されたメモリと、
を備えるコンテンツ再生デバイス。

Claims (41)

  1. 立体視コンテンツを提供する方法であって、
    第1の立体視カメラ対の第1のカメラのための第1の補正情報を記憶することと、ここで、前記第1の補正情報は、第1のカメラに依存する補正情報であり、
    前記第1の立体視カメラ対の第2のカメラのための第2の補正情報を記憶することと、ここで、前記第2の補正情報は、第2のカメラに依存する補正情報であり、
    前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供するようにサーバを動作させることと、
    を備え、
    前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものであり、
    前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツのレンダリングに使用するためのものである、
    方法。
  2. さらに、前記再生デバイスに、画像コンテンツをレンダリングすることに使用される環境メッシュモデルを送信することを備え、
    前記環境メッシュモデルは、球形のモデルである、
    請求項1に記載の方法。
  3. 前記球形のモデルは、三角形と、環境の実際の測定を反映するように変更されているデフォルトの球形の形状を用いるモデルであり、
    前記第1の立体視カメラ対は、第1の方向に対応し、
    前記方法は、さらに、
    前記第1のカメラおよび前記第2のカメラにより取り込まれた画像コンテンツから生成された符号化画像を含む立体視コンテンツストリームを送信するように、前記サーバを動作させることを備える、
    請求項に記載の方法。
  4. 前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
    前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含み、
    前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成される情報を含む、
    請求項3に記載の方法。
  5. 画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を、前記環境メッシュモデルの部分にマップするために使用されるために、第1のUVマップを前記再生デバイスに送信することをさらに備える、請求項4に記載の方法。
  6. 前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含
    前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラにより取り込まれた画像の部分をレンダリングすることの部分として、前記第1のUVマップにおけるノード位置に対してなされる1つまたは複数の調整を示す情報を含む、
    請求項5に記載の方法。
  7. 前記立体視コンテンツストリームは、前記第1の立体視カメラ対の前記第1のカメラおよび前記第2のカメラにより取り込まれた符号化された左眼画像と右眼画像とを含む符号
    化された画像コンテンツを伝達する、請求項に記載の方法。
  8. 第3の補正情報と第4の補正情報とを前記再生デバイスに提供するように前記サーバを動作させることをさらに備え、
    前記第3の補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
    前記第4の補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
    請求項に記載の方法。
  9. 前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、請求項に記載の方法。
  10. 前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3および第4の補正情報が使用されるべきであることを、前記再生デバイスに示すことをさらに備える、請求項に記載の方法。
  11. 前記第3の補正情報および前記第4の補正情報が使用されるべきであることを前記再生デバイスに示すことが、
    i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換え(ソースカメラにおける放送者のカメラで制御された切換えの部分として)、または
    ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更、
    に応じて実施される、請求項10に記載の方法。
  12. 第3の立体視カメラ対の第1のカメラのための第5の補正情報を記憶することと、
    前記第3の立体視カメラ対の第2のカメラのための第6の補正情報を記憶することと、
    前記第5の補正情報および前記第6の補正情報を前記再生デバイスに提供するように前記サーバを動作させることと、
    をさらに備え、
    前記第5の補正情報は、前記第3の立体視カメラ対の前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
    前記第6の補正情報は、前記第3の立体視カメラ対の前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
    請求項11に記載の方法。
  13. コンテンツ配信をするシステムであって、
    第1の立体視カメラ対の第1のカメラのための記憶された第1の補正情報と、前記第1の立体視カメラ対の第2のカメラのための記憶された第2の補正情報とを含むメモリと、ここで、前記第1の補正情報は、第1のカメラに依存する補正情報であり、前記第2の補正情報は、第2のカメラに依存する補正情報であり、 前記第1の補正情報および前記第2の補正情報を再生デバイスに提供するように前記システムを制御するように構成されたプロセッサと、
    を備え、
    前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
    前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
    システム。
  14. 前記プロセッサは、さらに、前記再生デバイスに、画像コンテンツをレンダリングすることに使用される環境メッシュモデルを送信するように構成され、
    前記環境メッシュモデルは、球形のモデルである、
    請求項13に記載のシステム。
  15. 前記球形のモデルは、三角形と、環境の実際の測定を反映するように変更されているデフォルトの球形の形状を用いるモデルであり、
    前記第1の立体視カメラ対は、第1の方向に対応し、
    前記プロセッサは、前記第1および第2のカメラにより取り込まれた画像コンテンツから生成された符号化された画像を含む立体視コンテンツストリームを送信するように前記システムを制御するようさらに構成される、
    請求項14に記載のシステム。
  16. 前記第1の立体視カメラ対の前記第1のカメラは左眼画像を取り込み、前記第1の立体視カメラ対の前記第2のカメラは右眼画像を取り込み、
    前記第1の補正情報は、前記第1の立体視カメラ対の前記第1のカメラの第1のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含み、
    前記第2の補正情報は、前記第1の立体視カメラ対の前記第2のカメラの第2のレンズの1つまたは複数の光学特性の測定に基づいて生成された情報を含
    前記プロセッサは、さらに、画像レンダリング動作の部分として、前記第1の立体視カメラ対により取り込まれた画像の部分を前記環境メッシュモデルの部分にマップするために使用される第1のUVマップを、前記再生デバイスに送信するように構成される、
    請求項15に記載のシステム。
  17. 前記プロセッサは、第3の補正情報と第4の補正情報とを前記再生デバイスに提供するように前記システムを制御するようにさらに構成され、
    前記第3の補正情報は、第2の立体視カメラ対の第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
    前記第4の補正情報は、前記第2の立体視カメラ対の第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
    請求項13に記載のシステム。
  18. 前記第1および第2の立体視カメラ対は、前方ビューイング方向に対応するが、ストリーミングのためにコンテンツが取り込まれている領域またはイベント場所における異なる位置に対応する、請求項17に記載のシステム。
  19. 前記プロセッサは、前記第1の立体視カメラ対からのコンテンツに代えて、前記第2の立体視カメラ対により取り込まれたコンテンツが前記再生デバイスにストリーミングされるとき、前記第3の補正情報および前記第4の補正情報が使用されるべきであることを前記再生デバイスに示すようにさらに構成される、
    前記プロセッサは、
    前記第3の補正情報と前記第4の補正情報が、
    i)前記第1の立体視カメラ対から前記第2の立体視カメラ対への、コンテンツをストリーミングすることからのネットワークで制御された切換えを、または、
    ii)前記第1の立体視カメラ対からのコンテンツを含む第1のコンテンツストリームを受信することから、前記第2の立体視カメラ対からの符号化されたコンテンツを含む第2のコンテンツストリームを受信することへのユーザ制御の変更を、
    前記システムが検出することに応じるべきである
    ことを、前記再生デバイスに示すように構成される、
    請求項17に記載のシステム。
  20. コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
    第1の立体視カメラ対の第1のカメラのための第1の補正情報をメモリに記憶し、ここで、前記第1の補正情報は、第1のカメラに依存する補正情報であり、
    前記第1の立体視カメラ対の第2のカメラのための第2の補正情報をメモリに記憶し、ここで、前記第2の補正情報は、第2のカメラに依存する補正情報であり、
    前記第1の補正情報と前記第2の補正情報とを再生デバイスに提供する、
    ようにコンテンツ配信システムを制御するプロセッサが実行可能な命令を含み、
    前記第1の補正情報は、前記第1のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものであり、
    前記第2の補正情報は、前記第2のカメラにより取り込まれた画像コンテンツをレンダリングすることに使用するためのものである、
    コンピュータが読み出し可能な非一時的な媒体。
  21. 第1のカメラに対応する第1の補正情報を受信することと、
    前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信することと、
    第1の復号された画像を生成するために、前記第1の符号化された画像を復号することと、
    表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、球形の環境メッシュモデルとを用いて、第1のレンダリング動作を実施することと、
    を備えるコンテンツ再生方法。
  22. 前記球形の環境メッシュモデルは、三角形と、環境の実際の測定を反映するように変更されているデフォルトの球形の形状を用いるモデルである、請求項21に記載のコンテンツ再生方法。
  23. 第2のカメラに対応する第2の補正情報を受信することと、
    前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信することと、
    第2の復号された画像を生成するために、前記第2の符号化された画像を復号することと、
    表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施することと、
    をさらに備え、
    前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
    前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
    請求項22に記載のコンテンツ再生方法。
  24. 前記第1のレンダリング動作および前記第2のレンダリング動作は、第1のUVマップに応じてさらに実施され、
    前記第1の補正情報は、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために、前記第1のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、
    請求項23に記載のコンテンツ再生方法。
  25. 前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、請求項24に記載のコンテンツ再生方法。
  26. 前記第2の補正情報は、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するために、前記第2のレンダリング動作を実施するとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、請求項24に記載のコンテンツ再生方法。
  27. 前記第1のレンダリング動作の部分として、前記第1の画像の部分を前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用することをさらに備える、請求項26に記載のコンテンツ再生方法。
  28. 異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応する、請求項27に記載のコンテンツ再生方法。
  29. 前記第2のレンダリング動作の部分として、前記第2の画像の部分を前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用することをさらに備える、請求項28に記載のコンテンツ再生方法。
  30. 前記第1の画像は前方視界に対応する左眼画像であり、
    異なる視界に対応する前記第1の画像は、前記前方視界に隣接する側方視界に対応する第3のカメラにより取り込まれた左眼画像であ
    前記第2の画像は、前方視界に対応する右眼画像であり、
    異なる視界に対応する前記第2の画像は、前記前方視界に隣接する側方視界に対応する第4のカメラにより取り込まれた右眼画像である、
    請求項28に記載のコンテンツ再生方法。
  31. 複数の異なるカメラに対応する追加の補正情報を受信することと、
    前記追加の補正情報を記憶することと
    をさらに備える、請求項22に記載のコンテンツ再生方法。
  32. 第4のカメラに対応する補正情報を、前記第4のカメラに対応する画像をレンダリングするとき、使用することここで、前記第4のカメラは、前記複数の異なるカメラのうちの1つであ
    レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どの補正情報を使用すべきかを決定することと
    をさらに備える、
    請求項31に記載のコンテンツ再生方法。
  33. コンテンツ再生デバイスであって、
    インターフェースであって、
    第1のカメラに対応する第1の補正情報を受信し、
    前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信する、
    ように構成されたインターフェースと、
    第1の復号された画像を生成するために、前記第1の符号化された画像を復号するように構成された復号器と、
    表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、球形の環境メッシュモデルとを用いて、第1のレンダリング動作を実施するように構成されたレンダリングエンジンと、
    を備えるコンテンツ再生デバイス。
  34. 前記球形の環境メッシュモデルは、三角形と、環境の実際の測定を反映するように変更されているデフォルトの球形の形状を用いるモデルである、請求項33に記載のコンテンツ再生デバイス。
  35. 前記インターフェースは、
    第2のカメラに対応する第2の補正情報を受信し、
    前記第2のカメラにより取り込まれた画像コンテンツを含む第2の符号化された画像を受信する、
    ようにさらに構成され、
    前記復号器は、第2の復号された画像を生成するために、前記第2の符号化された画像を復号するようにさらに構成され、
    前記レンダリングエンジンは、表示のために第2の画像を生成するために、前記第2の補正情報と、前記第2の復号された画像と、前記環境メッシュモデルとを用いて、第2のレンダリング動作を実施するようにさらに構成される、
    請求項34に記載のコンテンツ再生デバイス。
  36. 前記第1のカメラおよび前記第2のカメラは、第1の立体視カメラ対の部分であり、
    前記第1の符号化された画像は左眼画像であり、前記第2の符号化された画像は右眼画像である、
    請求項35に記載のコンテンツ再生デバイス。
  37. 前記レンダリングエンジンは、前記第1のレンダリング動作および前記第2のレンダリング動作を実施するために第1のUVマップを使用するようにさらに構成され、
    前記第1の補正情報は、前記第1のレンダリング動作が、前記第1のカメラのレンズにより前記第1の画像に導入された歪みを補償するために実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供する、
    請求項36に記載のコンテンツ再生デバイス。
  38. 前記第1の補正情報は、前記第1のUVマップにおけるノードを特定する情報と、前記ノードに適用されるUオフセットと、前記ノードに適用されるVオフセットとを含む、請求項37に記載のコンテンツ再生デバイス。
  39. 前記第2の補正情報は、前記第2のレンダリング動作が、前記第2のカメラのレンズにより前記第2の画像に導入された歪みを補償するように実施されるとき、前記第1のUVマップにおけるノード位置に対してなされる補正についての情報を提供
    前記レンダリングエンジンは、前記第1のレンダリング動作の部分として、前記第1の画像の部分を前記環境メッシュモデルの表面に適用するとき、前記第1のレンダリング動作の部分として、前記第1の画像の部分が、異なる視界に対応する第1の画像の部分とどのように組み合わされるかを決定するために、第1のマスクを使用するようにさらに構成され、
    異なる視界に対応する第1の画像の前記部分は、空または地面の視界に対応し、
    前記レンダリングエンジンは、前記第2のレンダリング動作の部分として、前記第2の画像の部分を前記環境メッシュモデルの前記表面に適用するとき、前記第2のレンダリング動作の部分として、前記第2の画像の部分が、前記異なる視界に対応する第2の画像の部分とどのように組み合わされるかを決定するために、前記第1のマスクを使用するようにさらに構成される
    請求項37に記載のコンテンツ再生デバイス。
  40. レンダリング動作で使用されている画像コンテンツをどのカメラが取り込んだかに基づいて、または、受信されたコンテンツストリームに対応する画像をレンダリングするときに、どのメッシュ補正情報が使用されるべきかを示すサーバからの標示に基づいて、レンダリング動作を実施するとき、どのメッシュ補正情報を使用すべきであるかを決定するように構成された決定モジュールをさらに備える、請求項33に記載のコンテンツ再生デバイス。
  41. コンピュータが読み出し可能な非一時的な媒体であって、プロセッサにより実行されたとき、
    第1のカメラに対応する第1の補正情報を受信し、
    前記第1のカメラにより取り込まれた画像コンテンツを含む第1の符号化された画像を受信し、
    第1の復号された画像を生成するために、前記第1の符号化された画像を復号し、
    表示のために第1の画像を生成するために、前記第1の補正情報と、前記第1の復号された画像と、球形の環境メッシュモデルとを用いて、第1のレンダリング動作を実施する、
    ように再生システムを制御するプロセッサが実行可能な命令を含む、コンピュータが読み出し可能な非一時的な媒体。
JP2017512770A 2014-09-03 2015-09-03 コンテンツを取り込み、ストリーミングし、および/または、再生するための方法および装置 Withdrawn JP2017535985A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201462045004P 2014-09-03 2014-09-03
US62/045,004 2014-09-03
PCT/US2015/048439 WO2016037014A1 (en) 2014-09-03 2015-09-03 Methods and apparatus for capturing, streaming and/or playing back content

Publications (2)

Publication Number Publication Date
JP2017535985A JP2017535985A (ja) 2017-11-30
JP2017535985A5 true JP2017535985A5 (ja) 2018-10-11

Family

ID=55404093

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017512770A Withdrawn JP2017535985A (ja) 2014-09-03 2015-09-03 コンテンツを取り込み、ストリーミングし、および/または、再生するための方法および装置

Country Status (7)

Country Link
US (3) US11122251B2 (ja)
EP (2) EP3189657B1 (ja)
JP (1) JP2017535985A (ja)
KR (2) KR102632421B1 (ja)
CN (1) CN106605407A (ja)
CA (1) CA2961175A1 (ja)
WO (1) WO2016037014A1 (ja)

Families Citing this family (85)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10298834B2 (en) 2006-12-01 2019-05-21 Google Llc Video refocusing
WO2015179574A1 (en) 2014-05-20 2015-11-26 Nextvr Inc. Methods and apparatus including or for use with one or more cameras
KR102281690B1 (ko) * 2014-12-01 2021-07-26 삼성전자주식회사 3 차원 이미지 생성 방법 및 장치
WO2016092698A1 (ja) * 2014-12-12 2016-06-16 キヤノン株式会社 画像処理装置、画像処理方法およびプログラム
US10531071B2 (en) 2015-01-21 2020-01-07 Nextvr Inc. Methods and apparatus for environmental measurements and/or stereoscopic image capture
US9832449B2 (en) 2015-01-30 2017-11-28 Nextvr Inc. Methods and apparatus for controlling a viewing position
EP3259739A4 (en) 2015-02-17 2018-08-29 NEXTVR Inc. Methods and apparatus for generating and using reduced resolution images and/or communicating such images to a playback or content distribution device
US10362290B2 (en) 2015-02-17 2019-07-23 Nextvr Inc. Methods and apparatus for processing content based on viewing information and/or communicating content
US9894350B2 (en) 2015-02-24 2018-02-13 Nextvr Inc. Methods and apparatus related to capturing and/or rendering images
WO2016138043A1 (en) 2015-02-24 2016-09-01 NextVR, Inc. Calibration for immersive content systems
US20160253839A1 (en) 2015-03-01 2016-09-01 Nextvr Inc. Methods and apparatus for making environmental measurements and/or using such measurements in 3d image rendering
US10546424B2 (en) 2015-04-15 2020-01-28 Google Llc Layered content delivery for virtual and augmented reality experiences
US10440407B2 (en) * 2017-05-09 2019-10-08 Google Llc Adaptive control for immersive experience delivery
US10567464B2 (en) 2015-04-15 2020-02-18 Google Llc Video compression with adaptive view-dependent lighting removal
US10341632B2 (en) 2015-04-15 2019-07-02 Google Llc. Spatial random access enabled video system with a three-dimensional viewing volume
US10412373B2 (en) 2015-04-15 2019-09-10 Google Llc Image capture for virtual reality displays
US10444931B2 (en) 2017-05-09 2019-10-15 Google Llc Vantage generation and interactive playback
US10275898B1 (en) 2015-04-15 2019-04-30 Google Llc Wedge-based light-field video capture
US10419737B2 (en) 2015-04-15 2019-09-17 Google Llc Data structures and delivery methods for expediting virtual reality playback
US10469873B2 (en) 2015-04-15 2019-11-05 Google Llc Encoding and decoding virtual reality video
US10540818B2 (en) 2015-04-15 2020-01-21 Google Llc Stereo image generation and interactive playback
US9930315B2 (en) 2015-04-29 2018-03-27 Lucid VR, Inc. Stereoscopic 3D camera for virtual reality experience
US20170006219A1 (en) 2015-06-30 2017-01-05 Gopro, Inc. Image stitching in a multi-camera array
US9836845B2 (en) 2015-08-25 2017-12-05 Nextvr Inc. Methods and apparatus for detecting objects in proximity to a viewer and presenting visual representations of objects in a simulated environment
US10306156B2 (en) 2015-11-30 2019-05-28 Photopotech LLC Image-capture device
US10114467B2 (en) 2015-11-30 2018-10-30 Photopotech LLC Systems and methods for processing image information
US10778877B2 (en) 2015-11-30 2020-09-15 Photopotech LLC Image-capture device
US10706621B2 (en) * 2015-11-30 2020-07-07 Photopotech LLC Systems and methods for processing image information
US11217009B2 (en) 2015-11-30 2022-01-04 Photopotech LLC Methods for collecting and processing image information to produce digital assets
US9992502B2 (en) 2016-01-29 2018-06-05 Gopro, Inc. Apparatus and methods for video compression using multi-resolution scalable coding
US10291910B2 (en) 2016-02-12 2019-05-14 Gopro, Inc. Systems and methods for spatially adaptive video encoding
US10484621B2 (en) 2016-02-29 2019-11-19 Gopro, Inc. Systems and methods for compressing video content
WO2017164798A1 (en) * 2016-03-21 2017-09-28 Voysys Ab Method, device and program storage unit for live broadcasting of spherical video
US9990775B2 (en) * 2016-03-31 2018-06-05 Verizon Patent And Licensing Inc. Methods and systems for point-to-multipoint delivery of independently-controllable interactive media content
US10257501B2 (en) 2016-04-06 2019-04-09 Facebook, Inc. Efficient canvas view generation from intermediate views
US10645362B2 (en) 2016-04-11 2020-05-05 Gopro, Inc. Systems, methods and apparatus for compressing video content
US10474745B1 (en) 2016-04-27 2019-11-12 Google Llc Systems and methods for a knowledge-based form creation platform
JP6958545B2 (ja) * 2016-04-28 2021-11-02 ソニーグループ株式会社 情報処理装置及び情報処理方法
KR20170124424A (ko) * 2016-05-02 2017-11-10 삼성전자주식회사 영상을 처리하는 방법, 장치 및 기록매체
US10672180B2 (en) 2016-05-02 2020-06-02 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image
US10390007B1 (en) * 2016-05-08 2019-08-20 Scott Zhihao Chen Method and system for panoramic 3D video capture and display
US11039181B1 (en) 2016-05-09 2021-06-15 Google Llc Method and apparatus for secure video manifest/playlist generation and playback
US10750248B1 (en) 2016-05-10 2020-08-18 Google Llc Method and apparatus for server-side content delivery network switching
US10771824B1 (en) 2016-05-10 2020-09-08 Google Llc System for managing video playback using a server generated manifest/playlist
US10595054B2 (en) 2016-05-10 2020-03-17 Google Llc Method and apparatus for a virtual online video channel
US10785508B2 (en) 2016-05-10 2020-09-22 Google Llc System for measuring video playback events using a server generated manifest/playlist
US11069378B1 (en) 2016-05-10 2021-07-20 Google Llc Method and apparatus for frame accurate high resolution video editing in cloud using live video streams
US10750216B1 (en) 2016-05-10 2020-08-18 Google Llc Method and apparatus for providing peer-to-peer content delivery
CN106993126B (zh) * 2016-05-11 2023-04-07 深圳市圆周率软件科技有限责任公司 一种将镜头图像展开为全景图像的方法及装置
US11032588B2 (en) * 2016-05-16 2021-06-08 Google Llc Method and apparatus for spatial enhanced adaptive bitrate live streaming for 360 degree video playback
US10163029B2 (en) 2016-05-20 2018-12-25 Gopro, Inc. On-camera image processing based on image luminance data
US10462466B2 (en) 2016-06-20 2019-10-29 Gopro, Inc. Systems and methods for spatially selective video coding
US10979607B2 (en) 2016-07-20 2021-04-13 Apple Inc. Camera apparatus and methods
US10200672B2 (en) 2016-08-17 2019-02-05 Nextvr Inc. Methods and apparatus for capturing images of an environment
US10650590B1 (en) * 2016-09-07 2020-05-12 Fastvdo Llc Method and system for fully immersive virtual reality
CN109890472A (zh) * 2016-11-14 2019-06-14 华为技术有限公司 一种图像渲染的方法、装置及vr设备
GB2556910A (en) * 2016-11-25 2018-06-13 Nokia Technologies Oy Virtual reality display
US10679361B2 (en) 2016-12-05 2020-06-09 Google Llc Multi-view rotoscope contour propagation
US10198862B2 (en) 2017-01-23 2019-02-05 Gopro, Inc. Methods and apparatus for providing rotated spherical viewpoints
US20180225537A1 (en) * 2017-02-08 2018-08-09 Nextvr Inc. Methods and apparatus relating to camera switching and/or making a decision to switch between cameras
JP6378794B1 (ja) * 2017-02-23 2018-08-22 株式会社 ディー・エヌ・エー 画像処理装置、画像処理プログラム、及び、画像処理方法
US10567733B2 (en) 2017-03-06 2020-02-18 Nextvr Inc. Methods and apparatus for communicating and/or using frames including a captured image and/or including additional image content
US11252391B2 (en) 2017-03-06 2022-02-15 Nevermind Capital Llc Methods and apparatus for packing images into a frame and/or including additional content or graphics
US10979663B2 (en) * 2017-03-30 2021-04-13 Yerba Buena Vr, Inc. Methods and apparatuses for image processing to optimize image resolution and for optimizing video streaming bandwidth for VR videos
US10594945B2 (en) 2017-04-03 2020-03-17 Google Llc Generating dolly zoom effect using light field image data
US10742964B2 (en) 2017-04-04 2020-08-11 Nextvr Inc. Methods and apparatus for displaying images
US11398059B2 (en) * 2017-05-06 2022-07-26 Beijing Dajia Internet Information Technology Co., Ltd. Processing 3D video content
CN108882018B (zh) * 2017-05-09 2020-10-20 阿里巴巴(中国)有限公司 虚拟场景中的视频播放、数据提供方法、客户端及服务器
US10474227B2 (en) 2017-05-09 2019-11-12 Google Llc Generation of virtual reality with 6 degrees of freedom from limited viewer data
WO2018211782A1 (ja) * 2017-05-18 2018-11-22 ソニー株式会社 情報処理装置、情報処理方法、プログラム
US10354399B2 (en) 2017-05-25 2019-07-16 Google Llc Multi-view back-projection to a light-field
JP2018205988A (ja) * 2017-06-01 2018-12-27 株式会社リコー 画像処理装置、画像処理方法及びプログラム
WO2018227098A1 (en) * 2017-06-09 2018-12-13 Vid Scale, Inc. External camera assisted virtual reality
JP6721631B2 (ja) * 2017-07-07 2020-07-15 ノキア テクノロジーズ オーユー ビデオの符号化・復号の方法、装置、およびコンピュータプログラムプロダクト
US10965862B2 (en) 2018-01-18 2021-03-30 Google Llc Multi-camera navigation interface
CN110062152B (zh) * 2018-01-18 2021-04-06 钰立微电子股份有限公司 校正相机的系统
US10735709B2 (en) 2018-04-04 2020-08-04 Nextvr Inc. Methods and apparatus for capturing, processing and/or communicating images
US11232532B2 (en) * 2018-05-30 2022-01-25 Sony Interactive Entertainment LLC Multi-server cloud virtual reality (VR) streaming
WO2019245303A1 (en) * 2018-06-22 2019-12-26 Lg Electronics Inc. Method for transmitting 360-degree video, method for receiving 360-degree video, apparatus for transmitting 360-degree video, and apparatus for receiving 360-degree video
GB2582251B (en) * 2019-01-31 2023-04-19 Wacey Adam Volumetric communication system
US11050938B2 (en) * 2019-07-03 2021-06-29 Gopro, Inc. Apparatus and methods for pre-processing and stabilization of captured image data
CN111629242B (zh) * 2020-05-27 2022-04-08 腾讯科技(深圳)有限公司 一种图像渲染方法、装置、系统、设备及存储介质
US11734789B2 (en) 2020-06-02 2023-08-22 Immersive Tech, Inc. Systems and methods for image distortion correction
CN116458153A (zh) * 2020-06-09 2023-07-18 苹果公司 双凸透镜图像生成
US20230252714A1 (en) * 2022-02-10 2023-08-10 Disney Enterprises, Inc. Shape and appearance reconstruction with deep geometric refinement

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2267656A3 (en) 1998-07-31 2012-09-26 Panasonic Corporation Image displaying apparatus und image displaying method
US6788333B1 (en) * 2000-07-07 2004-09-07 Microsoft Corporation Panoramic video
JP2002203254A (ja) * 2000-08-30 2002-07-19 Usc Corp 曲面像変換方法及びこの曲面像変換方法を記録した記録媒体
US8401336B2 (en) * 2001-05-04 2013-03-19 Legend3D, Inc. System and method for rapid image sequence depth enhancement with augmented computer-generated elements
JP4077755B2 (ja) * 2003-04-07 2008-04-23 本田技研工業株式会社 位置検出方法、その装置及びそのプログラム、並びに、較正情報生成方法
US20100002070A1 (en) * 2004-04-30 2010-01-07 Grandeye Ltd. Method and System of Simultaneously Displaying Multiple Views for Video Surveillance
JP4095491B2 (ja) * 2003-05-19 2008-06-04 本田技研工業株式会社 距離測定装置、距離測定方法、及び距離測定プログラム
US20050185711A1 (en) * 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
US20120182403A1 (en) 2004-09-30 2012-07-19 Eric Belk Lange Stereoscopic imaging
WO2006062325A1 (en) 2004-12-06 2006-06-15 Electronics And Telecommunications Research Institute Apparatus for correcting image distortion of stereo-camera and method thereof
GB2436921A (en) 2006-04-06 2007-10-10 British Broadcasting Corp Methods and apparatus providing central, primary displays with surrounding display regions
CN101479765B (zh) * 2006-06-23 2012-05-23 图象公司 对2d电影进行转换用于立体3d显示的方法和系统
JP4858263B2 (ja) * 2007-03-28 2012-01-18 株式会社日立製作所 3次元計測装置
JP2009139246A (ja) * 2007-12-07 2009-06-25 Honda Motor Co Ltd 画像処理装置、画像処理方法、画像処理プログラムおよび位置検出装置並びにそれを備えた移動体
US8564644B2 (en) * 2008-01-18 2013-10-22 Sony Corporation Method and apparatus for displaying and editing 3D imagery
JP5233926B2 (ja) * 2009-09-10 2013-07-10 大日本印刷株式会社 魚眼監視システム
KR101699957B1 (ko) * 2009-11-18 2017-01-25 톰슨 라이센싱 유연한 디스패리티 선택이 가능한 3차원 컨텐트 전달 방법 및 시스템
US9973742B2 (en) * 2010-09-17 2018-05-15 Adobe Systems Incorporated Methods and apparatus for preparation of casual stereoscopic video
US9122053B2 (en) * 2010-10-15 2015-09-01 Microsoft Technology Licensing, Llc Realistic occlusion for a head mounted augmented reality display
US20120154519A1 (en) 2010-12-17 2012-06-21 Microsoft Corporation Chassis assembly for 360-degree stereoscopic video capture
US8432435B2 (en) * 2011-08-10 2013-04-30 Seiko Epson Corporation Ray image modeling for fast catadioptric light field rendering
JP5790345B2 (ja) * 2011-09-07 2015-10-07 株式会社リコー 画像処理装置、画像処理方法、プログラムおよび画像処理システム
US9113043B1 (en) * 2011-10-24 2015-08-18 Disney Enterprises, Inc. Multi-perspective stereoscopy from light fields
US8736603B2 (en) * 2011-11-02 2014-05-27 Visual Technology Services Limited Compression of texture rendered wire mesh models
JP2013211672A (ja) * 2012-03-30 2013-10-10 Namco Bandai Games Inc 曲面投影立体視装置
US9536345B2 (en) * 2012-12-26 2017-01-03 Intel Corporation Apparatus for enhancement of 3-D images using depth mapping and light source synthesis
JP6044328B2 (ja) * 2012-12-26 2016-12-14 株式会社リコー 画像処理システム、画像処理方法およびプログラム
JP5843751B2 (ja) * 2012-12-27 2016-01-13 株式会社ソニー・コンピュータエンタテインメント 情報処理装置、情報処理システム、および情報処理方法
US9451162B2 (en) * 2013-08-21 2016-09-20 Jaunt Inc. Camera array including camera modules
US9396585B2 (en) * 2013-12-31 2016-07-19 Nvidia Corporation Generating indirection maps for texture space effects

Similar Documents

Publication Publication Date Title
JP2017535985A5 (ja)
KR101467430B1 (ko) 클라우드 컴퓨팅 기반 어플리케이션 제공 방법 및 시스템
JP2016510525A5 (ja)
JP2018513612A5 (ja)
US11736673B2 (en) Methods and apparatus for capturing, processing and/or communicating images
JP2008219862A5 (ja)
JP2019519982A5 (ja)
JP2019521583A (ja) イメージ中の最も関心のある領域の高度なシグナリング
JP2014519773A5 (ja)
JP2015510313A5 (ja)
JP2016197862A5 (ja)
JP2016537914A5 (ja)
JP2015507883A5 (ja)
US10911809B2 (en) Communication apparatus, communication method, and program
JP2023517709A (ja) エンコードされた6dofオーディオビットストリームのレンダリング及び遅延型更新
US20130010060A1 (en) IM Client And Method For Implementing 3D Video Communication
JP2015513258A5 (ja)
JP2018501717A5 (ja)
US20210029386A1 (en) Information processing device, method, and program
TW201501508A (zh) 立體顯示方法
CN107211171A (zh) 共享的场景网格数据同步
CN105208407B (zh) 用于处理视频数据流的设备和方法
JP2016507929A (ja) 実視点映像方法及び装置
KR20200136393A (ko) 정보 처리 장치, 정보 처리 방법 및 프로그램
CN107251527A (zh) 共享的场景对象同步