JP2018010622A5 - - Google Patents
Download PDFInfo
- Publication number
- JP2018010622A5 JP2018010622A5 JP2017100506A JP2017100506A JP2018010622A5 JP 2018010622 A5 JP2018010622 A5 JP 2018010622A5 JP 2017100506 A JP2017100506 A JP 2017100506A JP 2017100506 A JP2017100506 A JP 2017100506A JP 2018010622 A5 JP2018010622 A5 JP 2018010622A5
- Authority
- JP
- Japan
- Prior art keywords
- syntax element
- stream
- data
- obtaining
- parametric surface
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 claims description 20
- 238000009877 rendering Methods 0.000 claims description 11
- 230000006870 function Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Description
幾つかの実施態様について説明を行った。しかしながら、様々な改変を施すことができることが理解できよう。例えば、複数の異なる実施態様を組み合わせたり、補ったり、変更したり、除去したりすることで他の実施態様を生み出すことができる。さらに、当業者であれば、開示した内容を他の構造や処理で置き換えることができ、結果として得られる実施態様が、少なくとも実質的に同一の方法で、少なくとも実質的に同一の機能を実行し、少なくとも開示した実施態様と実質的に同一の効果を生み出すことが理解できよう。したがって、本出願によってこれらの実施態様およびその他の実施態様が企図される。
上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
シーンのオブジェクトの少なくとも1つの画像からストリームを生成する方法であって、
前記オブジェクトの少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得すること(1201)と、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従ってパラメトリック表面を表すパラメータを取得すること(1202)であって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記取得すること(1202)と、
前記パラメトリック表面に関連付けられた高さマップを前記データから取得すること(1203)であって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得すること(1203)と、
前記パラメトリック表面に関連付けられた少なくとも1つの色マップを、前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得すること(1204)と、
前記パラメータに関連する第1のシンタックス要素、前記高さマップに関連する第2のシンタックス要素、前記少なくとも1つの色マップに関連する第3のシンタックス要素、および前記取得装置の姿勢に関連する第4のシンタックス要素を組み合わせることによって、前記ストリームを生成すること(1205)と、
を含む、前記方法。
(付記2)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、付記1に記載の方法。
(付記3)
前記パラメータは、前記オブジェクトの前記少なくとも部分の変形に従って時間の経過に伴い変化する、付記1または2に記載の方法。
(付記4)
シーンのオブジェクトの少なくとも1つの画像からストリームを生成するように構成された装置であって、前記装置は、少なくとも1つのプロセッサに関連付けられたメモリを含み、前記少なくとも1つのプロセッサは、
前記オブジェクトの少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得することと、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従ってパラメトリック表面を表すパラメータを取得することであって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記取得することと、
前記パラメトリック表面に関連付けられた高さマップを前記データから取得することであって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記パラメトリック表面に関連付けられた少なくとも1つの色マップを、前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得することと、
前記パラメータに関連する第1のシンタックス要素、前記高さマップに関連する第2のシンタックス要素、前記少なくとも1つの色マップに関連する第3のシンタックス要素、および前記取得装置の姿勢に関連する第4のシンタックス要素を組み合わせることによって、前記ストリームを生成することと、
を行うように構成されている、前記装置。
(付記5)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、付記4に記載の装置。
(付記6)
前記少なくともパラメータは、前記オブジェクトの前記少なくとも部分の変形に従って時間の経過に伴い変化する、付記4または5に記載の装置。
(付記7)
シーンのオブジェクトを表す第1のデータを搬送するストリームであって、前記データは、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従って取得されるパラメトリック表面を表すパラメータに関連する第1のシンタックス要素(1102)であって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記第1のシンタックス要素と、
前記オブジェクトの前記少なくとも部分を表すポイント・クラウドのポイントに関連付けられた第2のデータから取得された高さマップに関連する第2のシンタックス要素(1103)であって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記第2のシンタックス要素と、
前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得された少なくとも1つの色マップに関連する第3のシンタックス要素(1104)と、
前記取得装置の姿勢に関連する第4のシンタックス要素(1105)と、
を含む、前記ストリーム。
(付記8)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、付記7に記載のストリーム。
(付記9)
前記第1のシンタックス要素(1102)は、前記オブジェクトの前記少なくとも部分の変形に従って変化する前記少なくとも1つのパラメータの変化に従って時間の経過に伴い変化する、付記7または8に記載のストリーム。
(付記10)
オブジェクトを表すデータを搬送するストリームから前記オブジェクトの少なくとも部分の画像をレンダリングする方法であって、
前記ストリームの第1のシンタックス要素からパラメトリック表面を表すパラメータを取得すること(1301)と、
前記ストリームの第2のシンタックス要素から高さマップを取得すること(1302)であって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記ストリームの第3のシンタックス要素から少なくとも1つの色マップを取得すること(1303)と、
前記パラメトリック表面、前記高さマップ、および前記少なくとも1つの色マップから、前記オブジェクトの前記少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得すること(1304)と、
前記データと前記ストリームの第4のシンタックス要素からの取得装置の姿勢を表す情報とに基づいて前記画像をレンダリングすること(1305)と、
を含む、前記方法。
(付記11)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、付記10に記載の方法。
(付記12)
前記レンダリングすることは、前記データのスプラット・レンダリングを行うことを含む、付記10または11に記載の方法。
(付記13)
オブジェクトを表すデータを搬送するストリームから前記オブジェクトの少なくとも部分の画像をレンダリングするように構成された装置であって、前記装置は、少なくとも1つのプロセッサに関連付けられたメモリを含み、前記少なくとも1つのプロセッサは、
前記ストリームの第1のシンタックス要素からパラメトリック表面を表すパラメータを取得することと、
前記ストリームの第2のシンタックス要素から高さマップを取得することであって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記ストリームの第3のシンタックス要素から少なくとも1つの色マップを取得することと、
前記パラメトリック表面、前記高さマップ、および前記少なくとも1つの色マップから、前記オブジェクトの前記少なくとも部分を表現するポイント・クラウドのポイントに関連付けられたデータを取得することと、
前記データと前記ストリームの第4のシンタックス要素からの取得装置の姿勢を表す情報とに基づいて前記画像をレンダリングすることと、
を行うように構成されている、前記装置。
(付記14)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを現す、付記13に記載の装置。
(付記15)
前記少なくとも1つのプロセッサは、前記画像をレンダリングするために前記データのスプラット・レンダリングを行うようにさらに構成されている、付記13または14に記載の装置。
上述の実施形態の一部又は全部は、以下の付記のように記載され得るが、以下には限定されない。
(付記1)
シーンのオブジェクトの少なくとも1つの画像からストリームを生成する方法であって、
前記オブジェクトの少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得すること(1201)と、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従ってパラメトリック表面を表すパラメータを取得すること(1202)であって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記取得すること(1202)と、
前記パラメトリック表面に関連付けられた高さマップを前記データから取得すること(1203)であって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得すること(1203)と、
前記パラメトリック表面に関連付けられた少なくとも1つの色マップを、前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得すること(1204)と、
前記パラメータに関連する第1のシンタックス要素、前記高さマップに関連する第2のシンタックス要素、前記少なくとも1つの色マップに関連する第3のシンタックス要素、および前記取得装置の姿勢に関連する第4のシンタックス要素を組み合わせることによって、前記ストリームを生成すること(1205)と、
を含む、前記方法。
(付記2)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、付記1に記載の方法。
(付記3)
前記パラメータは、前記オブジェクトの前記少なくとも部分の変形に従って時間の経過に伴い変化する、付記1または2に記載の方法。
(付記4)
シーンのオブジェクトの少なくとも1つの画像からストリームを生成するように構成された装置であって、前記装置は、少なくとも1つのプロセッサに関連付けられたメモリを含み、前記少なくとも1つのプロセッサは、
前記オブジェクトの少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得することと、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従ってパラメトリック表面を表すパラメータを取得することであって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記取得することと、
前記パラメトリック表面に関連付けられた高さマップを前記データから取得することであって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記パラメトリック表面に関連付けられた少なくとも1つの色マップを、前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得することと、
前記パラメータに関連する第1のシンタックス要素、前記高さマップに関連する第2のシンタックス要素、前記少なくとも1つの色マップに関連する第3のシンタックス要素、および前記取得装置の姿勢に関連する第4のシンタックス要素を組み合わせることによって、前記ストリームを生成することと、
を行うように構成されている、前記装置。
(付記5)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、付記4に記載の装置。
(付記6)
前記少なくともパラメータは、前記オブジェクトの前記少なくとも部分の変形に従って時間の経過に伴い変化する、付記4または5に記載の装置。
(付記7)
シーンのオブジェクトを表す第1のデータを搬送するストリームであって、前記データは、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従って取得されるパラメトリック表面を表すパラメータに関連する第1のシンタックス要素(1102)であって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記第1のシンタックス要素と、
前記オブジェクトの前記少なくとも部分を表すポイント・クラウドのポイントに関連付けられた第2のデータから取得された高さマップに関連する第2のシンタックス要素(1103)であって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記第2のシンタックス要素と、
前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得された少なくとも1つの色マップに関連する第3のシンタックス要素(1104)と、
前記取得装置の姿勢に関連する第4のシンタックス要素(1105)と、
を含む、前記ストリーム。
(付記8)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、付記7に記載のストリーム。
(付記9)
前記第1のシンタックス要素(1102)は、前記オブジェクトの前記少なくとも部分の変形に従って変化する前記少なくとも1つのパラメータの変化に従って時間の経過に伴い変化する、付記7または8に記載のストリーム。
(付記10)
オブジェクトを表すデータを搬送するストリームから前記オブジェクトの少なくとも部分の画像をレンダリングする方法であって、
前記ストリームの第1のシンタックス要素からパラメトリック表面を表すパラメータを取得すること(1301)と、
前記ストリームの第2のシンタックス要素から高さマップを取得すること(1302)であって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記ストリームの第3のシンタックス要素から少なくとも1つの色マップを取得すること(1303)と、
前記パラメトリック表面、前記高さマップ、および前記少なくとも1つの色マップから、前記オブジェクトの前記少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得すること(1304)と、
前記データと前記ストリームの第4のシンタックス要素からの取得装置の姿勢を表す情報とに基づいて前記画像をレンダリングすること(1305)と、
を含む、前記方法。
(付記11)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、付記10に記載の方法。
(付記12)
前記レンダリングすることは、前記データのスプラット・レンダリングを行うことを含む、付記10または11に記載の方法。
(付記13)
オブジェクトを表すデータを搬送するストリームから前記オブジェクトの少なくとも部分の画像をレンダリングするように構成された装置であって、前記装置は、少なくとも1つのプロセッサに関連付けられたメモリを含み、前記少なくとも1つのプロセッサは、
前記ストリームの第1のシンタックス要素からパラメトリック表面を表すパラメータを取得することと、
前記ストリームの第2のシンタックス要素から高さマップを取得することであって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記ストリームの第3のシンタックス要素から少なくとも1つの色マップを取得することと、
前記パラメトリック表面、前記高さマップ、および前記少なくとも1つの色マップから、前記オブジェクトの前記少なくとも部分を表現するポイント・クラウドのポイントに関連付けられたデータを取得することと、
前記データと前記ストリームの第4のシンタックス要素からの取得装置の姿勢を表す情報とに基づいて前記画像をレンダリングすることと、
を行うように構成されている、前記装置。
(付記14)
前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを現す、付記13に記載の装置。
(付記15)
前記少なくとも1つのプロセッサは、前記画像をレンダリングするために前記データのスプラット・レンダリングを行うようにさらに構成されている、付記13または14に記載の装置。
Claims (15)
- シーンのオブジェクトの少なくとも1つの画像からストリームを生成する方法であって、
前記オブジェクトの少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得することと、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従ってパラメトリック表面を表すパラメータを取得することであって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記取得することと、
前記パラメトリック表面に関連付けられた高さマップを前記データから取得することであって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記パラメトリック表面に関連付けられた少なくとも1つの色マップを、前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得することと、
前記パラメータに関連する第1のシンタックス要素、前記高さマップに関連する第2のシンタックス要素、前記少なくとも1つの色マップに関連する第3のシンタックス要素、および前記取得装置の姿勢に関連する第4のシンタックス要素を組み合わせることによって、前記ストリームを生成することと、
を含む、前記方法。 - 前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、請求項1に記載の方法。
- 前記パラメータは、前記オブジェクトの前記少なくとも部分の変形に従って時間の経過に伴い変化する、請求項1または2に記載の方法。
- シーンのオブジェクトの少なくとも1つの画像からストリームを生成するように構成された装置であって、前記装置は、少なくとも1つのプロセッサに関連付けられたメモリを含み、前記少なくとも1つのプロセッサは、
前記オブジェクトの少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得することと、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従ってパラメトリック表面を表すパラメータを取得することであって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記取得することと、
前記パラメトリック表面に関連付けられた高さマップを前記データから取得することであって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記パラメトリック表面に関連付けられた少なくとも1つの色マップを、前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得することと、
前記パラメータに関連する第1のシンタックス要素、前記高さマップに関連する第2のシンタックス要素、前記少なくとも1つの色マップに関連する第3のシンタックス要素、および前記取得装置の姿勢に関連する第4のシンタックス要素を組み合わせることによって、前記ストリームを生成することと、
を行うように構成されている、前記装置。 - 前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、請求項4に記載の装置。
- 前記少なくともパラメータは、前記オブジェクトの前記少なくとも部分の変形に従って時間の経過に伴い変化する、請求項4または5に記載の装置。
- シーンのオブジェクトを表す第1のデータを搬送するストリームであって、前記データは、
前記オブジェクトの前記少なくとも部分と前記少なくとも1つの画像を取得するために使用される取得装置の姿勢情報とに関連付けられた少なくとも幾何学的な特性に従って取得されるパラメトリック表面を表すパラメータに関連する第1のシンタックス要素であって、前記少なくとも幾何学的な特性は、前記オブジェクトの少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた前記データから取得される、前記第1のシンタックス要素と、
前記オブジェクトの前記少なくとも部分を表すポイント・クラウドのポイントに関連付けられた第2のデータから取得された高さマップに関連する第2のシンタックス要素であって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記第2のシンタックス要素と、
前記オブジェクトの前記少なくとも部分に関連付けられた前記ポイント・クラウドのポイントに関連付けられた色情報から取得された少なくとも1つの色マップに関連する第3のシンタックス要素と、
前記取得装置の姿勢に関連する第4のシンタックス要素と、
を含む、前記ストリーム。 - 前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、請求項7に記載のストリーム。
- 前記第1のシンタックス要素は、前記オブジェクトの前記少なくとも部分の変形に従って変化する前記少なくとも1つのパラメータの変化に従って時間の経過に伴い変化する、請求項7または8に記載のストリーム。
- オブジェクトを表すデータを搬送するストリームから前記オブジェクトの少なくとも部分の画像をレンダリングする方法であって、
前記ストリームの第1のシンタックス要素からパラメトリック表面を表すパラメータを取得することと、
前記ストリームの第2のシンタックス要素から高さマップを取得することであって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記ストリームの第3のシンタックス要素から少なくとも1つの色マップを取得することと、
前記パラメトリック表面、前記高さマップ、および前記少なくとも1つの色マップから、前記オブジェクトの前記少なくとも部分を表すポイント・クラウドのポイントに関連付けられたデータを取得することと、
前記データと前記ストリームの第4のシンタックス要素からの取得装置の姿勢を表す情報とに基づいて前記画像をレンダリングすることと、
を含む、前記方法。 - 前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを表す、請求項
10に記載の方法。 - 前記レンダリングすることは、前記データのスプラット・レンダリングを行うことを含む、請求項10または11に記載の方法。
- オブジェクトを表すデータを搬送するストリームから前記オブジェクトの少なくとも部分の画像をレンダリングするように構成された装置であって、前記装置は、少なくとも1つのプロセッサに関連付けられたメモリを含み、前記少なくとも1つのプロセッサは、
前記ストリームの第1のシンタックス要素からパラメトリック表面を表すパラメータを取得することと、
前記ストリームの第2のシンタックス要素から高さマップを取得することであって、前記高さマップは、前記オブジェクトの前記少なくとも部分と前記パラメトリック表面との間の距離を表す情報を含む、前記取得することと、
前記ストリームの第3のシンタックス要素から少なくとも1つの色マップを取得することと、
前記パラメトリック表面、前記高さマップ、および前記少なくとも1つの色マップから、前記オブジェクトの前記少なくとも部分を表現するポイント・クラウドのポイントに関連付けられたデータを取得することと、
前記データと前記ストリームの第4のシンタックス要素からの取得装置の姿勢を表す情報とに基づいて前記画像をレンダリングすることと、
を行うように構成されている、前記装置。 - 前記ポイント・クラウドは、視点の範囲から見られる前記オブジェクトを現す、請求項13に記載の装置。
- 前記少なくとも1つのプロセッサは、前記画像をレンダリングするために前記データのスプラット・レンダリングを行うようにさらに構成されている、請求項13または14に記載の装置。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP16305600.5 | 2016-05-24 | ||
EP16305600.5A EP3249921A1 (en) | 2016-05-24 | 2016-05-24 | Method, apparatus and stream for immersive video format |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018010622A JP2018010622A (ja) | 2018-01-18 |
JP2018010622A5 true JP2018010622A5 (ja) | 2020-07-27 |
Family
ID=56108590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017100506A Withdrawn JP2018010622A (ja) | 2016-05-24 | 2017-05-22 | 没入型ビデオ・フォーマットのための方法、装置、およびストリーム |
Country Status (9)
Country | Link |
---|---|
US (1) | US20170347055A1 (ja) |
EP (2) | EP3249921A1 (ja) |
JP (1) | JP2018010622A (ja) |
KR (1) | KR20170132669A (ja) |
CN (1) | CN107426559A (ja) |
BR (1) | BR102017010904A2 (ja) |
CA (1) | CA2967969A1 (ja) |
MX (1) | MX2017006720A (ja) |
RU (1) | RU2017117733A (ja) |
Families Citing this family (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10279928B2 (en) * | 2015-08-26 | 2019-05-07 | The Boeing Company | Delta offset based surface modeling |
WO2018207282A1 (ja) * | 2017-05-10 | 2018-11-15 | 富士通株式会社 | 対象物認識方法、装置、システム、プログラム |
EP3667611A4 (en) * | 2017-08-07 | 2020-08-26 | Fujitsu Limited | INFORMATION PROCESSING DEVICE, MODEL DATA GENERATION PROGRAM AND MODEL DATA GENERATION METHOD |
US10482628B2 (en) * | 2017-09-30 | 2019-11-19 | United States Of America As Represented By The Secretary Of The Army | Photogrammetric point cloud compression for tactical networks |
EP3496388A1 (en) | 2017-12-05 | 2019-06-12 | Thomson Licensing | A method and apparatus for encoding a point cloud representing three-dimensional objects |
EP3515066A1 (en) * | 2018-01-19 | 2019-07-24 | Thomson Licensing | A method and apparatus for encoding and decoding three-dimensional scenes in and from a data stream |
EP3515068A1 (en) * | 2018-01-19 | 2019-07-24 | Thomson Licensing | A method and apparatus for encoding and decoding three-dimensional scenes in and from a data stream |
EP3515067A1 (en) | 2018-01-19 | 2019-07-24 | Thomson Licensing | A method and apparatus for encoding and decoding three-dimensional scenes in and from a data stream |
KR102640992B1 (ko) * | 2018-01-19 | 2024-02-27 | 인터디지털 브이씨 홀딩스 인코포레이티드 | 포인트 클라우드 프로세싱 |
CN108335335B (zh) * | 2018-02-11 | 2019-06-21 | 北京大学深圳研究生院 | 一种基于增强图变换的点云属性压缩方法 |
US10769437B2 (en) * | 2018-04-10 | 2020-09-08 | Seiko Epson Corporation | Adaptive sampling of training views |
KR20200140825A (ko) | 2018-04-11 | 2020-12-16 | 인터디지털 브이씨 홀딩스 인코포레이티드 | 3d 객체를 나타내는 포인트 클라우드를 인코딩/디코딩하기 위한 방법 및 장치 |
EP3562159A1 (en) | 2018-04-24 | 2019-10-30 | InterDigital VC Holdings, Inc. | Method, apparatus and stream for volumetric video format |
US11386614B2 (en) * | 2018-06-15 | 2022-07-12 | Google Llc | Shading images in three-dimensional content system |
SG11202012940XA (en) | 2018-06-26 | 2021-01-28 | Huawei Tech Co Ltd | High-level syntax designs for point cloud coding |
JP7351858B2 (ja) | 2018-07-11 | 2023-09-27 | インターデジタル ヴイシー ホールディングス, インコーポレイテッド | 点群の点のテクスチャを符号化/復号する方法 |
US10930049B2 (en) * | 2018-08-27 | 2021-02-23 | Apple Inc. | Rendering virtual objects with realistic surface properties that match the environment |
CN109615683A (zh) * | 2018-08-30 | 2019-04-12 | 广州多维魔镜高新科技有限公司 | 一种基于3d服装模型的3d游戏动画模型制作方法 |
US11568573B2 (en) * | 2018-09-18 | 2023-01-31 | Vid Scale, Inc. | Methods and apparatus for point cloud compression bitstream format |
CN110971912B (zh) | 2018-09-30 | 2022-04-29 | 华为技术有限公司 | 点云编解码方法、编解码器、编解码装置和存储介质 |
US11915456B2 (en) | 2018-10-05 | 2024-02-27 | Interdigital Vc Holdings, Inc. | Method and device for encoding and reconstructing missing points of a point cloud |
KR20230153532A (ko) * | 2019-03-21 | 2023-11-06 | 엘지전자 주식회사 | 포인트 클라우드 데이터 부호화 장치, 포인트 클라우드 데이터 부호화 방법, 포인트 클라우드 데이터 복호화 장치 및 포인트 클라우드 데이터 복호화 방법 |
CN111402393A (zh) * | 2019-12-06 | 2020-07-10 | 温州大学 | 参数曲面模拟点云生成方法 |
CN113114608B (zh) * | 2020-01-10 | 2022-06-10 | 上海交通大学 | 点云数据封装方法及传输方法 |
CN111882632A (zh) * | 2020-07-24 | 2020-11-03 | 上海米哈游天命科技有限公司 | 一种地表细节的渲染方法、装置、设备及存储介质 |
CN112023400A (zh) * | 2020-07-24 | 2020-12-04 | 上海米哈游天命科技有限公司 | 一种高度图生成方法、装置、设备及存储介质 |
WO2023004559A1 (en) * | 2021-07-26 | 2023-02-02 | Shanghaitech University | Editable free-viewpoint video using a layered neural representation |
US20230154101A1 (en) * | 2021-11-16 | 2023-05-18 | Disney Enterprises, Inc. | Techniques for multi-view neural object modeling |
KR102486195B1 (ko) | 2022-04-26 | 2023-01-10 | 주식회사 포스빌테크 | 강관거더 교량 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20020059078A (ko) * | 2000-12-30 | 2002-07-12 | 윤세영 | 다층구조의 3차원 캐릭터 구현방법 및 그에 관한프로그램을 포함하는 컴퓨터 기록매체 |
JP4651435B2 (ja) * | 2005-03-31 | 2011-03-16 | 株式会社バンダイナムコゲームス | プログラム、情報記憶媒体及び画像生成システム |
EP2058765A1 (de) * | 2007-11-07 | 2009-05-13 | 3D Geo GmbH | Verfahren und Vorrichtung zum Texturieren eines Objektes eines virtuellen dreidimensionalen geometrischen Modells |
WO2012037157A2 (en) * | 2010-09-13 | 2012-03-22 | Alt Software (Us) Llc | System and method for displaying data having spatial coordinates |
US20130095920A1 (en) * | 2011-10-13 | 2013-04-18 | Microsoft Corporation | Generating free viewpoint video using stereo imaging |
US9171394B2 (en) * | 2012-07-19 | 2015-10-27 | Nvidia Corporation | Light transport consistent scene simplification within graphics display system |
US20140172377A1 (en) * | 2012-09-20 | 2014-06-19 | Brown University | Method to reconstruct a surface from oriented 3-d points |
CN104981849A (zh) * | 2013-02-12 | 2015-10-14 | 汤姆逊许可公司 | 用于丰富深度图的内容的方法和设备 |
US9269187B2 (en) * | 2013-03-20 | 2016-02-23 | Siemens Product Lifecycle Management Software Inc. | Image-based 3D panorama |
CN103500463B (zh) * | 2013-10-17 | 2016-04-27 | 北京大学 | 一种gpu上多层形状特征融合的可视化方法 |
EP2881918B1 (en) * | 2013-12-06 | 2018-02-07 | My Virtual Reality Software AS | Method for visualizing three-dimensional data |
CN103914871B (zh) * | 2014-03-06 | 2016-06-08 | 河南农业大学 | 基于点云数据的交互式选取物体表面坐标点的方法 |
GB201414144D0 (en) * | 2014-08-08 | 2014-09-24 | Imagination Tech Ltd | Relightable texture for use in rendering an image |
-
2016
- 2016-05-24 EP EP16305600.5A patent/EP3249921A1/en not_active Withdrawn
-
2017
- 2017-05-14 US US15/594,621 patent/US20170347055A1/en not_active Abandoned
- 2017-05-18 KR KR1020170061694A patent/KR20170132669A/ko not_active Application Discontinuation
- 2017-05-18 EP EP17171671.5A patent/EP3249922A1/en not_active Withdrawn
- 2017-05-22 JP JP2017100506A patent/JP2018010622A/ja not_active Withdrawn
- 2017-05-23 CN CN201710371361.0A patent/CN107426559A/zh active Pending
- 2017-05-23 MX MX2017006720A patent/MX2017006720A/es unknown
- 2017-05-23 RU RU2017117733A patent/RU2017117733A/ru not_active Application Discontinuation
- 2017-05-23 CA CA2967969A patent/CA2967969A1/en not_active Abandoned
- 2017-05-24 BR BR102017010904-6A patent/BR102017010904A2/pt not_active IP Right Cessation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2018010622A5 (ja) | ||
RU2017117733A (ru) | Способ, устройство и поток для формата видео с эффектом присутствия | |
JP7039691B6 (ja) | パノラマ映像の手振れ補正方法、装置及び携帯端末 | |
CN107705333B (zh) | 基于双目相机的空间定位方法及装置 | |
JP2020515937A5 (ja) | ||
JP2017212593A5 (ja) | 情報処理装置、画像処理システム、情報処理装置の制御方法、仮想視点画像の生成方法、及び、プログラム | |
JP2019534510A5 (ja) | ||
JP2018510429A5 (ja) | ||
JP2017027357A5 (ja) | ||
JP2017520852A5 (ja) | ||
JP2018136632A5 (ja) | 形状推定装置及び方法 | |
JP2017511712A5 (ja) | ||
CN110458772B (zh) | 一种基于图像处理的点云滤波方法、装置和存储介质 | |
JP2011125699A5 (ja) | ||
JP2018537877A5 (ja) | ||
JP2020536325A5 (ja) | ||
RU2020103459A (ru) | Устройство и способ для формирования изображения | |
JP6319804B2 (ja) | 投影画像生成装置、投影画像生成方法および投影画像生成プログラム | |
JP2019045991A5 (ja) | ||
JP2019020778A5 (ja) | ||
JP2018112790A5 (ja) | ||
JP2017049238A5 (ja) | ||
CN107734207B (zh) | 视频对象变换处理方法、装置及计算设备 | |
JP6347610B2 (ja) | 画像処理装置および3次元空間情報取得方法 | |
JP6359985B2 (ja) | デプス推定モデル生成装置及びデプス推定装置 |