JP7407703B2 - 3dシーンの点を生成するための方法およびデバイス - Google Patents
3dシーンの点を生成するための方法およびデバイス Download PDFInfo
- Publication number
- JP7407703B2 JP7407703B2 JP2020518785A JP2020518785A JP7407703B2 JP 7407703 B2 JP7407703 B2 JP 7407703B2 JP 2020518785 A JP2020518785 A JP 2020518785A JP 2020518785 A JP2020518785 A JP 2020518785A JP 7407703 B2 JP7407703 B2 JP 7407703B2
- Authority
- JP
- Japan
- Prior art keywords
- depth
- points
- point
- scene
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 67
- 230000015654 memory Effects 0.000 claims description 17
- 230000001419 dependent effect Effects 0.000 claims description 11
- 230000008569 process Effects 0.000 description 21
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 239000013598 vector Substances 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 102100035087 Ectoderm-neural cortex protein 1 Human genes 0.000 description 4
- 101000877456 Homo sapiens Ectoderm-neural cortex protein 1 Proteins 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 102100026191 Class E basic helix-loop-helix protein 40 Human genes 0.000 description 3
- 101710130550 Class E basic helix-loop-helix protein 40 Proteins 0.000 description 3
- 241000023320 Luma <angiosperm> Species 0.000 description 3
- 238000003491 array Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000033001 locomotion Effects 0.000 description 3
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 229920001690 polydopamine Polymers 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 102100026190 Class E basic helix-loop-helix protein 41 Human genes 0.000 description 2
- 101000765033 Homo sapiens Class E basic helix-loop-helix protein 41 Proteins 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000004615 ingredient Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/529—Depth or shape recovery from texture
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Generation (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本文書は、3Dシーンを処理するドメインに関する。具体的には、但し限定されないが、本原理の技術分野は、3Dシーンまたはその一部のジオメトリおよび/またはテクスチャ、例えば3Dオブジェクトのジオメトリおよび/またはテクスチャを表すポイントクラウドの点の処理に関する。本原理の技術分野は、テクスチャおよび奥行き投影スキームを使用する3D画像データの符号化/復号にも関連し得る。
本節は、以下で説明および/または特許請求される本文書のさまざまな態様に関連し得るさまざまな技術態様を読者に紹介することを意図している。本考察は、本発明のさまざまな態様のよりよい理解を容易にするための背景情報を読者に提供するのに役立つと考えられる。したがって、これらの記述は、この観点から読まれるべきであり、先行技術の承認として読まれるべきではない。
本明細書において「1つの実施形態」、「一実施形態」、「一例示的実施形態」、「特定の実施形態」という場合、記載された実施形態が特定の特徴、構造、または特性を含み得ることを示すが、すべての実施形態がその特定の特徴、構造、または特性を必ずしも含まなくてもよい。さらに、そのような語句は、必ずしも同じ実施形態を指すわけではない。さらに、特定の特徴、構造、または特性が一実施形態に関連して説明される場合、明示的に説明されていてもいなくても、他の実施形態に関連してそのような特徴、構造、または特性をとるかは、当業者の知識の範囲内であると考えられる。
-奥行き画像の現在のピクセルについて、現在のピクセルに関連付けられた奥行き情報を、奥行き画像内の現在のピクセルに空間的に隣接するピクセルに関連付けられた奥行き情報と比較することと、
-現在のピクセルと隣接ピクセルとの奥行き差が第1の値よりも大きくかつ第2の値よりも小さい場合、奥行き画像の現在のピクセルに関連付けられた現在の点に加えて、3Dシーンの少なくとも1つの追加点を生成することであって、追加点の数は差に依存する、生成することと、を含む。
-奥行き画像の現在のピクセルについて、現在のピクセルに関連付けられた奥行き情報を、奥行き画像内の現在のピクセルに空間的に隣接するピクセルに関連付けられた奥行き情報と比較することと、
-現在のピクセルと隣接ピクセルとの奥行き差が第1の値よりも大きくかつ第2の値よりも小さい場合、奥行き画像の現在のピクセルに関連付けられた現在の点に加えて、3Dシーンの少なくとも1つの追加点を生成することであって、追加点の数は差に依存する、生成することと、を行うように構成された少なくとも1つのプロセッサに関連付けられたメモリを備える。
-奥行き画像の現在のピクセルについて、現在のピクセルに関連付けられた奥行き情報を、奥行き画像内の現在のピクセルに空間的に隣接するピクセルに関連付けられた奥行き情報と比較するための手段と、
-現在のピクセルと隣接ピクセルとの奥行き差が第1の値よりも大きくかつ第2の値よりも小さい場合、奥行き画像の現在のピクセルに関連付けられた現在の点に加えて、3Dシーンの少なくとも1つの追加点を生成するための手段であって、追加点の数は差に依存する、手段と、を含む。
添付の図面を参照してなされる以下の説明を読めば、本文書はよりよく理解され、他の特定の特徴および利点が明らかになるであろう。
ここで、図面を参照して主題を説明するが、図面全体を通して、同様の参照番号が、同様の要素を指すために使用される。以下の記述では、説明の目的で、主題が完全に理解されるように、多くの特定の詳細を示す。しかしながら、主題の実施形態は、これらの特定の詳細なしで実施することができることは明らかであり得る。
・任意選択で深度能動感知デバイスで補完されたカメラ装置で撮影される、実際のオブジェクトの撮影から、
・モデル化ツールで仮想カメラ装置によって撮影される、仮想/合成オブジェクトの撮影から、
・実際のオブジェクトと仮想オブジェクトとの両方から、のさまざまな方法で取得され得る。
-視点に関連付けられた平面へのポイントクラウドの3D部分の点の線形透視投影、線形透視投影を表すパラメータは、仮想カメラの位置、空間サンプリングステップ、および2次元の視野を含む;
-ポイントクラウドの3D部分の点の一表面への正投影、正投影を表すパラメータは、投影表面のジオメトリ(形状、サイズ、および配向)および空間サンプリングステップを含む;
-ここでは3Dから2Dへの変換/転換に適用される、数学的次元縮小演算に対応するLLE(Locally-Linear Embedding)、LLEを表すパラメータは、変換係数を含む。
Th1≦d≦Th2 式1
-マイクロプロセッサ92(またはCPU)、例えば、DSP(すなわちデジタルシグナルプロセッサ);
-ROM(すなわち読み取り専用メモリ)93;
-RAM(すなわちランダムアクセスメモリ)94;
-記憶装置インターフェース95;
-アプリケーションから、送信するデータを受信するためのI/Oインターフェース96;および
-電源、例えばバッテリ。
-ローカルメモリ(93または94)、例えばビデオメモリまたはRAM(すなわちランダムアクセスメモリ)、フラッシュメモリ、ROM(すなわち読み取り専用メモリ)、ハードディスク;
-記憶装置インターフェース(95)、例えば大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク、または磁気サポートとのインターフェース;
-通信インターフェース(96)、例えば有線インターフェース(例えば、バスインターフェース、広域ネットワークインターフェース、ローカルエリアネットワークインターフェース)または無線インターフェース(IEEE802.11インターフェースもしくはBluetooth(登録商標)インターフェースなど);および
-ユーザがデータを入力することを可能とするグラフィカルユーザインターフェースなどのユーザインターフェース。
-ローカルメモリ(93または94)、例えばビデオメモリまたはRAM、フラッシュメモリ、ハードディスク;
-記憶装置ンターフェイス(95)、例えば大容量記憶装置、RAM、フラッシュメモリ、ROM、光ディスク、または磁気サポートとのインターフェース;および
-通信インターフェース(96)、例えば、有線インターフェース(例えば、バスインターフェース(例えば、USB(すなわちユニバーサルシリアルバス))、ワイドエリアネットワークインターフェース、ローカルエリアネットワークインターフェース、HDMI(高解像度マルチメディアインターフェース)インターフェース)または無線インターフェース(IEEE802.11インターフェース、WiFi(登録商標)もしくはBluetooth(登録商標)インターフェースなど)。
-モバイルデバイス;
-通信デバイス;
-ゲームデバイス;
-タブレット(またはタブレット型コンピュータ);
-ノート型パソコン;
-静止画カメラ;
-ビデオカメラ;
-エンコーデングチップ;
-サーバー(例えば、ブロードキャストサーバー、ビデオオンデマンドサーバー、ウェブサーバー);
-セットトップボックス;
-テレビセット;および
-ディスプレイ(例えばHMDなど)。
・任意選択で奥行き能動感知デバイスで補完された、1台以上のカメラで撮影される、実際のオブジェクトの撮影から;
・モデル化ツールにおいて1つ以上の仮想カメラによって撮影される、仮想/合成オブジェクトの撮影から;
・実際のオブジェクトおよび仮想オブジェクトの両方の混合から。
-所定の時間tにおけるポイントクラウドを表す少なくとも1つのピクチャを表すビット、例えば、ビットは、少なくとも1つのピクチャのピクセルに関連付けられたテクスチャ情報および/または奥行き情報を表し得る;
-少なくとも1つのピクチャの投影と画像との間の投影情報データおよびマッピングを表すビット。
・JPEG、仕様ISO/CEI10918-1UIT-T勧告T.81、https://www.itu.int/rec/T-REC-T.81/en、
・AVC、別名MPEG-4 AVCまたはh264。UIT-T H.264およびISO/CEI MPEG-4 Part10(ISO/CEI14496-10)の両方に仕様、http://www.itu.int/rec/T-REC-H.264/en、
・HEVC(その仕様はITUウェブサイトにある、T勧告、Hシリーズ、h265、http://www.itu.int/rec/T-REC-H.265-201612-I/en)、または
・3D-HEVC(HEVCの拡張で、仕様はITUウェブサイトにある、T勧告、Hシリーズ、h265、http://www.itu.int/rec/T-REC-H.265-201612-I/en附属書GおよびI)。
・JPEG、
・AVC、別名MPEG-4AVCもしくはh264、
・HEVC、または
・3D-HEVC(HEVCの拡張)。
・JPEG、
・AVC、別名MPEG-4AVCもしくはH264、
・HEVC、または
・3D-HEVC(HEVCの拡張)。
-予測タイプ、例えば、予測モードがイントラかインターかを示すフラグ、
-運動ベクトル、および/または
-参照ピクチャのリストから参照ピクチャを示すインデックス。
[付記1]
奥行き画像から3Dシーンの点を生成する方法であって、
-前記奥行き画像の現在のピクセルについて、前記現在のピクセルに関連付けられた奥行き情報を、前記奥行き画像内の前記現在のピクセルに空間的に隣接するピクセルに関連付けられた奥行き情報と比較することと、
-前記現在のピクセルと隣接ピクセルとの奥行き差が第1の値よりも大きくかつ第2の値よりも小さい場合、前記奥行き画像の前記現在のピクセルに関連付けられた現在の点に加えて、前記3Dシーンの少なくとも1つの追加点を生成することであって、追加点の数は前記差に依存する、生成することと、を含む方法。
[付記2]
前記現在のピクセルとの奥行き差が前記第1の値と前記第2の値との間に含まれる前記隣接ピクセルのなかから、前記現在のピクセルとの最大奥行き差を有する前記隣接ピクセルを選択することをさらに含み、生成される追加点の数は前記最大奥行き差に依存する、付記1に記載の方法。
[付記3]
体積単位が前記3Dシーンの点に関連付けられ、前記奥行き差は体積単位の数に対応し、生成される点の数は、前記奥行き差から1を差し引いたものに対応する、付記1~2の1項に記載の方法。
[付記4]
少なくとも1つの追加点に関連付けられる属性を決定することをさらに含み、前記属性は、前記現在の点および前記隣接ピクセルに関連付けられた属性から決定される、付記1~3の1項に記載の方法。
[付記5]
前記少なくとも1つの追加点に関連付けられる前記属性は、奥行き情報および/またはテクスチャ情報を含む、付記4に記載の方法。
[付記6]
受信されたビットストリームから前記奥行き画像を復号することをさらに含む、付記1~5の1項に記載の方法。
[付記7]
3Dシーンの前記点は、ポイントクラウドの一部である、付記1~6の1項に記載の方法。
[付記8]
奥行き画像から3Dシーンの点を生成するように構成されたデバイスであって、
-前記奥行き画像の現在のピクセルについて、前記現在のピクセルに関連付けられた奥行き情報を、前記奥行き画像内の前記現在のピクセルに空間的に隣接するピクセルに関連付けられた奥行き情報と比較することと、
-前記現在のピクセルと隣接ピクセルとの奥行き差が第1の値よりも大きくかつ第2の値よりも小さい場合、前記奥行き画像の前記現在のピクセルに関連付けられた現在の点に加えて、前記3Dシーンの少なくとも1つの追加点を生成することであって、追加点の数は前記差に依存する、生成することと、を行うように構成された少なくとも1つのプロセッサに関連付けられたメモリを備える、デバイス。
[付記9]
前記少なくとも1つのプロセッサはさらに、前記現在のピクセルとの奥行き差が前記第1の値と前記第2の値との間に含まれる前記隣接ピクセルのなかから、前記現在のピクセルとの前記最大奥行き差を有する前記隣接ピクセルを選択するように構成され、生成される追加点の数は前記最大奥行き差に依存する、付記8に記載のデバイス。
[付記10]
体積単位が前記3Dシーンの点に関連付けられ、前記奥行き差は体積単位の数に対応し、生成される点の数は、前記奥行き差から1を差し引いたものに対応する、付記8~9の1項に記載のデバイス。
[付記11]
前記少なくとも1つのプロセッサはさらに、前記少なくとも1つの追加点に関連付けられる属性を決定するように構成され、前記属性は、前記現在の点および前記隣接ピクセルに関連付けられた属性から決定される、付記8~10の1項に記載のデバイス。
[付記12]
前記少なくとも1つの追加点に関連付けられる前記属性は、奥行き情報および/またはテクスチャ情報を含む、付記11に記載のデバイス。
[付記13]
前記少なくとも1つのプロセッサはさらに、受信されたビットストリームから前記奥行き画像を復号するように構成されている、付記8~12の1項に記載のデバイス。
[付記14]
前記3Dシーンの前記点は、ポイントクラウドの一部である、付記8~13の1項に記載のデバイス。
[付記15]
付記1~7の1項に記載の方法をプロセッサに実行させるための命令を記憶した非一時的プロセッサ可読媒体。
Claims (15)
- 奥行き画像から3Dシーンの点を生成する方法であって、
-前記奥行き画像の現在のピクセルについて、前記現在のピクセルに関連付けられた奥行き情報を、前記奥行き画像内の前記現在のピクセルに空間的に隣接するピクセルに関連付けられた奥行き情報と比較することと、
-前記現在のピクセルと隣接ピクセルとの奥行き差が第1の値以上かつ第2の値以下である場合、前記第2の値は、前記現在のピクセルと隣接ピクセルとが前記3Dシーンの同じオブジェクトまたは前記3Dシーンのオブジェクトの同じ部分に属していることを示し、前記奥行き画像の前記現在のピクセルに関連付けられた現在の点に加えて、前記3Dシーンの少なくとも1つの追加点を生成することであって、追加点の数は前記差に依存する、生成することと、を含む方法。 - 前記現在のピクセルとの奥行き差が前記第1の値と前記第2の値との間に含まれる前記隣接ピクセルのなかから、前記現在のピクセルとの最大奥行き差を有する前記隣接ピクセルを選択することをさらに含み、生成される追加点の数は前記最大奥行き差に依存する、請求項1に記載の方法。
- 体積単位が前記3Dシーンの点に関連付けられ、前記奥行き差は体積単位の数に対応し、生成される点の数は、前記奥行き差から1を差し引いたものに対応する、請求項1に記載の方法。
- 少なくとも1つの追加点に関連付けられる属性を決定することをさらに含み、前記属性は、前記現在の点および前記隣接ピクセルに関連付けられた属性から決定される、請求項1に記載の方法。
- 前記少なくとも1つの追加点に関連付けられる前記属性は、奥行き情報および/またはテクスチャ情報を含む、請求項4に記載の方法。
- 受信されたビットストリームから前記奥行き画像を復号することをさらに含む、請求項1に記載の方法。
- 3Dシーンの前記点は、ポイントクラウドの一部である、請求項1に記載の方法。
- 奥行き画像から3Dシーンの点を生成するように構成されたデバイスであって、
-前記奥行き画像の現在のピクセルについて、前記現在のピクセルに関連付けられた奥行き情報を、前記奥行き画像内の前記現在のピクセルに空間的に隣接するピクセルに関連付けられた奥行き情報と比較することと、
-前記現在のピクセルと隣接ピクセルとの奥行き差が第1の値よりも大きくかつ第2の値よりも小さい場合、前記第2の値は、前記現在のピクセルと隣接ピクセルとが前記3Dシーンの同じオブジェクトまたは前記3Dシーンのオブジェクトの同じ部分に属していることを示し、前記奥行き画像の前記現在のピクセルに関連付けられた現在の点に加えて、前記3Dシーンの少なくとも1つの追加点を生成することであって、追加点の数は前記差に依存する、生成することと、を行うように構成された少なくとも1つのプロセッサに関連付けられたメモリを備える、デバイス。 - 前記少なくとも1つのプロセッサはさらに、前記現在のピクセルとの奥行き差が前記第1の値と前記第2の値との間に含まれる前記隣接ピクセルのなかから、前記現在のピクセルとの最大奥行き差を有する前記隣接ピクセルを選択するように構成され、生成される追加点の数は前記最大奥行き差に依存する、請求項8に記載のデバイス。
- 体積単位が前記3Dシーンの点に関連付けられ、前記奥行き差は体積単位の数に対応し、生成される点の数は、前記奥行き差から1を差し引いたものに対応する、請求項8に記載のデバイス。
- 前記少なくとも1つのプロセッサはさらに、前記少なくとも1つの追加点に関連付けられる属性を決定するように構成され、前記属性は、前記現在の点および前記隣接ピクセルに関連付けられた属性から決定される、請求項8に記載のデバイス。
- 前記少なくとも1つの追加点に関連付けられる前記属性は、奥行き情報および/またはテクスチャ情報を含む、請求項11に記載のデバイス。
- 前記少なくとも1つのプロセッサはさらに、受信されたビットストリームから前記奥行き画像を復号するように構成されている、請求項8に記載のデバイス。
- 前記3Dシーンの前記点は、ポイントクラウドの一部である、請求項8に記載のデバイス。
- 請求項1~7の1項に記載の方法をプロセッサに実行させるための命令を記憶した非一時的プロセッサ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17306345.4 | 2017-10-06 | ||
EP17306345.4A EP3467782A1 (en) | 2017-10-06 | 2017-10-06 | Method and device for generating points of a 3d scene |
PCT/US2018/054057 WO2019070778A1 (en) | 2017-10-06 | 2018-10-03 | METHOD AND DEVICE FOR GENERATING POINTS OF A 3D SCENE |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2020536325A JP2020536325A (ja) | 2020-12-10 |
JP2020536325A5 JP2020536325A5 (ja) | 2021-11-11 |
JP7407703B2 true JP7407703B2 (ja) | 2024-01-04 |
Family
ID=60143653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020518785A Active JP7407703B2 (ja) | 2017-10-06 | 2018-10-03 | 3dシーンの点を生成するための方法およびデバイス |
Country Status (9)
Country | Link |
---|---|
US (1) | US11830210B2 (ja) |
EP (2) | EP3467782A1 (ja) |
JP (1) | JP7407703B2 (ja) |
KR (1) | KR102537420B1 (ja) |
CN (1) | CN111386556B (ja) |
BR (1) | BR112020006530A2 (ja) |
DK (1) | DK3692509T3 (ja) |
HU (1) | HUE061036T2 (ja) |
WO (1) | WO2019070778A1 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10907954B2 (en) * | 2018-09-28 | 2021-02-02 | Hand Held Products, Inc. | Methods and systems for measuring dimensions of a 2-D object |
GB2584119B (en) * | 2019-05-22 | 2022-11-02 | Sony Interactive Entertainment Inc | Content coding system and method |
WO2022050650A1 (ko) * | 2020-09-03 | 2022-03-10 | 엘지전자 주식회사 | 포인트 클라우드 데이터 송신 장치, 포인트 클라우드 데이터 송신 방법, 포인트 클라우드 데이터 수신 장치 및 포인트 클라우드 데이터 수신 방법 |
US11823327B2 (en) | 2020-11-19 | 2023-11-21 | Samsung Electronics Co., Ltd. | Method for rendering relighted 3D portrait of person and computing device for the same |
WO2022119304A1 (ko) * | 2020-12-01 | 2022-06-09 | 현대자동차주식회사 | 적응적 데드존 양자화를 이용하는 포인트 클라우드 코딩 장치 및 방법 |
EP4277284A1 (en) * | 2021-01-06 | 2023-11-15 | LG Electronics Inc. | Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method |
US11756281B1 (en) * | 2023-03-14 | 2023-09-12 | Illuscio, Inc. | Systems and methods for splat filling a three-dimensional image using semi-measured data |
US11935209B1 (en) | 2023-07-24 | 2024-03-19 | Illuscio, Inc. | Systems and methods for dynamic backfilling of a three-dimensional object |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090174710A1 (en) | 2008-01-08 | 2009-07-09 | Samsung Electronics Co., Ltd. | Modeling method and apparatus |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7015926B2 (en) * | 2004-06-28 | 2006-03-21 | Microsoft Corporation | System and process for generating a two-layer, 3D representation of a scene |
US7576737B2 (en) * | 2004-09-24 | 2009-08-18 | Konica Minolta Medical & Graphic, Inc. | Image processing device and program |
EP1875440B1 (en) | 2005-04-19 | 2008-12-03 | Koninklijke Philips Electronics N.V. | Depth perception |
US8249334B2 (en) * | 2006-05-11 | 2012-08-21 | Primesense Ltd. | Modeling of humanoid forms from depth maps |
US9645240B1 (en) * | 2010-05-10 | 2017-05-09 | Faro Technologies, Inc. | Method for optically scanning and measuring an environment |
US20110304618A1 (en) * | 2010-06-14 | 2011-12-15 | Qualcomm Incorporated | Calculating disparity for three-dimensional images |
JP5858380B2 (ja) * | 2010-12-03 | 2016-02-10 | 国立大学法人名古屋大学 | 仮想視点画像合成方法及び仮想視点画像合成システム |
KR101210625B1 (ko) * | 2010-12-28 | 2012-12-11 | 주식회사 케이티 | 빈공간 채움 방법 및 이를 수행하는 3차원 비디오 시스템 |
CN102055982B (zh) * | 2011-01-13 | 2012-06-27 | 浙江大学 | 三维视频编解码方法及装置 |
US9053571B2 (en) * | 2011-06-06 | 2015-06-09 | Microsoft Corporation | Generating computer models of 3D objects |
US9471988B2 (en) * | 2011-11-02 | 2016-10-18 | Google Inc. | Depth-map generation for an input image using an example approximate depth-map associated with an example similar image |
US9282915B2 (en) * | 2011-11-29 | 2016-03-15 | St. Jude Medical, Atrial Fibrillation Division, Inc. | Method and system for generating and/or repairing a surface model of a geometric structure |
WO2013111994A1 (en) * | 2012-01-26 | 2013-08-01 | Samsung Electronics Co., Ltd. | Image processing method and apparatus for 3d video |
US8712147B2 (en) * | 2012-02-03 | 2014-04-29 | Harris Corporation | Fractal method for detecting and filling data gaps within LiDAR data |
EP2876609B1 (en) * | 2012-07-23 | 2017-12-13 | Fujitsu Limited | Shape data generating program, shape data generating method, and shape data generating device |
US9811880B2 (en) * | 2012-11-09 | 2017-11-07 | The Boeing Company | Backfilling points in a point cloud |
WO2014124871A2 (en) * | 2013-02-12 | 2014-08-21 | Thomson Licensing | Method and device for enriching the content of a depth map |
US9756359B2 (en) * | 2013-12-16 | 2017-09-05 | Qualcomm Incorporated | Large blocks and depth modeling modes (DMM'S) in 3D video coding |
US9171403B2 (en) * | 2014-02-13 | 2015-10-27 | Microsoft Technology Licensing, Llc | Contour completion for augmenting surface reconstructions |
US9292961B1 (en) * | 2014-08-26 | 2016-03-22 | The Boeing Company | System and method for detecting a structural opening in a three dimensional point cloud |
US9792531B2 (en) | 2015-09-16 | 2017-10-17 | Siemens Healthcare Gmbh | Intelligent multi-scale medical image landmark detection |
GB2543749A (en) | 2015-10-21 | 2017-05-03 | Nokia Technologies Oy | 3D scene rendering |
CN105825544B (zh) * | 2015-11-25 | 2019-08-20 | 维沃移动通信有限公司 | 一种图像处理方法及移动终端 |
US20170186223A1 (en) * | 2015-12-23 | 2017-06-29 | Intel Corporation | Detection of shadow regions in image depth data caused by multiple image sensors |
US10192103B2 (en) * | 2016-01-15 | 2019-01-29 | Stereovision Imaging, Inc. | System and method for detecting and removing occlusions in a three-dimensional image |
EP3434012A1 (en) * | 2016-03-21 | 2019-01-30 | InterDigital CE Patent Holdings | Dibr with depth map preprocessing for reducing visibility of holes by locally blurring hole areas |
TW201805894A (zh) * | 2016-05-06 | 2018-02-16 | 國立臺灣大學 | 三維渲染方法以及三維繪圖處理裝置 |
US10074160B2 (en) * | 2016-09-30 | 2018-09-11 | Disney Enterprises, Inc. | Point cloud noise and outlier removal for image-based 3D reconstruction |
US9972067B2 (en) * | 2016-10-11 | 2018-05-15 | The Boeing Company | System and method for upsampling of sparse point cloud for 3D registration |
KR20190103146A (ko) * | 2016-10-20 | 2019-09-04 | 로보-팀 홈 엘티디. | 사람을 추적하는 로봇 |
US10176589B2 (en) * | 2017-01-31 | 2019-01-08 | Mitsubishi Electric Research Labroatories, Inc. | Method and system for completing point clouds using planar segments |
CN108694740A (zh) * | 2017-03-06 | 2018-10-23 | 索尼公司 | 信息处理设备、信息处理方法以及用户设备 |
US10803561B2 (en) * | 2017-06-02 | 2020-10-13 | Wisconsin Alumni Research Foundation | Systems, methods, and media for hierarchical progressive point cloud rendering |
US10509413B2 (en) * | 2017-09-07 | 2019-12-17 | GM Global Technology Operations LLC | Ground reference determination for autonomous vehicle operations |
-
2017
- 2017-10-06 EP EP17306345.4A patent/EP3467782A1/en not_active Withdrawn
-
2018
- 2018-10-03 JP JP2020518785A patent/JP7407703B2/ja active Active
- 2018-10-03 BR BR112020006530-7A patent/BR112020006530A2/pt unknown
- 2018-10-03 CN CN201880076258.6A patent/CN111386556B/zh active Active
- 2018-10-03 US US16/753,787 patent/US11830210B2/en active Active
- 2018-10-03 HU HUE18786924A patent/HUE061036T2/hu unknown
- 2018-10-03 KR KR1020207012438A patent/KR102537420B1/ko active IP Right Grant
- 2018-10-03 DK DK18786924.3T patent/DK3692509T3/da active
- 2018-10-03 WO PCT/US2018/054057 patent/WO2019070778A1/en unknown
- 2018-10-03 EP EP18786924.3A patent/EP3692509B1/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090174710A1 (en) | 2008-01-08 | 2009-07-09 | Samsung Electronics Co., Ltd. | Modeling method and apparatus |
Also Published As
Publication number | Publication date |
---|---|
US20200258247A1 (en) | 2020-08-13 |
DK3692509T3 (da) | 2023-01-09 |
HUE061036T2 (hu) | 2023-05-28 |
KR102537420B1 (ko) | 2023-05-26 |
EP3467782A1 (en) | 2019-04-10 |
JP2020536325A (ja) | 2020-12-10 |
WO2019070778A1 (en) | 2019-04-11 |
EP3692509A1 (en) | 2020-08-12 |
KR20200057077A (ko) | 2020-05-25 |
BR112020006530A2 (pt) | 2020-10-06 |
RU2020115158A (ru) | 2021-11-08 |
EP3692509B1 (en) | 2022-12-07 |
CN111386556A (zh) | 2020-07-07 |
CN111386556B (zh) | 2024-03-12 |
US11830210B2 (en) | 2023-11-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7407703B2 (ja) | 3dシーンの点を生成するための方法およびデバイス | |
CN111615715B (zh) | 编码/解码体积视频的方法、装置和流 | |
US20200273258A1 (en) | Method and device for modifying attributes of points of a 3d scene | |
US20190108655A1 (en) | Method and apparatus for encoding a point cloud representing three-dimensional objects | |
US11019363B2 (en) | Method and device for encoding a point cloud | |
US20200258202A1 (en) | Method and apparatus for reconstructing a point cloud representing a 3d object | |
CN113597771A (zh) | 用于处理点云数据的设备和方法 | |
CN110915216A (zh) | 用于编码/解码表示3d对象的几何形状和颜色的有色点云的方法和装置 | |
US20210166435A1 (en) | Method and apparatus for encoding/decoding the geometry of a point cloud representing a 3d object | |
EP3429206A1 (en) | Method and device for encoding a point cloud | |
CN114051734A (zh) | 一种解码三维场景的方法和装置 | |
EP3716628A1 (en) | A method and apparatus for encoding and decoding volumetric video | |
RU2788439C2 (ru) | Способ и устройство для генерации точек трехмерной (3d) сцены | |
WO2024093215A1 (en) | Encoding/decoding point cloud geometry data | |
WO2024140684A1 (zh) | 端云协同系统、编解码方法及电子设备 | |
US20240179347A1 (en) | Point cloud data transmission device, point cloud data transmission method, point cloud data reception device, and point cloud data reception method | |
WO2023179277A1 (en) | Encoding/decoding positions of points of a point cloud encompassed in a cuboid volume | |
CN118283267A (zh) | 端云协同系统、编解码方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210928 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230202 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230529 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230816 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231128 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231219 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7407703 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |