JP6919864B2 - 3次元点群の再構成のための方法および装置 - Google Patents
3次元点群の再構成のための方法および装置 Download PDFInfo
- Publication number
- JP6919864B2 JP6919864B2 JP2019542474A JP2019542474A JP6919864B2 JP 6919864 B2 JP6919864 B2 JP 6919864B2 JP 2019542474 A JP2019542474 A JP 2019542474A JP 2019542474 A JP2019542474 A JP 2019542474A JP 6919864 B2 JP6919864 B2 JP 6919864B2
- Authority
- JP
- Japan
- Prior art keywords
- voxel
- storage space
- target
- information
- stored
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
Description
本特許文献が開示する内容は、著作権の保護を受ける材料を含む。該著作権は著作権所有者が所有する。著作権所有者は、特許商標庁の公式記録と保管文書に存在する該特許文献をいかなる人が複製することにも、該特許の開示にも反対しない。
struct voxel{
float tsdf;
uchar color[3];
uchar weight;
}
ここで、tsdfはすなわち第1のボクセルの深度情報であり、第1のボクセルの、目標物体表面からの距離を表すために用いられる。color[3]は、第1のボクセルの色情報を表すために用いられ、weightは、第1のボクセルの色情報および/または深度情報の重みを表すために用いられる。
struct voxel{
float tsdf;
uchar color[3];
uchar weight;
}
Di+1=(Wi×Di+wi+1×Di+1)/(Wi+wi+1)
Wi+1=Wi+wi+1
Diは、第1のボクセル記憶空間に記憶されたボクセルのtsdf値を表し、di+1は第1のボクセルのtsdf値を表し、Di+1は更新後のtsdf値を表し;Wiは第1のボクセル記憶空間に記憶されたボクセルの重みを表し、wi+1は第1のボクセルの重みを表し、Wi+1は更新後の重みを表す。
struct hash_entry{
short pos[3];
short offset;
int pointer;
}
ここで、pos[3]は、ボクセルブロックの、3次元空間におけるワールド座標(x,y,z)を表すことができ、pointerは、ボクセルブロックを記憶する配列の開始アドレスを示すことができ、offsetは、このボクセルブロックの記憶位置の開始アドレスと、ボクセルブロックを記憶する配列の開始アドレスとの間のオフセットを示すために用いることができる。
struct voxel{
float tsdf;
uchar color[3];
uchar weight;
}
ここで、tsdfはすなわちボクセルの深度情報であり、第1のボクセルの、目標物体表面からの距離を表すために用いられる。所定の範囲が(Dmin,Dmax)であってよいとすると、ボクセルのtsdf値が:Dmin<tsdf<Dmaxを満たせば、このボクセルを保持し;ボクセルのtsdf値が:Dmin<tsdf<Dmaxを満さなければ、このボクセルを廃棄する。
現在の画角の画像データを取得するための取得モジュール410と;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成するための生成モジュール420であって、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含む生成モジュール420と;
前記第1のボクセルの深度情報の取得値が所定の範囲内にない場合、前記第1のボクセルを廃棄するための廃棄モジュール430と;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合するための統合モジュール440と、
を備える。
命令を記憶するためのメモリ510と;
メモリ510に記憶された命令を実行することで以下の動作を実行するためのプロセッサプロセッサ520と、
を備える:
現在の画角の画像データを取得する;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成し、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含み;
前記第1のボクセルの深度情報の取得値が所定の範囲内にない場合、前記第1のボクセルを廃棄し;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合する。
220 ステップ
230 ステップ
240 ステップ
242 ステップ
244 ステップ
246 ステップ
400 装置
410 取得モジュール
420 生成モジュール
430 廃棄モジュール
440 統合モジュール
500 装置
510 メモリ
520 プロセッサ
Claims (28)
- 現在の画角の画像データを取得することと;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成し、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含むことと;
前記第1のボクセルの深度情報の取得値が前記目標物体の表面を基準として所定の範囲内にない場合、前記第1のボクセルを廃棄することと;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合することと、
を含む、3次元点群の再構成のための方法。 - 前記第1のボクセルと、記憶されたボクセルとを統合することは:
記憶されたボクセルに割り当てられる記憶空間である目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することと;
前記目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新することと;
前記目標記憶空間が前記第1のボクセルの記憶空間を含まない場合、前記第1のボクセルに新しい記憶空間を割り当て、前記第1のボクセルを前記新しい記憶空間に記憶することと、
を含む請求項1に記載の方法。 - 前記目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することは:
前記第1のボクセルと、あらかじめ記憶されたマッピング関係情報とに基づき、前記目標記憶空間から前記第1のボクセルの記憶空間を検索し、前記マッピング関係情報は、前記記憶されたボクセルと、前記記憶されたボクセルの記憶空間との対応関係を示すために用いられることと;
前記第1のボクセルの記憶空間を検索した場合、前記目標記憶空間が前記第1のボクセルの記憶空間を含むと判定することと;
前記第1のボクセルの記憶空間を検索しなかった場合、前記目標記憶空間が前記第1のボクセルの記憶空間を含まないと判定することと、
を含む請求項2に記載の方法。 - 前記マッピング関係情報はハッシュテーブルに記憶され、
前記第1のボクセルと、あらかじめ記憶されたマッピング関係情報とに基づき、前記目標記憶空間から前記第1のボクセルの記憶空間を検索することは:
前記第1のボクセルおよびハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標記憶空間から前記第1のボクセルの記憶空間を検索することを含む請求項3に記載の方法。 - 前記ハッシュテーブルに、記憶されたボクセルブロックの位置情報と、前記記憶されたボクセルブロックの記憶空間との対応関係が記録されており、1つのボクセルブロックが、空間が隣接する複数のボクセルを含み、前記記憶されたボクセルブロックの位置情報は、前記記憶されたボクセルブロックの、3次元情景における空間位置を示すために用いられ、
前記第1のボクセルおよびハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標記憶空間から前記第1のボクセルの記憶空間を検索することは:
前記第1のボクセルが所属する目標ボクセルブロックの位置情報を判定することと;
前記目標ボクセルブロックの位置情報および前記ハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標ボクセルブロックの記憶空間を検索することと;
前記第1のボクセルの、前記目標ボクセルブロックにおける位置に基づき、前記目標ボクセルブロックの記憶空間から前記第1のボクセルの記憶空間を検索することと
を含む請求項4に記載の方法。 - 現在の画角の画像データを取得することと;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成し、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含むことと;
前記第1のボクセルの深度情報の取得値が所定の範囲内にない場合、前記第1のボクセルを廃棄することと;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合することと、
を含み、
前記第1のボクセルと、記憶されたボクセルとを統合することは:
記憶されたボクセルに割り当てられる記憶空間である目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することと;
前記目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新することと;
前記目標記憶空間が前記第1のボクセルの記憶空間を含まない場合、前記第1のボクセルに新しい記憶空間を割り当て、前記第1のボクセルを前記新しい記憶空間に記憶することと、
を含み、
前記目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することは:
前記第1のボクセルと、あらかじめ記憶されたマッピング関係情報とに基づき、前記目標記憶空間から前記第1のボクセルの記憶空間を検索し、前記マッピング関係情報は、前記記憶されたボクセルと、前記記憶されたボクセルの記憶空間との対応関係を示すために用いられることと;
前記第1のボクセルの記憶空間を検索した場合、前記目標記憶空間が前記第1のボクセルの記憶空間を含むと判定することと;
前記第1のボクセルの記憶空間を検索しなかった場合、前記目標記憶空間が前記第1のボクセルの記憶空間を含まないと判定することと、
を含み、
前記マッピング関係情報はハッシュテーブルに記憶され、
前記第1のボクセルと、あらかじめ記憶されたマッピング関係情報とに基づき、前記目標記憶空間から前記第1のボクセルの記憶空間を検索することは:
前記第1のボクセルおよびハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標記憶空間から前記第1のボクセルの記憶空間を検索することを含み、
前記ハッシュテーブルに、記憶されたボクセルブロックの位置情報と、前記記憶されたボクセルブロックの記憶空間との対応関係が記録されており、1つのボクセルブロックが、空間が隣接する複数のボクセルを含み、前記記憶されたボクセルブロックの位置情報は、前記記憶されたボクセルブロックの、3次元情景における空間位置を示すために用いられ、
前記第1のボクセルおよびハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標記憶空間から前記第1のボクセルの記憶空間を検索することは:
前記第1のボクセルが所属する目標ボクセルブロックの位置情報を判定することと;
前記目標ボクセルブロックの位置情報および前記ハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標ボクセルブロックの記憶空間を検索することと;
前記第1のボクセルの、前記目標ボクセルブロックにおける位置に基づき、前記目標ボクセルブロックの記憶空間から前記第1のボクセルの記憶空間を検索することと
を含む、3次元点群の再構成のための方法。 - 前記目標記憶空間はCPUの内部メモリおよび/または外部メモリの中に位置し、
前記目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することは:
GPUが、前記目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することを含み;
前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新することは:
前記GPUが前記CPUを介して、前記第1のボクセルの記憶空間におけるボクセルの情報を前記目標記憶空間から読み取ることと;
前記GPUが前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新し、更新されたボクセルの情報を得ることと;
前記GPUが前記CPUを介して、更新されたボクセルの情報を前記第1のボクセルの記憶空間に記憶することと、
を含む請求項2〜6のいずれか一項に記載の方法。 - 現在の画角の画像データを取得することと;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成し、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含むことと;
前記第1のボクセルの深度情報の取得値が所定の範囲内にない場合、前記第1のボクセルを廃棄することと;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合することと、
を含み、
前記第1のボクセルと、記憶されたボクセルとを統合することは:
記憶されたボクセルに割り当てられる記憶空間である目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することと;
前記目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新することと;
前記目標記憶空間が前記第1のボクセルの記憶空間を含まない場合、前記第1のボクセルに新しい記憶空間を割り当て、前記第1のボクセルを前記新しい記憶空間に記憶することと、
を含み、
前記目標記憶空間はCPUの内部メモリおよび/または外部メモリの中に位置し、
前記目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することは:
GPUが、前記目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定することを含み;
前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新することは:
前記GPUが前記CPUを介して、前記第1のボクセルの記憶空間におけるボクセルの情報を前記目標記憶空間から読み取ることと;
前記GPUが前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新し、更新されたボクセルの情報を得ることと;
前記GPUが前記CPUを介して、更新されたボクセルの情報を前記第1のボクセルの記憶空間に記憶することと、
を含む、3次元点群の再構成のための方法。 - 前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成することは:
前記画像データに基づき、前記目標物体が移動物体であるか否か判定することと;
前記目標物体が移動物体である場合に、前記目標物体のボクセルを生成し、前記目標物体中の各々のボクセルの深度情報の取得値が前記所定の範囲内にないようにすることと、
を含む請求項1〜6のいずれか一項に記載の方法。 - 現在の画角の画像データを取得することと;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成し、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含むことと;
前記第1のボクセルの深度情報の取得値が所定の範囲内にない場合、前記第1のボクセルを廃棄することと;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合することと、
を含み、
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成することは:
前記画像データに基づき、前記目標物体が移動物体であるか否か判定することと;
前記目標物体が移動物体である場合に、前記目標物体のボクセルを生成し、前記目標物体中の各々のボクセルの深度情報の取得値が前記所定の範囲内にないようにすることと、
を含む、3次元点群の再構成のための方法。 - 前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成することは:
前記画像データに基づき、前記現在の画角の深度図を生成することと;
前記深度図に基づき、前記目標物体をボクセル化し、前記目標物体のボクセルを得ることと、
を含む請求項1〜10のいずれか一項に記載の方法。 - 前記第1のボクセルは色情報と前記色情報の重みとを含み、
前記第1のボクセルと、記憶されたボクセルとを統合することは:
目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの色情報の重みに基づき、前記第1のボクセルの色情報と前記第1のボクセルの記憶空間内のボクセルの色情報とについて加重和を求めることを含む請求項1〜11のいずれか一項に記載の方法。 - 前記第1のボクセルは前記深度情報の重みを備え、
前記第1のボクセルと、記憶されたボクセルとを統合することは:
目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの深度情報の重みに基づき、前記第1のボクセルの深度情報と前記第1のボクセルの記憶空間内のボクセルの深度情報とについて加重和を求めることを含む請求項1〜12のいずれか一項に記載の方法。 - 前記第1のボクセルの深度情報の取得値は、第1のボクセルと目標物体表面との間の距離を示すための切断符号付き距離関数値である請求項1〜13のいずれか一項に記載の方法。
- 現在の画角の画像データを取得するための取得モジュールと;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成するための生成モジュールであって、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含む生成モジュールと;
前記第1のボクセルの深度情報の取得値が前記目標物体の表面を基準として所定の範囲内にない場合、前記第1のボクセルを廃棄するための廃棄モジュールと;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合するための統合モジュールと、
を備える、3次元点群の再構成のための装置。 - 前記統合モジュールは具体的に、記憶されたボクセルに割り当てられる記憶空間である目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定し;前記目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新し;前記目標記憶空間が前記第1のボクセルの記憶空間を含まない場合、前記第1のボクセルに新しい記憶空間を割り当て、前記第1のボクセルを前記新しい記憶空間に記憶するために用いられる請求項15に記載の装置。
- 前記統合モジュールは具体的に、前記第1のボクセルと、あらかじめ記憶されたマッピング関係情報とに基づき、前記目標記憶空間から前記第1のボクセルの記憶空間を検索し、前記マッピング関係情報は、前記記憶されたボクセルと、前記記憶されたボクセルの記憶空間との対応関係を示すために用いられ;前記第1のボクセルの記憶空間を検索した場合、前記目標記憶空間が前記第1のボクセルの記憶空間を含むと判定し;前記第1のボクセルの記憶空間を検索しなかった場合、前記目標記憶空間が前記第1のボクセルの記憶空間を含まないと判定するために用いられる請求項16に記載の装置。
- 前記マッピング関係情報はハッシュテーブルに記憶され、前記統合モジュールは具体的に、前記第1のボクセルおよびハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標記憶空間から前記第1のボクセルの記憶空間を検索するために用いられる請求項17に記載の装置。
- 前記ハッシュテーブルに、記憶されたボクセルブロックの位置情報と、前記記憶されたボクセルブロックの記憶空間との対応関係が記録されており、1つのボクセルブロックが、空間が隣接する複数のボクセルを含み、前記記憶されたボクセルブロックの位置情報は、前記記憶されたボクセルブロックの、3次元情景における空間位置を示すために用いられ、前記統合モジュールは具体的に、前記第1のボクセルが所属する目標ボクセルブロックの位置情報を判定し;前記目標ボクセルブロックの位置情報および前記ハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標ボクセルブロックの記憶空間を検索し;前記第1のボクセルの、前記目標ボクセルブロックにおける位置に基づき、前記目標ボクセルブロックの記憶空間から前記第1のボクセルの記憶空間を検索するために用いられる請求項18に記載の装置。
- 現在の画角の画像データを取得するための取得モジュールと;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成するための生成モジュールであって、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含む生成モジュールと;
前記第1のボクセルの深度情報の取得値が所定の範囲内にない場合、前記第1のボクセルを廃棄するための廃棄モジュールと;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合するための統合モジュールと、
を備え、
前記統合モジュールは具体的に、記憶されたボクセルに割り当てられる記憶空間である目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定し;前記目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新し;前記目標記憶空間が前記第1のボクセルの記憶空間を含まない場合、前記第1のボクセルに新しい記憶空間を割り当て、前記第1のボクセルを前記新しい記憶空間に記憶するために用いられ、
前記統合モジュールは具体的に、前記第1のボクセルと、あらかじめ記憶されたマッピング関係情報とに基づき、前記目標記憶空間から前記第1のボクセルの記憶空間を検索し、前記マッピング関係情報は、前記記憶されたボクセルと、前記記憶されたボクセルの記憶空間との対応関係を示すために用いられ;前記第1のボクセルの記憶空間を検索した場合、前記目標記憶空間が前記第1のボクセルの記憶空間を含むと判定し;前記第1のボクセルの記憶空間を検索しなかった場合、前記目標記憶空間が前記第1のボクセルの記憶空間を含まないと判定するために用いられ、
前記マッピング関係情報はハッシュテーブルに記憶され、前記統合モジュールは具体的に、前記第1のボクセルおよびハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標記憶空間から前記第1のボクセルの記憶空間を検索するために用いられ、
前記ハッシュテーブルに、記憶されたボクセルブロックの位置情報と、前記記憶されたボクセルブロックの記憶空間との対応関係が記録されており、1つのボクセルブロックが、空間が隣接する複数のボクセルを含み、前記記憶されたボクセルブロックの位置情報は、前記記憶されたボクセルブロックの、3次元情景における空間位置を示すために用いられ、前記統合モジュールは具体的に、前記第1のボクセルが所属する目標ボクセルブロックの位置情報を判定し;前記目標ボクセルブロックの位置情報および前記ハッシュテーブルに基づき、ハッシュアルゴリズムによって、前記目標ボクセルブロックの記憶空間を検索し;前記第1のボクセルの、前記目標ボクセルブロックにおける位置に基づき、前記目標ボクセルブロックの記憶空間から前記第1のボクセルの記憶空間を検索するために用いられる、3次元点群の再構成のための装置。 - 前記目標記憶空間はCPUの内部メモリおよび/または外部メモリの中に位置し、前記統合モジュールは具体的に、GPUを起動して:前記目標記憶空間中に前記第1のボクセルの記憶空間が含まれるか否か判定する動作と;前記CPUを介して、前記第1のボクセルの記憶空間におけるボクセルの情報を前記目標記憶空間から読み取る動作と;前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新し、更新されたボクセルの情報を得る動作と;前記CPUを介して、更新されたボクセルの情報を前記第1のボクセルの記憶空間に記憶する動作と、を実行するために用いられる請求項16〜20のいずれか一項に記載の装置。
- 現在の画角の画像データを取得するための取得モジュールと;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成するための生成モジュールであって、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含む生成モジュールと;
前記第1のボクセルの深度情報の取得値が所定の範囲内にない場合、前記第1のボクセルを廃棄するための廃棄モジュールと;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合するための統合モジュールと、
を備え、
前記統合モジュールは具体的に、記憶されたボクセルに割り当てられる記憶空間である目標記憶空間に前記第1のボクセルの記憶空間が含まれるか否か判定し;前記目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新し;前記目標記憶空間が前記第1のボクセルの記憶空間を含まない場合、前記第1のボクセルに新しい記憶空間を割り当て、前記第1のボクセルを前記新しい記憶空間に記憶するために用いられ、
前記目標記憶空間はCPUの内部メモリおよび/または外部メモリの中に位置し、前記統合モジュールは具体的に、GPUを起動して:前記目標記憶空間中に前記第1のボクセルの記憶空間が含まれるか否か判定する動作と;前記CPUを介して、前記第1のボクセルの記憶空間におけるボクセルの情報を前記目標記憶空間から読み取る動作と;前記第1のボクセルの情報に基づき、前記第1のボクセルの記憶空間の中のボクセルの情報を更新し、更新されたボクセルの情報を得る動作と;前記CPUを介して、更新されたボクセルの情報を前記第1のボクセルの記憶空間に記憶する動作と、を実行するために用いられる、3次元点群の再構成のための装置。 - 前記生成モジュールは具体的に、前記画像データに基づき、前記目標物体が移動物体であるか否か判定し;前記目標物体が移動物体である場合に、前記目標物体のボクセルを生成し、前記目標物体中の各々のボクセルの深度情報の取得値が前記所定の範囲内にないようにするために用いられる請求項15〜22のいずれか一項に記載の装置。
- 現在の画角の画像データを取得するための取得モジュールと;
前記画像データに基づき、前記現在の画角の中の目標物体のボクセルを生成するための生成モジュールであって、前記目標物体のボクセルは第1のボクセルを備え、前記第1のボクセルは深度情報を含む生成モジュールと;
前記第1のボクセルの深度情報の取得値が所定の範囲内にない場合、前記第1のボクセルを廃棄するための廃棄モジュールと;
前記第1のボクセルの深度情報の取得値が前記所定の範囲内に位置する場合、前記第1のボクセルと、記憶されたボクセルとを統合するための統合モジュールと、
を備え、
前記生成モジュールは具体的に、前記画像データに基づき、前記目標物体が移動物体であるか否か判定し;前記目標物体が移動物体である場合に、前記目標物体のボクセルを生成し、前記目標物体中の各々のボクセルの深度情報の取得値が前記所定の範囲内にないようにするために用いられる、3次元点群の再構成のための装置。 - 前記生成モジュールは具体的に、前記画像データに基づき、前記現在の画角の深度図を生成し;前記深度図に基づき、前記目標物体をボクセル化し、前記目標物体のボクセルを得るために用いられる請求項15〜24のいずれか一項に記載の装置。
- 前記第1のボクセルは色情報および前記色情報の重みを含み、前記生成モジュールは具体的に、目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの色情報の重みに基づき、前記第1のボクセルの色情報と前記第1のボクセルの記憶空間内のボクセルの色情報とについて加重和を求めるために用いられる請求項15〜25のいずれか一項に記載の装置。
- 前記第1のボクセルは前記深度情報の重みをさらに備え、前記生成モジュールは具体的に、目標記憶空間が前記第1のボクセルの記憶空間を含む場合、前記第1のボクセルの深度情報の重みに基づき、前記第1のボクセルの深度情報と前記第1のボクセルの記憶空間内のボクセルの深度情報とについて加重和を求めるために用いられる請求項15〜26のいずれか一項に記載の装置。
- 前記第1のボクセルの深度情報の取得値は、第1のボクセルと目標物体表面との間の距離を示すための切断符号付き距離関数値である請求項15〜27のいずれか一項に記載の装置。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2017/073874 WO2018148924A1 (zh) | 2017-02-17 | 2017-02-17 | 用于三维点云重建的方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020507853A JP2020507853A (ja) | 2020-03-12 |
JP6919864B2 true JP6919864B2 (ja) | 2021-08-18 |
Family
ID=63170110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019542474A Active JP6919864B2 (ja) | 2017-02-17 | 2017-02-17 | 3次元点群の再構成のための方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190370989A1 (ja) |
EP (1) | EP3570253B1 (ja) |
JP (1) | JP6919864B2 (ja) |
CN (1) | CN108701374B (ja) |
WO (1) | WO2018148924A1 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108765498B (zh) * | 2018-05-30 | 2019-08-23 | 百度在线网络技术(北京)有限公司 | 单目视觉跟踪方法、装置及存储介质 |
CN109461207A (zh) * | 2018-11-05 | 2019-03-12 | 胡翰 | 一种点云数据建筑物单体化方法及装置 |
CN110064200B (zh) * | 2019-04-25 | 2022-02-22 | 腾讯科技(深圳)有限公司 | 基于虚拟环境的物体构建方法、装置及可读存储介质 |
CN112017228A (zh) * | 2019-05-31 | 2020-12-01 | 华为技术有限公司 | 一种对物体三维重建的方法及相关设备 |
CN111179394A (zh) * | 2019-11-25 | 2020-05-19 | 苏州智加科技有限公司 | 点云场景渲染方法、装置和设备 |
CN113496138A (zh) * | 2020-03-18 | 2021-10-12 | 广州极飞科技股份有限公司 | 稠密点云数据的生成方法、装置、计算机设备及存储介质 |
CN112703368B (zh) * | 2020-04-16 | 2022-08-09 | 华为技术有限公司 | 车辆定位的方法和装置、定位图层生成的方法和装置 |
CN112465977B (zh) * | 2020-12-14 | 2022-05-10 | 埃洛克航空科技(北京)有限公司 | 基于稠密点云修补三维模型水面漏洞的方法 |
CN113240720B (zh) * | 2021-05-25 | 2022-05-17 | 中德(珠海)人工智能研究院有限公司 | 一种三维表面重建方法、装置、服务器以及可读存储介质 |
CN113362467B (zh) * | 2021-06-08 | 2023-04-07 | 武汉理工大学 | 基于点云预处理和ShuffleNet的移动端三维位姿估计方法 |
US11830140B2 (en) * | 2021-09-29 | 2023-11-28 | Verizon Patent And Licensing Inc. | Methods and systems for 3D modeling of an object by merging voxelized representations of the object |
CN114677315B (zh) | 2022-04-11 | 2022-11-29 | 探维科技(北京)有限公司 | 基于图像与激光点云的图像融合方法、装置、设备和介质 |
CN114863062B (zh) * | 2022-06-07 | 2023-09-15 | 南京航空航天大学深圳研究院 | 基于点、体素特征表示的工业场景3d点云模型构建方法 |
CN115239548A (zh) * | 2022-07-11 | 2022-10-25 | 小米汽车科技有限公司 | 目标检测方法、装置、电子设备及介质 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04126130A (ja) * | 1990-09-18 | 1992-04-27 | Toshiba Corp | 血流画像処理方式 |
US7020318B2 (en) * | 2001-05-22 | 2006-03-28 | Advanced Mri Technologies, Llc | Translucent intensity projection imaging |
US8587583B2 (en) * | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
CN103942832B (zh) * | 2014-04-11 | 2016-07-06 | 浙江大学 | 一种基于在线结构分析的室内场景实时重建方法 |
JP6322126B2 (ja) * | 2014-12-02 | 2018-05-09 | 株式会社日立製作所 | 変化検出装置、変化検出方法、および、変化検出プログラム |
CN105865462B (zh) * | 2015-01-19 | 2019-08-06 | 北京雷动云合智能技术有限公司 | 带有深度增强视觉传感器的基于事件的三维slam方法 |
CN106228513A (zh) * | 2016-07-18 | 2016-12-14 | 黄河科技学院 | 一种计算机图像处理系统 |
-
2017
- 2017-02-17 EP EP17897025.7A patent/EP3570253B1/en active Active
- 2017-02-17 JP JP2019542474A patent/JP6919864B2/ja active Active
- 2017-02-17 WO PCT/CN2017/073874 patent/WO2018148924A1/zh unknown
- 2017-02-17 CN CN201780013520.8A patent/CN108701374B/zh not_active Expired - Fee Related
-
2019
- 2019-08-15 US US16/541,886 patent/US20190370989A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
US20190370989A1 (en) | 2019-12-05 |
CN108701374B (zh) | 2020-03-06 |
WO2018148924A1 (zh) | 2018-08-23 |
EP3570253A4 (en) | 2020-02-26 |
JP2020507853A (ja) | 2020-03-12 |
CN108701374A (zh) | 2018-10-23 |
EP3570253B1 (en) | 2021-03-17 |
EP3570253A1 (en) | 2019-11-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6919864B2 (ja) | 3次元点群の再構成のための方法および装置 | |
Ventura et al. | Global localization from monocular slam on a mobile phone | |
Huitl et al. | TUMindoor: An extensive image and point cloud dataset for visual indoor localization and mapping | |
CN107430686B (zh) | 用于移动设备定位的区域描述文件的众包创建和更新 | |
US20190318547A1 (en) | System and method for dense, large scale scene reconstruction | |
US9483703B2 (en) | Online coupled camera pose estimation and dense reconstruction from video | |
CN105009120B (zh) | 基于客户端-服务器的动态搜索 | |
CN109461208B (zh) | 三维地图处理方法、装置、介质和计算设备 | |
KR20210097145A (ko) | 느슨하게 결합된 재국소화 서비스 및 자산 관리 서비스를 통해 인공 환경들 내에서 디지털 자산들을 제공하기 위한 시스템들 및 방법들 | |
KR102200299B1 (ko) | 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법 | |
JP6425847B1 (ja) | 画像処理装置、画像処理方法およびプログラム | |
Hitomi et al. | 3D scanning using RGBD imaging devices: A survey | |
US20190147303A1 (en) | Automatic Detection of Noteworthy Locations | |
KR102118357B1 (ko) | 모바일 맵핑 또는 자율 주행용 플랫폼과 관측 데이터의 구조화를 위한 시스템 | |
CN112991534B (zh) | 一种基于多粒度物体模型的室内语义地图构建方法及系统 | |
CN110278714B (zh) | 障碍物检测方法、移动平台及计算机可读存储介质 | |
CN114185073A (zh) | 一种位姿显示方法、装置及系统 | |
CN113763438B (zh) | 一种点云配准方法、装置、设备及存储介质 | |
CN112381873A (zh) | 一种数据标注方法及装置 | |
CN116843867A (zh) | 增强现实虚实融合方法、电子设备和存储介质 | |
WO2022041119A1 (zh) | 三维点云处理方法及装置 | |
CN116824068B (zh) | 面向复杂动态场景中点云流的实时重建方法、装置及设备 | |
Song et al. | Real‐Time Terrain Storage Generation from Multiple Sensors towards Mobile Robot Operation Interface | |
CN117953050A (zh) | 一种视觉定位方法及相关装置 | |
SHI et al. | Local Scenario Perception and Web AR Navigation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190820 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201020 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210108 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210622 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210713 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6919864 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |