JP2018520425A - 三次元空間のモデリング - Google Patents
三次元空間のモデリング Download PDFInfo
- Publication number
- JP2018520425A JP2018520425A JP2017561728A JP2017561728A JP2018520425A JP 2018520425 A JP2018520425 A JP 2018520425A JP 2017561728 A JP2017561728 A JP 2017561728A JP 2017561728 A JP2017561728 A JP 2017561728A JP 2018520425 A JP2018520425 A JP 2018520425A
- Authority
- JP
- Japan
- Prior art keywords
- model
- frame
- data
- capture device
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/08—Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Image Generation (AREA)
- Aerodynamic Tests, Hydrodynamic Tests, Wind Tunnels, And Water Tanks (AREA)
Abstract
Description
更新するものとしてよい。これは、この整列された非アクティブ部分がモデルセグメンター360による三次元モデル350の処理に続いてこれからアクティブになるという効果を有し得る。これは、連続的フレーム-モデル間追跡、さらにはモデル-モデル間追跡を可能にし、視点不変のループ閉鎖を許す。
上の例では、表面対応関係は、変形グラフのパラメータの最適化のために1つまたは複数のコスト関数において使用され得る。たとえば、1つのコスト関数は、変形されたソース点(たとえば、変形グラフを適用するとき)とデスティネーション点との間の距離誤差の総和に等しい誤差関数を含むものとしてよく、ソース点およびデスティネーション点は表面対応関係において使用される点である。本明細書で説明されているような三次元モデルの時間的パラメータ化は、三次元空間の同じ部分の複数のパスを非剛体的に変形して整列させ、モデリングを続けさせ、三次元モデルの再訪された領域内への新しいデータ融合を行わせることを可能にする。別のコスト関数は、三次元モデルの非アクティブ部分を適所に「ピン留め」する、すなわち、モデルのアクティブ部分を非アクティブ部分に変形するためにも使用され得る。このコスト関数は、変形されたソース点(たとえば、変形グラフを適用するとき)と変形されていないデスティネーション点との間の距離誤差の総和に等しい誤差関数を含むものとしてよく、デスティネーション点は表面対応関係において使用される点である。別のコスト関数も、三次元モデルの以前に位置合わせがなされた領域を適所に保持するために使用され得る、すなわち、マップの異なる領域を変形するときに、以前に位置合わせがなされた領域の相対位置は、同じままであるように制約される必要があるものとしてよい。このコスト関数は、変形されたソース点(たとえば、変形グラフを適用するとき)と変形されたデスティネーション点との間の距離誤差の総和に等しい誤差関数を含むものとしてよい。このコスト関数は、ループ閉鎖およびその関連付けられている変形が三次元モデルの以前に位置合わせがなされた領域を引き離すのを防ぐ。誤差関数は、変形グラフの定義済み変換における剛性を最大化し(たとえば、転置行列を掛けた変換と恒等行列との間の距離メトリックを最小化することによって)、滑らかな変形を確実にする(たとえば、近傍変換を組み込んだ距離メトリックに基づく)ように定義され得る。これらの説明されている誤差関数のうちの1つまたは複数は、変形グラフに対する変換定義を決定するように最小化され得る(たとえば、加重和内で)。たとえば、ガウス-ニュートン反復法を、疎コレスキー分解と一緒に使用することで、処理ユニット上で連立方程式を解くことができる。グラフィカルプロセッシングユニットは、実装において利用可能であれば、変形グラフを三次元モデルに適用するために使用され得る。これは、グラフィカルプロセッシングユニット上で並列実行されてよい。いくつかの場合において、コスト関数のうちの1つまたは複数は、整列が実行されるべきかどうかを決定するメトリックを生成するために使用され得る。たとえば、コスト関数のうちの1つまたは複数が事前定義された閾値よりも低い誤差値を出力する場合(たとえば、コスト関数が変形されたソース点とデスティネーション点とを比較するなど)、整列は受け入れられ、誤差値が事前定義された閾値よりも高い場合、整列は却下される(等しい場合が適宜割り当てられる)。
110 三次元空間
115 物理的物体
120 キャプチャデバイス
120-A キャプチャデバイス
120-B キャプチャデバイス
130 第2の例
140 モバイルデバイス
145 アクチュエータ
150 例
160 モバイルデバイス
170 法線軸
200 例
210 キャプチャデバイス
210-A 第1のキャプチャデバイス
210-B 第2のキャプチャデバイス
220 イメージデータ
220-A イメージデータ
220-B イメージデータ
230 例
240 フレーム
250 深度データ
260 測光データ
270 構成
280 深度データ
290 測光データ
300 例
310 装置
320 イメージデータ
330 イメージ取得インターフェース
340 モデルエンジン
350 三次元モデル
360 モデルセグメンター
370 位置合わせエンジン
400 例
410 ロボットデバイス
420 キャプチャデバイス
430 モデル生成器
440 データストレージデバイス
450 三次元モデル
460 ナビゲーションエンジン
470 移動アクチュエータ
500 例
505 イメージ取得インターフェース
515 フレーム-モデル間追跡構成要素
520 アクティブモデルフレーム生成器
525 モデル融合構成要素
530 三次元モデル
535 モデルセグメンター
540 「アクティブ」部分
545 「非アクティブ」部分
550 非アクティブモデルフレーム生成器
560 位置合わせエンジン
610 データ構造体
620 表面要素または「サーフェル」
700 例
710 位置合わせエンジン
720 データストレージデバイス
730 表現
740 モデルデフォーマー
750 三次元モデル
760 変形グラフ
770 三次元モデル
1000 プロセス
1100 例
1110 プロセッサ
1120 コンピュータ読み取り可能な記憶媒体
1130 コンピュータ読み取り可能な命令
1140 イメージデータ
1150 表面要素定義
1160 命令
1170 命令
Claims (23)
- 三次元空間のモデルを生成するための装置であって、
キャプチャデバイスによって提供されるイメージデータを取得するように構成されたイメージ取得インターフェースであって、前記イメージデータは時間の経過とともに前記三次元空間と前記キャプチャデバイスとの間の相対的移動がある観測を表す、イメージ取得インターフェースと、
前記イメージ取得インターフェースによって取得されたイメージデータを処理し、前記三次元空間の三次元モデルを計算するように構成されたモデルエンジンとを備え、前記モデルエンジンは、
少なくとも1つのモデル特性に基づき前記三次元モデルを少なくともアクティブ部分と非アクティブ部分とにセグメント分割するように構成されたモデルセグメンターであって、
前記モデルエンジンは、前記三次元モデルのアクティブ部分を使用して時間の経過とともに前記モデルを更新するように構成された、モデルセグメンターと、
時間の経過とともに前記三次元モデルのアクティブ部分を前記三次元モデルの非アクティブ部分と整列させるように構成された位置合わせエンジンとを備える、装置。 - 前記モデルエンジンは、前記三次元モデルを更新する際に使用するための前記三次元モデルのアクティブ部分からの投影に基づきアクティブモデルフレームを計算するように構成された、請求項1に記載の装置。
- 前記アクティブモデルフレームを前記イメージデータから提供されたフレームと比較して、前記三次元モデルのアクティブ部分の前記イメージデータとの整列を決定するように構成されたフレーム-モデル間追跡構成要素を備える請求項2に記載の装置。
- 前記フレーム-モデル間追跡構成要素は、現在時刻における前記提供されたフレームを前の時刻におけるアクティブモデルフレームと比較することによって前記キャプチャデバイスの姿勢を推定するように構成され、前記カメラデバイスの姿勢は前記三次元空間内の前記キャプチャデバイスの位置および向きを表す、請求項3に記載の装置。
- 前記位置合わせエンジンは、
前記三次元モデルの非アクティブ部分からの投影に基づき非アクティブモデルフレームを計算し、
前記アクティブモデルフレームを前記非アクティブモデルフレームと整列させる変形を決定し、
前記変形を使用して前記三次元モデルを更新するように構成された、請求項2から4のいずれか一項に記載の装置。 - 前記三次元モデルは、表面要素モデルを含み、
前記表面要素モデル内の各表面要素は、少なくとも、三次元における前記表面要素の位置を定義するデータと、三次元における前記表面要素に対する法線ベクトルを定義するデータとを含み、
各表面要素は、前記三次元空間内の二次元領域を表す、請求項1から5のいずれか一項に記載の装置。 - 前記モデルエンジンは、時間の経過とともに前記三次元モデルの表現を記憶するように構成され、
前記位置合わせエンジンは、所与の時刻における前記三次元モデルの表現が前の時刻に対する三次元モデルの記憶されている表現と合致するかどうかを決定し、肯定的決定に応答して、前記所与の時刻における前記三次元モデルの表現を前記前の時刻に対する三次元モデルの記憶されている表現と整列させるように構成された、請求項1から6のいずれか一項に記載の装置。 - 前記位置合わせエンジンは、変形グラフを使用して、前記三次元モデルのアクティブ部分を前記三次元モデルの非アクティブ部分と整列させるように構成され、前記変形グラフは前記三次元モデル内の位置に対する初期化時刻に基づき計算され、前記変形グラフは整列の間に所与の位置において前記三次元モデルを修正するために使用されるべきである三次元内の前記所与の位置に対する近傍の集合を指示する、請求項1から7のいずれか一項に記載の装置。
- 前記少なくとも1つのモデル特性は、前記三次元モデルにおける所与の位置に対するモデル生成およびモデル更新の時刻の1つを含み、前記非アクティブ部分は、事前定義された量よりも多い量だけ現在の観測時刻と異なる過去の観測時刻を示す、請求項1から8のいずれか一項に記載の装置。
- 三次元空間のモデルを更新する方法であって、
前記三次元空間の三次元モデルを取得するステップと、
少なくとも1つのモデル特性に基づき前記三次元モデルを少なくともアクティブ部分と非アクティブ部分とにセグメント分割するステップと、
前記三次元空間に関するキャプチャデバイスの相対的動きの後の前記三次元空間の観測を表すイメージデータを取得するステップと、
前記三次元モデルの前記取得されたイメージデータおよびアクティブ部分に基づき前記三次元モデルを更新するステップと、
前記三次元モデルのアクティブ部分を前記三次元モデルの対応する非アクティブ部分と位置合わせするステップとを含み、
位置合わせする前記ステップは、前記三次元空間の領域の観測に続いて生成される前記三次元モデルのアクティブ部分を前記領域の少なくとも1つの前の観測に続いて生成されるモデルの非アクティブ部分と整列させる、方法。 - 前記三次元モデルを更新するステップは、
前記イメージデータの提供されるフレームに対するデータをモデルフレームに対する予測されたデータと比較することによって前記キャプチャデバイスの姿勢を推定するステップであって、前記モデルフレームは前記三次元空間の三次元モデルのアクティブ部分から導出される、ステップを含み、
前記三次元モデルのアクティブ部分を前記三次元モデルの非アクティブ部分と位置合わせするステップは、
前記キャプチャデバイスの姿勢を使用して前記アクティブ部分および前記非アクティブ部分に対する前記三次元モデルの予測されたレンダリングを決定するステップと、
前記予測されたレンダリングが整列されるように前記アクティブ部分を変換するステップとを含む、請求項10に記載の方法。 - 前記イメージデータは、少なくとも、複数のイメージ要素に対する前記キャプチャデバイスからの距離を指示する深度データを含み、
前記キャプチャデバイスの姿勢を推定するステップは、少なくとも前記イメージデータの提供されたフレームに対する深度データをモデルフレームに対する予測された深度データと比較するステップを含む、請求項11に記載の方法。 - 前記イメージデータは、少なくとも、複数のイメージ要素に対する色データを含み、
前記キャプチャデバイスの姿勢を推定するステップは、少なくとも前記イメージデータの提供されたフレームに対する色データをモデルフレームに対する予測された色データと比較するステップを含む、請求項11に記載の方法。 - 前記イメージデータは、少なくとも、複数のイメージ要素に対する深度データおよび色データを含み、前記深度データは前記キャプチャデバイスからの前記三次元空間内の物体の距離を指示し、
前記キャプチャデバイスの姿勢を推定するステップは、誤差関数を最小にするステップを含み、前記誤差関数は
前記イメージデータの提供されたフレームに対する深度データの、モデルに対する予測された深度データとの比較に基づく幾何学的誤差、および
前記イメージデータの提供されたフレームに対する色データの、モデルフレームに対する予測された色データとの比較に基づく測光誤差の関数である、請求項11に記載の方法。 - 前記三次元モデルのアクティブ部分を前記三次元モデルの非アクティブ部分と位置合わせするステップは、
所与のフレームに対する前記三次元モデルのアクティブ部分と前記所与のフレームに対する前記三次元モデルの非アクティブ部分との間の整列メトリックが、事前定義済み閾値よりも低い不整列を指示する場合に局所的ループ位置合わせを実行するステップを含む、請求項10から14のいずれか一項に記載の方法。 - 更新する前記ステップは、前記三次元モデルの表現を記憶するステップを含み、
前記方法は、
前記三次元モデルの現在の表現が前記三次元モデルの以前に記憶された表現と合致している場合に大域的ループ位置合わせを実行するステップを含む請求項10から15のいずれか一項に記載の方法。 - 前記三次元モデルの表現は、予測されたフレームのより低い分解能の表現を含み、前記予測されたフレームは前記三次元モデルのアクティブ部分からの投影に基づき決定される、請求項16に記載の方法。
- 前記三次元モデルは、表面要素モデルを含み、前記表面要素モデル内の各表面要素は、少なくとも、三次元における前記表面要素の位置を定義するデータと、三次元における前記表面要素に対する法線ベクトルを定義するデータとを含み、各表面要素は、前記三次元空間内の二次元領域を表す、請求項10から17のいずれか一項に記載の方法。
- 前記三次元モデルをセグメント分割するステップは、前記三次元モデルを、
前記三次元モデル内の所与の位置に対するモデル生成の時刻、
前記三次元モデル内の所与の位置に対するモデル更新の時刻、および
前記三次元モデル内の所与の位置と前記キャプチャデバイスとの間の決定された距離
のうちの1つまたは複数に基づきセグメント分割するステップを含む、請求項10から18のいずれか一項に記載の方法。 - 前記三次元モデルのアクティブ部分を前記三次元モデルの非アクティブ部分と位置合わせするステップは、
前記アクティブ部分および前記非アクティブ部分に対する予測されたフレームデータの間の幾何学的整列に基づき前記三次元モデルのアクティブ部分を非剛体的に変形するステップを含む、請求項10から19のいずれか一項に記載の方法。 - ロボットデバイスであって、
深度データおよび色データのうちの1つまたは複数を含む複数のフレームを提供するように配置構成された少なくとも1つのキャプチャデバイスであって、前記深度データは複数のイメージ要素に対する前記キャプチャデバイスからの距離を指示する、キャプチャデバイスと、
前記イメージ取得インターフェースが前記少なくとも1つのキャプチャデバイスに通信可能に結合された、請求項1から9のいずれか一項に記載の装置と、
三次元空間に対して前記ロボットデバイスを移動するように配置構成された1つまたは複数の移動アクチュエータと、
前記1つまたは複数の移動アクチュエータを制御するように配置構成されたナビゲーションエンジンとを備え、
前記ナビゲーションエンジンは、前記モデルエンジンによって生成された三次元モデルにアクセスして前記三次元空間内で前記ロボットデバイスをナビゲートするように構成された、ロボットデバイス。 - モバイルコンピューティングデバイスであって、
深度データおよび色データのうちの1つまたは複数を含む複数のフレームを記録するように配置構成された少なくとも1つのキャプチャデバイスであって、前記深度データは複数のイメージ要素に対する前記キャプチャデバイスからの距離を指示する、キャプチャデバイスと、
前記イメージ取得インターフェースが前記少なくとも1つのキャプチャデバイスに通信可能に結合された、請求項1から9のいずれか一項に記載の装置とを備えるモバイルコンピューティングデバイス。 - プロセッサによって実行されたときに、コンピューティングデバイスに三次元空間のモデルを生成する方法を実行させるコンピュータ実行可能命令を含む非一時的コンピュータ読み取り可能な記憶媒体であって、前記方法は
複数のフレームを含むイメージデータを取得するステップであって、各フレームは深度データおよび色データを含み、前記深度データは前記イメージデータをキャプチャするために使用される撮像デバイスからの前記三次元空間内の物体の距離を指示する、ステップと、
前記イメージデータに基づき前記三次元空間のモデルを計算するステップであって、前記モデルは複数の要素を含み、各要素は三次元内の位置を有する、ステップとを含み、
計算する前記ステップは
各部分について少なくとも1つの観測特性に基づき前記モデルをアクティブ部分と非アクティブ部分とにセグメント分割するステップと、
前記イメージデータ内の所与のフレームについて、
前記所与のフレームに対する前記深度データおよび色データを前記モデルのアクティブ部分から導出されたモデルフレームに対する予測された深度および色データと比較することによって前記撮像デバイスの推定された姿勢を決定するステップと、
前記撮像デバイスの前記推定された姿勢を使用して前記モデルフレームに対する前記予測された深度および色データを更新するステップと、
前記モデルのアクティブ部分および非アクティブ部分のうちの少なくとも一方に関連付けられている要素を変換することによって前記モデルのアクティブ部分を前記モデルの非アクティブ部分と整列させるステップと、
前記所与のフレームに対する前記深度データと色データとを使用して前記モデルの整列されたアクティブ部分を更新するステップとを含む非一時的コンピュータ読み取り可能な記憶媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB1509068.1 | 2015-05-27 | ||
GB1509068.1A GB2538751A (en) | 2015-05-27 | 2015-05-27 | Modelling a three-dimensional space |
PCT/GB2016/051423 WO2016189274A1 (en) | 2015-05-27 | 2016-05-17 | Modelling a three-dimensional space |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018520425A true JP2018520425A (ja) | 2018-07-26 |
JP6854780B2 JP6854780B2 (ja) | 2021-04-07 |
Family
ID=53540963
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017561728A Active JP6854780B2 (ja) | 2015-05-27 | 2016-05-17 | 三次元空間のモデリング |
Country Status (10)
Country | Link |
---|---|
US (1) | US10460463B2 (ja) |
EP (1) | EP3304492B1 (ja) |
JP (1) | JP6854780B2 (ja) |
KR (1) | KR20180026400A (ja) |
CN (1) | CN107980150B (ja) |
AU (1) | AU2016266968B2 (ja) |
BR (1) | BR112017025234A2 (ja) |
GB (1) | GB2538751A (ja) |
RU (1) | RU2713611C2 (ja) |
WO (1) | WO2016189274A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20200122870A (ko) * | 2019-04-19 | 2020-10-28 | 광운대학교 산학협력단 | 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법 |
JP2022502728A (ja) * | 2018-09-14 | 2022-01-11 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 拡張現実マッピングシステムおよび関連する方法 |
Families Citing this family (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3018604C (en) | 2016-04-12 | 2023-11-07 | Quidient, Llc | Quotidian scene reconstruction engine |
GB2554633B (en) | 2016-06-24 | 2020-01-22 | Imperial College Sci Tech & Medicine | Detecting objects in video data |
GB2553148A (en) | 2016-08-26 | 2018-02-28 | Nctech Ltd | Modelling system and method |
US10296798B2 (en) * | 2017-09-14 | 2019-05-21 | Ncku Research And Development Foundation | System and method of selecting a keyframe for iterative closest point |
JP7399879B2 (ja) | 2018-05-02 | 2023-12-18 | クイッディエント・エルエルシー | ほとんど無制限のディテールを有するシーンを処理するためのコーデック |
US11423615B1 (en) * | 2018-05-29 | 2022-08-23 | HL Acquisition, Inc. | Techniques for producing three-dimensional models from one or more two-dimensional images |
US10740986B2 (en) * | 2018-08-30 | 2020-08-11 | Qualcomm Incorporated | Systems and methods for reconstructing a moving three-dimensional object |
EP3645971B1 (en) * | 2018-09-12 | 2024-02-14 | Google LLC | Map feature identification using motion data and surfel data |
CN109708655A (zh) * | 2018-12-29 | 2019-05-03 | 百度在线网络技术(北京)有限公司 | 导航方法、装置、车辆及计算机可读存储介质 |
GB2580690B (en) | 2019-01-24 | 2023-03-29 | Imperial College Innovations Ltd | Mapping an environment using a state of a robotic device |
US10964098B1 (en) * | 2019-03-05 | 2021-03-30 | Facebook Technologies, Llc | Inverse path tracing for material and lighting estimation |
US11087494B1 (en) | 2019-05-09 | 2021-08-10 | Zoox, Inc. | Image-based depth data and localization |
US10937178B1 (en) * | 2019-05-09 | 2021-03-02 | Zoox, Inc. | Image-based depth data and bounding boxes |
US10984543B1 (en) | 2019-05-09 | 2021-04-20 | Zoox, Inc. | Image-based depth data and relative depth data |
RU2729166C1 (ru) * | 2019-11-29 | 2020-08-04 | Самсунг Электроникс Ко., Лтд. | Нейронная точечная графика |
US20210150799A1 (en) * | 2019-11-15 | 2021-05-20 | Waymo Llc | Generating Environmental Data |
CN110895823B (zh) * | 2020-01-10 | 2020-06-05 | 腾讯科技(深圳)有限公司 | 一种三维模型的纹理获取方法、装置、设备及介质 |
CN111462179B (zh) * | 2020-03-26 | 2023-06-27 | 北京百度网讯科技有限公司 | 三维物体跟踪方法、装置及电子设备 |
CN111784828B (zh) * | 2020-08-03 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 三维模型的融合方法、装置及计算机可读存储介质 |
US11393179B2 (en) * | 2020-10-09 | 2022-07-19 | Open Space Labs, Inc. | Rendering depth-based three-dimensional model with integrated image frames |
KR20220131646A (ko) * | 2021-03-22 | 2022-09-29 | 현대자동차주식회사 | 객체 추적 방법과 장치 및 이 방법을 실행하기 위한 프로그램을 기록한 기록 매체 |
KR102451797B1 (ko) * | 2021-06-01 | 2022-10-12 | 씨드로닉스(주) | 타겟 객체를 모델링하는 모델링 방법, 모델링 장치 및 모델링 시스템 |
CN114311682B (zh) * | 2022-03-03 | 2022-08-02 | 深圳市创想三维科技股份有限公司 | 模型生成方法、装置、设备和存储介质 |
CN116109803B (zh) * | 2023-04-13 | 2023-07-07 | 腾讯科技(深圳)有限公司 | 信息构建方法、装置、设备及存储介质 |
CN117086500B (zh) * | 2023-08-17 | 2024-06-25 | 深圳市大德激光技术有限公司 | 一种激光蚀刻设备电气控制系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014511591A (ja) * | 2011-01-31 | 2014-05-15 | マイクロソフト コーポレーション | 奥行きマップを使用したモバイルカメラの自己位置推定 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2295772C1 (ru) * | 2005-09-26 | 2007-03-20 | Пензенский государственный университет (ПГУ) | Способ генерирования текстуры в реальном масштабе времени и устройство для его реализации |
GB0818561D0 (en) * | 2008-10-09 | 2008-11-19 | Isis Innovation | Visual tracking of objects in images, and segmentation of images |
GB2494081B (en) * | 2010-05-20 | 2015-11-11 | Irobot Corp | Mobile human interface robot |
US8532367B2 (en) * | 2010-08-17 | 2013-09-10 | Raytheon Company | System and method for 3D wireframe reconstruction from video |
US8587583B2 (en) * | 2011-01-31 | 2013-11-19 | Microsoft Corporation | Three-dimensional environment reconstruction |
WO2014202258A1 (en) * | 2013-06-21 | 2014-12-24 | National University Of Ireland, Maynooth | A method for mapping an environment |
US20150097829A1 (en) * | 2013-10-09 | 2015-04-09 | Cherif Atia Algreatly | 3D Modeling Using Unrelated Drawings |
CN103795976B (zh) * | 2013-12-30 | 2017-09-19 | 北京正安维视科技股份有限公司 | 一种全时空立体可视化方法 |
CN104463948B (zh) * | 2014-09-22 | 2017-05-17 | 北京大学 | 三维虚拟现实系统与地理信息系统的无缝可视化方法 |
-
2015
- 2015-05-27 GB GB1509068.1A patent/GB2538751A/en not_active Withdrawn
-
2016
- 2016-05-17 AU AU2016266968A patent/AU2016266968B2/en not_active Expired - Fee Related
- 2016-05-17 JP JP2017561728A patent/JP6854780B2/ja active Active
- 2016-05-17 WO PCT/GB2016/051423 patent/WO2016189274A1/en active Application Filing
- 2016-05-17 RU RU2017141158A patent/RU2713611C2/ru active
- 2016-05-17 BR BR112017025234A patent/BR112017025234A2/pt not_active Application Discontinuation
- 2016-05-17 EP EP16731625.6A patent/EP3304492B1/en active Active
- 2016-05-17 CN CN201680029877.0A patent/CN107980150B/zh active Active
- 2016-05-17 KR KR1020177037549A patent/KR20180026400A/ko active IP Right Grant
-
2017
- 2017-11-27 US US15/822,637 patent/US10460463B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014511591A (ja) * | 2011-01-31 | 2014-05-15 | マイクロソフト コーポレーション | 奥行きマップを使用したモバイルカメラの自己位置推定 |
Non-Patent Citations (3)
Title |
---|
ANDREW J DAVISON, ET AL.: "Mobile Robot Localisation using Active Vision", ECCV1998, JPN6020024727, 26 May 2006 (2006-05-26), US, pages 809 - 825, ISSN: 0004305410 * |
MAIK KELLER, ET AL.: "Real-Time 3D Reconstruction in Dynamic Scenes Using Point-Based Fusion, [online]", 2013 INTERNATIONAL CONFERENCE ON 3D VISION - 3DV 2013, JPN6020024725, 29 June 2013 (2013-06-29), US, ISSN: 0004305409 * |
PETER HENRY, ET AL.: "RGB-D mapping: Using Kinect-style depth cameras for dense 3D modeling of indoor environment", THE INTERNATIONAL JOURNAL OF ROBOTICS RESEARCH, vol. Vol.31, Issue 5, 2012, JPN7020001961, 10 February 2012 (2012-02-10), ISSN: 0004305411 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022502728A (ja) * | 2018-09-14 | 2022-01-11 | フェイスブック・テクノロジーズ・リミテッド・ライアビリティ・カンパニーFacebook Technologies, Llc | 拡張現実マッピングシステムおよび関連する方法 |
JP7250901B2 (ja) | 2018-09-14 | 2023-04-03 | メタ プラットフォームズ テクノロジーズ, リミテッド ライアビリティ カンパニー | 拡張現実マッピングシステムおよび関連する方法 |
KR20200122870A (ko) * | 2019-04-19 | 2020-10-28 | 광운대학교 산학협력단 | 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법 |
KR102195762B1 (ko) * | 2019-04-19 | 2020-12-29 | 광운대학교 산학협력단 | 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법 |
Also Published As
Publication number | Publication date |
---|---|
KR20180026400A (ko) | 2018-03-12 |
GB2538751A (en) | 2016-11-30 |
AU2016266968B2 (en) | 2020-12-24 |
RU2713611C2 (ru) | 2020-02-05 |
BR112017025234A2 (pt) | 2018-07-31 |
CN107980150A (zh) | 2018-05-01 |
JP6854780B2 (ja) | 2021-04-07 |
EP3304492B1 (en) | 2019-07-10 |
US10460463B2 (en) | 2019-10-29 |
CN107980150B (zh) | 2021-11-16 |
GB201509068D0 (en) | 2015-07-08 |
RU2017141158A (ru) | 2019-05-31 |
WO2016189274A1 (en) | 2016-12-01 |
EP3304492A1 (en) | 2018-04-11 |
RU2017141158A3 (ja) | 2019-09-18 |
AU2016266968A1 (en) | 2017-11-23 |
US20180082435A1 (en) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6854780B2 (ja) | 三次元空間のモデリング | |
JP7009399B2 (ja) | ビデオデータの中のオブジェクトの検出 | |
US10553026B2 (en) | Dense visual SLAM with probabilistic surfel map | |
Whelan et al. | Real-time large-scale dense RGB-D SLAM with volumetric fusion | |
Baak et al. | A data-driven approach for real-time full body pose reconstruction from a depth camera | |
KR20210042942A (ko) | 비디오 데이터를 이용한 객체 인스턴스 매핑 | |
Malleson et al. | Real-time multi-person motion capture from multi-view video and IMUs | |
US20150243035A1 (en) | Method and device for determining a transformation between an image coordinate system and an object coordinate system associated with an object of interest | |
US20130335528A1 (en) | Imaging device capable of producing three dimensional representations and methods of use | |
Pons-Moll et al. | Model-based pose estimation | |
Chen et al. | 3d point cloud processing and learning for autonomous driving | |
WO2019164498A1 (en) | Methods, devices and computer program products for global bundle adjustment of 3d images | |
US11874133B2 (en) | Mapping an environment using a state of a robotic device | |
Stückler et al. | Efficient dense rigid-body motion segmentation and estimation in RGB-D video | |
US20220392083A1 (en) | Systems and methods for jointly training a machine-learning-based monocular optical flow, depth, and scene flow estimator | |
Yookwan et al. | Multimodal fusion of deeply inferred point clouds for 3D scene reconstruction using cross-entropy ICP | |
de Charette et al. | 3d reconstruction of deformable revolving object under heavy hand interaction | |
CN118096890A (zh) | 一种面向出舱航天员的6d位姿实时估计方法及装置 | |
CN117321631A (zh) | 使用自监督在线学习的slam引导的单目深度改进系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190509 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190530 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200720 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201016 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20201215 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20201216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210316 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6854780 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |