JP2014096152A - ポイントクラウド内の埋め戻しポイント - Google Patents
ポイントクラウド内の埋め戻しポイント Download PDFInfo
- Publication number
- JP2014096152A JP2014096152A JP2013231790A JP2013231790A JP2014096152A JP 2014096152 A JP2014096152 A JP 2014096152A JP 2013231790 A JP2013231790 A JP 2013231790A JP 2013231790 A JP2013231790 A JP 2013231790A JP 2014096152 A JP2014096152 A JP 2014096152A
- Authority
- JP
- Japan
- Prior art keywords
- point cloud
- point
- new
- points
- depth value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 85
- 230000004927 fusion Effects 0.000 claims description 87
- 230000009466 transformation Effects 0.000 claims description 72
- 239000013598 vector Substances 0.000 claims description 58
- 238000012545 processing Methods 0.000 claims description 53
- 238000006243 chemical reaction Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 15
- 238000001514 detection method Methods 0.000 claims description 6
- 230000001131 transforming effect Effects 0.000 claims description 2
- 230000008569 process Effects 0.000 description 57
- 238000010586 diagram Methods 0.000 description 18
- 238000004891 communication Methods 0.000 description 9
- 238000012800 visualization Methods 0.000 description 9
- 238000003384 imaging method Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 230000011218 segmentation Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000002085 persistent effect Effects 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000000644 propagated effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4038—Scaling the whole image or part thereof for image mosaicing, i.e. plane images composed of plane sub-images
-
- G06T5/70—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/10—Processing, recording or transmission of stereoscopic or multi-view image signals
- H04N13/106—Processing image signals
- H04N13/128—Adjusting depth or disparity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/25—Image signal generators using stereoscopic image cameras using two or more image sensors with different characteristics other than in their location or field of view, e.g. having different resolutions or colour pickup characteristics; using image signals from one sensor to control the characteristics of another sensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/56—Particle system, point based geometry or rendering
Abstract
【解決手段】シーン110の2次元画像121及びシーン110のポイントクラウド132が受信される。ポイントクラウド132内のポイントの少なくとも一部は、2次元画像121にマッピングされて変換ポイント146を形成する。融合データアレイ150は、2次元画像121及び変換ポイント146を使用して作成される。ポイントクラウド132に対する新しいポイント164は融合データアレイ150を使用して特定される。新しいポイント164はポイントクラウド132に追加されて、新しいポイントクラウド162を形成する。
【選択図】図1
Description
シーン(110)の2次元画像(121)及び前記シーン(110)の前記ポイントクラウド(132)を受信すること;
前記ポイントクラウド(132)内のポイントの少なくとも一部を前記2次元画像(121)にマッピングして変換ポイント(146)を形成すること;
前記2次元画像(121)及び前記変換ポイント(146)を使用して融合データアレイ(150)を作成すること;
前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して新しいポイント(164)を特定すること;及び
前記ポイントクラウド(132)に前記新しいポイント(164)を追加して新しいポイントクラウド(162)を形成すること
を含む、コンピュータ実装方法。
カメラシステムの姿勢情報を特定すること;
前記ポイントクラウド(132)内の前記ポイントに対してカメラ中心座標を特定する前記姿勢情報を使用して、前記ポイントクラウド(132)に対する3次元基準座標系を3次元カメラ中心座標系に変換すること;及び
前記カメラ中心座標を有する前記ポイントクラウド(132)内の前記ポイントの少なくとも一部を前記2次元画像(121)内のピクセル位置(124)にマッピングすること
を含む、第12項に記載のコンピュータ実装方法。
前記2次元画像(121)内のピクセルに1対1の対応を有するエレメント(152)からなる前記融合データアレイ(150)を形成すること;及び
前記融合データアレイ(150)内の前記エレメント(152)に、非ヌル深度値を含む埋込データベクトル(154)及びヌル深度値を含む非埋込データベクトル(154)を含むデータベクトル(154)を関連付けること
を含む、第12項に記載のコンピュータ実装方法。
新しい深度値(158)を生成して前記ヌル深度値の少なくとも一部を置き換えること;及び
前記新しい深度値(158)を使用して前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定すること
を含む、第14項に記載のコンピュータ実装方法。
前記融合データアレイ(150)内のエレメントであって、ヌル深度値を含む非埋込データベクトル(154)に関連付けられているエレメントの位置でウィンドウを中心に配置すること;
前記ウィンドウによって重ね合わされた前記融合アレイ(150)の一部に支持エレメント(500)を特定すること;及び
前記支持エレメント(500)及び線形推定アルゴリズムを使用して新しい深度値(156)を生成して前記ヌル深度値を置き換えること
を含む、第15項に記載のコンピュータ実装方法。
前記ウィンドウによって重ね合わされた前記融合データアレイ(150)の一部の中の一致エレメント(304、306、308、310、312、314、316)が選択された基準を満たすかどうかを決定すること;
前記選択された基準を満たす前記一致エレメント(304、306、308、310、312、314、316)に応答して、良好度スコアによって前記一致エレメント(304、306、308、310、312、314、316)の各々を採点すること;
前記良好度スコアによって前記一致エレメント(304、306、308、310、312、314、316)をソートすること;
前記一致エレメント(304、306、308、310、312、314、316)の一部を前記支持エレメント(500)として選択すること
を含む、第16項に記載のコンピュータ実装方法。
をさらに含む、第16項に記載のコンピュータ実装方法。
前記新しい深度値(158)を使用して前記新しいポイント(164)に対して3次元カメラ中心座標系内のカメラ中心座標を特定すること;及び
前記カメラ中心座標を前記ポイントクラウド(132)に対する3次元基準座標系内のポイント位置に変換して前記新しいポイント(164)を形成すること
を含む、第15項に記載のコンピュータ実装方法。
ウィンドウを使用して前記融合データアレイ(150)を処理して前記新しい深度値(158)を生成すること
を含む、第15項に記載のコンピュータ実装方法。
ここで、Xp、Yp、Zpは3次元基準座標系によるポイントの座標で、Xc、Yc、Zcは3次元カメラ中心座標系での当該ポイントに対するカメラ中心座標で、Rは回転、Tは並進を表わす。
ここで、uはピクセル位置の行で、vはピクセル位置の列である。
ここで、dcは距離である。
ここで、
は変換ポイントに対して正規化された距離で、
は操作1300の変換ポイントに対して特定された距離である。
は所定の最小距離で、
は所定の最大距離である。所定の最小距離及び所定の最大距離は、例えば、コンピュータシステムを使用して、自動的に計算されてもよい。
ここで、qiは融合データアレイ内のi番目のエレメントに関連付けられたデータベクトルである。uiはi番目のエレメントに対応するピクセルの行である。はviはi番目のエレメントに対応するピクセルの列である。
はi番目のエレメントに対応するピクセルにマッピングされた変換ポイントに対する深度値である。また、ri,gi,bi はi番目のエレメントに対応するピクセルの赤の値、緑の値、及び青の値である。変換ポイントが融合データアレイ内のエレメントに対応するピクセルにマッピングされていない場合には、エレメントに関連付けられたデータベクトルは次のように表わされることがある。
ここでlはエレメントに対するインデックスで、Clは2次元画像の列の数である。
ここで、Giはi番目の一致エレメントの良好度スコアである。Miはi番目の一致エレメントに対する相違度スコアである。Δiはi番目の一致エレメントに対する距離の測定値である。jはn個の一致エレメントに対するインデックスである。Fは特徴に対する応答である。mは特徴の数である。
はi番目の一致エレメントに関連付けられたデータベクトルの深度値である。また、γは正規化定数である。特徴応答と深度値の両方が0〜1の間で正規化される場合、正規化定数γは
のように設定されることがある。
ここで、
は新しい深度値で、ω0、ω1、及びω2はウェイトである。言うまでもなく、支持エレメントの深度値を使用して新しい深度値に対する解を得るために、任意の種類の多項式近似アルゴリズムが使用されてもよい。
ここで、
で、
は支持エレメントに対応するピクセルにマッピングされた変換ポイントのカメラシステムからの最小距離である。WXはウィンドウの幅であり、αは奥行き調整ウェイト定数である。
ここで、
は非正規化された深度値である。
ここで、Xp、Yp、Zpは3次元基準座標系に追加される新しいポイントに対する座標で、Xc、Yc、Zcは3次元カメラ中心座標系内の新しいポイントに対するカメラ中心座標である。
202 画像
204 カメラシステム
206 変換ポイント
208 ウィンドウ
210、212 矢印
300 融合データアレイの部分
302 一致エレメント群
304、306、308、310、312、314、316 一致エレメント
320、322、324、326 象限
400 理想的なピクセル位置
402、404、406、408、410、412、414 カメラシステムとの距離
500 支持エレメント
600 エレメント
602 位置
700 融合画像
702 画像
704 変換ポイント
800 初期融合画像
802 最終融合画像
804 画像
806、808 変換ポイント
900、902 最終融合画像
904 画像
906、908 変換ポイント
912、914 最終融合画像の部分
1000 表
1002、1004 列
1006、1008 行
1010、1012、1014、1016 最終融合画像
Claims (15)
- シーン(110)のポイントクラウド(132)内のポイント(134)の少なくとも一部を前記シーン(110)の2次元画像(121)にマッピングして変換ポイント(146)を形成し;前記2次元画像(121)及び前記変換ポイント(146)を使用して融合データアレイ(150)を作成し;前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して新しいポイント(164)を特定し;さらに前記ポイントクラウド(132)に前記新しいポイント(164)を追加して新しいポイントクラウド(162)を形成するように構成された画像処理システム(102)を含む装置。
- 前記画像処理システム(102)は、
前記ポイントクラウド(132)内の前記ポイントの少なくとも一部を前記2次元画像(121)にマッピングして前記変換ポイント(146)を形成するように構成されており、且つ前記2次元画像(121)及び前記変換ポイント(146)を使用して前記融合データアレイ(150)を作成するように構成されている融合マネージャ(142)を含む、請求項1に記載の装置。 - 前記融合データアレイ(150)は、非ヌル深度値を含む埋込データベクトル(154)に関連付けられた一致エレメント(304、306、308、310、312、314、316)、及びヌル深度値を含む非埋込データベクトル(154)に関連付けられた非一致エレメントを含む、請求項2に記載の装置。
- 前記画像処理システム(102)は、
新しい深度値(158)を特定して、前記ヌル深度値の少なくとも一部を置き換えるように構成されている深度値生成器(144)をさらに含む、請求項3に記載の装置。 - 前記画像処理システム(102)は、
前記新しい深度値(158)を使用して、前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定するように構成されているポイントクラウドマネージャ(145)をさらに含む、請求項4に記載の装置。 - 前記ポイントクラウドマネージャ(145)は、前記ポイントクラウド(132)に前記新しい点(164)を追加して、前記新しいポイントクラウド(162)を形成するようにさらに構成されている、請求項5に記載の装置。
- 前記融合データアレイ(150)はエレメント(152)を含み、前記エレメント(152)の各々は、ピクセル位置(157)、深度値、及び元のピクセルデータ(159)のうちの少なくとも1つを含むデータベクトル(154)に関連付けられている、請求項1に記載の装置。
- 前記2次元画像(121)を生成するように構成されている第1センサーシステム、及び
前記ポイントクラウド(132)を生成するように構成されている第2センサーシステム
をさらに含む、請求項1に記載の装置。 - 前記第1センサーシステムはカメラシステムであり、前記第2センサーシステムは光検出及び測距システムである、請求項8に記載の装置。
- 前記画像処理システム(102)は、前記カメラシステムの姿勢情報を使用して、前記ポイントクラウド(132)内の前記ポイントの少なくとも一部を前記2次元画像(121)にマッピングするように構成されている、請求項9に記載の装置。
- 画像処理システム(102)であって、
シーン(110)のポイントクラウド(132)内のポイント(134)の少なくとも一部を前記シーン(110)の2次元画像(121)にマッピングして変換ポイント(146)を形成するように構成され、且つ前記2次元画像(121)及び前記変換ポイント(146)を使用して融合データアレイ(150)を作成するように構成されている融合マネージャ(142)であって、前記融合データアレイ(150)は、非ヌル深度値を含む埋込データベクトル(154)に関連付けられた一致エレメント(304、306、308、310、312、314、316)、及びヌル深度値を含む非埋込データベクトル(154)に関連付けられた非一致エレメントを含む、融合マネージャ(142);
新しい深度値(158)を特定して前記ヌル深度値の少なくとも一部を置き換えるように構成された深度値生成器(144);並びに
前記新しい深度値(158)を使用して前記ポイントクラウド(132)に対して新しいポイント(164)を特定し、前記新しいポイント(164)を前記ポイントクラウド(132)に追加して新しいポイントクラウド(162)を形成するように構成されているポイントクラウドマネージャ(145)
を備える画像処理システム(102)。 - ポイントクラウド(132)内のポイントの数を増やすためのコンピュータ実装方法であって、
シーン(110)の2次元画像(121)及び前記シーン(110)の前記ポイントクラウド(132)を受信すること;
前記ポイントクラウド(132)内のポイントの少なくとも一部を前記2次元画像(121)にマッピングして変換ポイント(146)を形成すること;
前記2次元画像(121)及び前記変換ポイント(146)を使用して融合データアレイ(150)を作成すること;
前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して新しいポイント(164)を特定すること;及び
前記ポイントクラウド(132)に前記新しいポイント(164)を追加して新しいポイントクラウド(162)を形成すること
を含むコンピュータ実装方法。 - 前記ポイントクラウド(132)内の前記ポイントの前記少なくとも一部を前記2次元画像(121)にマッピングして前記変換ポイント(146)を形成することは、
カメラシステムの姿勢情報を特定すること;
前記ポイントクラウド(132)内の前記ポイントに対してカメラ中心座標を特定する前記姿勢情報を使用して、前記ポイントクラウド(132)に対する3次元基準座標系を3次元カメラ中心座標系に変換すること;及び
前記カメラ中心座標を有する前記ポイントクラウド(132)内の前記ポイントの前記少なくとも一部を前記2次元画像(121)内のピクセル位置(124)にマッピングすること
を含む、請求項12に記載のコンピュータ実装方法。 - 前記2次元画像(121)及び前記変換ポイント(146)を使用して前記融合データアレイ(150)を作成することは、
前記2次元画像(121)内のピクセルに1対1の対応を有するエレメント(152)から成る前記融合データアレイ(150)を形成すること;及び
前記融合データアレイ(150)内の前記エレメント(152)に、非ヌル深度値を含む埋込データベクトル(154)とヌル深度値を含む非埋込データベクトル(154)とを含むデータベクトル(154)を関連付けること
を含む、請求項12に記載のコンピュータ実装方法。 - 前記融合データアレイ(150)を使用して前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定することは、
新しい深度値(158)を生成して前記ヌル深度値の少なくとも一部を置き換えること;及び
前記新しい深度値(158)を使用して前記ポイントクラウド(132)に対して前記新しいポイント(164)を特定すること
を含む、請求項14に記載のコンピュータ実装方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/673,429 US9811880B2 (en) | 2012-11-09 | 2012-11-09 | Backfilling points in a point cloud |
US13/673,429 | 2012-11-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014096152A true JP2014096152A (ja) | 2014-05-22 |
JP5778237B2 JP5778237B2 (ja) | 2015-09-16 |
Family
ID=49554009
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013231790A Active JP5778237B2 (ja) | 2012-11-09 | 2013-11-08 | ポイントクラウド内の埋め戻しポイント |
Country Status (8)
Country | Link |
---|---|
US (1) | US9811880B2 (ja) |
EP (1) | EP2731075B1 (ja) |
JP (1) | JP5778237B2 (ja) |
KR (1) | KR102096673B1 (ja) |
CN (1) | CN103810744B (ja) |
AU (1) | AU2013227985B2 (ja) |
BR (1) | BR102013028714B1 (ja) |
CA (1) | CA2826534C (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11838606B2 (en) | 2015-11-20 | 2023-12-05 | Magic Leap, Inc. | Methods and systems for large-scale determination of RGBD camera poses |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140363073A1 (en) * | 2013-06-11 | 2014-12-11 | Microsoft Corporation | High-performance plane detection with depth camera data |
US10262462B2 (en) | 2014-04-18 | 2019-04-16 | Magic Leap, Inc. | Systems and methods for augmented and virtual reality |
CN105469447A (zh) * | 2014-09-11 | 2016-04-06 | 富泰华工业(深圳)有限公司 | 点云边界直角边修补系统及方法 |
US10032311B1 (en) * | 2014-09-29 | 2018-07-24 | Rockwell Collins, Inc. | Synthetic image enhancing system, device, and method |
US9772405B2 (en) | 2014-10-06 | 2017-09-26 | The Boeing Company | Backfilling clouds of 3D coordinates |
FR3028988B1 (fr) * | 2014-11-20 | 2018-01-19 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees |
CN105701861A (zh) * | 2014-11-28 | 2016-06-22 | 富泰华工业(深圳)有限公司 | 点云采样方法及系统 |
CN104484895B (zh) * | 2014-12-24 | 2018-11-20 | 天脉聚源(北京)科技有限公司 | 一种数据显示方法及装置 |
CN105427239B (zh) * | 2015-12-05 | 2018-05-22 | 刘忠艳 | 一种二维点云匹配方法 |
US9972067B2 (en) | 2016-10-11 | 2018-05-15 | The Boeing Company | System and method for upsampling of sparse point cloud for 3D registration |
US10176589B2 (en) | 2017-01-31 | 2019-01-08 | Mitsubishi Electric Research Labroatories, Inc. | Method and system for completing point clouds using planar segments |
US10444506B2 (en) * | 2017-04-03 | 2019-10-15 | Microsoft Technology Licensing, Llc | Mixed reality measurement with peripheral tool |
EP3467782A1 (en) * | 2017-10-06 | 2019-04-10 | Thomson Licensing | Method and device for generating points of a 3d scene |
US10535138B2 (en) | 2017-11-21 | 2020-01-14 | Zoox, Inc. | Sensor data segmentation |
US10816334B2 (en) | 2017-12-04 | 2020-10-27 | Microsoft Technology Licensing, Llc | Augmented reality measurement and schematic system including tool having relatively movable fiducial markers |
CN109978984A (zh) * | 2017-12-27 | 2019-07-05 | Tcl集团股份有限公司 | 人脸三维重建方法及终端设备 |
CN111937402A (zh) * | 2018-04-11 | 2020-11-13 | 索尼公司 | 图像处理装置和方法 |
KR102080997B1 (ko) * | 2018-08-06 | 2020-02-24 | 현대건설주식회사 | 360카메라를 활용한 자동 실내진도점검시스템 및 점검방법 |
EP3623752A1 (de) * | 2018-09-17 | 2020-03-18 | Riegl Laser Measurement Systems GmbH | Verfahren zum generieren einer orthogonalansicht eines objekts |
US10614579B1 (en) | 2018-10-10 | 2020-04-07 | The Boeing Company | Three dimensional model generation using heterogeneous 2D and 3D sensor fusion |
KR102640235B1 (ko) * | 2019-01-11 | 2024-02-23 | 삼성전자주식회사 | 3차원 데이터 부호화 방법 및 장치 및 3차원 데이터 복호화 방법 및 장치 |
US10346998B1 (en) * | 2019-02-25 | 2019-07-09 | Nurulize, Inc. | Method of merging point clouds that identifies and retains preferred points |
KR102343123B1 (ko) * | 2019-10-04 | 2021-12-27 | 현대건설 주식회사 | 건설현장용 사진기반 데이터 추적관리 시스템 및 추적관리방법 |
DE102019134324A1 (de) * | 2019-12-13 | 2021-06-17 | Connaught Electronics Ltd. | Ein Verfahren zum Messen der Topografie einer Umgebung |
CN111161338B (zh) * | 2019-12-26 | 2022-05-17 | 浙江大学 | 一种基于二维图像灰度进行深度预测的点云密度提升方法 |
CN111223145A (zh) * | 2020-01-03 | 2020-06-02 | 上海有个机器人有限公司 | 数据处理方法、系统、服务装置及其存储介质 |
CN111260781B (zh) * | 2020-01-15 | 2024-04-19 | 北京云迹科技股份有限公司 | 一种生成图像信息的方法、装置和电子设备 |
CN113362236B (zh) * | 2020-03-05 | 2024-03-05 | 北京京东乾石科技有限公司 | 点云增强方法、点云增强装置、存储介质与电子设备 |
CN111815707A (zh) * | 2020-07-03 | 2020-10-23 | 北京爱笔科技有限公司 | 点云确定方法、点云筛选方法、装置、计算机设备 |
CN111950658B (zh) * | 2020-08-28 | 2024-02-09 | 南京大学 | 一种基于深度学习的LiDAR点云与光学影像先验级耦合分类方法 |
CN113344789B (zh) * | 2021-06-29 | 2023-03-21 | Oppo广东移动通信有限公司 | 图像拼接方法及装置、电子设备、计算机可读存储介质 |
CN113409227B (zh) * | 2021-08-19 | 2021-11-30 | 深圳市信润富联数字科技有限公司 | 点云图修补方法、装置、电子设备和存储介质 |
CN114004871B (zh) * | 2022-01-04 | 2022-04-15 | 山东大学 | 一种基于点云补全的点云配准方法及系统 |
CN115760855B (zh) * | 2023-01-09 | 2023-05-23 | 中建科技集团有限公司 | 工件检查方法及相关设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
JP2012080517A (ja) * | 2010-10-01 | 2012-04-19 | Young Wee Jay | イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit} |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7363157B1 (en) | 2005-02-10 | 2008-04-22 | Sarnoff Corporation | Method and apparatus for performing wide area terrain mapping |
US7586489B2 (en) | 2005-08-01 | 2009-09-08 | Nvidia Corporation | Method of generating surface defined by boundary of three-dimensional point cloud |
US7912257B2 (en) | 2006-01-20 | 2011-03-22 | 3M Innovative Properties Company | Real time display of acquired 3D dental data |
US20080112610A1 (en) | 2006-11-14 | 2008-05-15 | S2, Inc. | System and method for 3d model generation |
CN101377404B (zh) | 2008-07-11 | 2010-04-14 | 北京航空航天大学 | 一种基于角度约束的空间圆姿态识别二义性消除方法 |
US8588547B2 (en) * | 2008-08-05 | 2013-11-19 | Pictometry International Corp. | Cut-line steering methods for forming a mosaic image of a geographical area |
US9582889B2 (en) * | 2009-07-30 | 2017-02-28 | Apple Inc. | Depth mapping based on pattern matching and stereoscopic information |
US8885890B2 (en) * | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
US20120056982A1 (en) * | 2010-09-08 | 2012-03-08 | Microsoft Corporation | Depth camera based on structured light and stereo vision |
CN102129708A (zh) | 2010-12-10 | 2011-07-20 | 北京邮电大学 | 增强现实环境中快速多层次虚实遮挡处理方法 |
EP2686827A1 (en) | 2011-03-18 | 2014-01-22 | C3 Technologies AB | 3d streets |
US8629901B2 (en) * | 2011-05-19 | 2014-01-14 | National Taiwan University | System and method of revising depth of a 3D image pair |
US9111444B2 (en) * | 2012-10-31 | 2015-08-18 | Raytheon Company | Video and lidar target detection and tracking system and method for segmenting moving targets |
-
2012
- 2012-11-09 US US13/673,429 patent/US9811880B2/en active Active
-
2013
- 2013-09-06 CA CA2826534A patent/CA2826534C/en active Active
- 2013-09-10 AU AU2013227985A patent/AU2013227985B2/en active Active
- 2013-10-01 KR KR1020130117208A patent/KR102096673B1/ko active IP Right Grant
- 2013-10-30 EP EP13190777.6A patent/EP2731075B1/en active Active
- 2013-11-07 BR BR102013028714-8A patent/BR102013028714B1/pt active IP Right Grant
- 2013-11-08 JP JP2013231790A patent/JP5778237B2/ja active Active
- 2013-11-11 CN CN201310556662.2A patent/CN103810744B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006083297A2 (en) * | 2004-06-10 | 2006-08-10 | Sarnoff Corporation | Method and apparatus for aligning video to three-dimensional point clouds |
JP2012080517A (ja) * | 2010-10-01 | 2012-04-19 | Young Wee Jay | イメージ獲得ユニット、方法及び連関付けられた制御ユニット{imageacquisitionunit、acquisitionmethodandassociatedcontrolunit} |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11838606B2 (en) | 2015-11-20 | 2023-12-05 | Magic Leap, Inc. | Methods and systems for large-scale determination of RGBD camera poses |
Also Published As
Publication number | Publication date |
---|---|
CA2826534C (en) | 2017-06-13 |
CN103810744B (zh) | 2018-09-21 |
CN103810744A (zh) | 2014-05-21 |
US9811880B2 (en) | 2017-11-07 |
JP5778237B2 (ja) | 2015-09-16 |
US20140132733A1 (en) | 2014-05-15 |
KR102096673B1 (ko) | 2020-04-03 |
EP2731075B1 (en) | 2018-06-20 |
BR102013028714A2 (pt) | 2014-10-07 |
AU2013227985A1 (en) | 2014-05-29 |
EP2731075A1 (en) | 2014-05-14 |
BR102013028714B1 (pt) | 2022-02-01 |
KR20140060454A (ko) | 2014-05-20 |
CA2826534A1 (en) | 2014-05-09 |
AU2013227985B2 (en) | 2019-01-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5778237B2 (ja) | ポイントクラウド内の埋め戻しポイント | |
CN110021069B (zh) | 一种基于网格形变的三维模型重建方法 | |
US20230054821A1 (en) | Systems and methods for keypoint detection with convolutional neural networks | |
CN108509848B (zh) | 三维物体的实时检测方法及系统 | |
CN112132972B (zh) | 一种激光与图像数据融合的三维重建方法及系统 | |
CN108269266A (zh) | 使用马尔可夫随机场优化来产生分割图像 | |
Won et al. | End-to-end learning for omnidirectional stereo matching with uncertainty prior | |
CN113192200B (zh) | 一种基于空三并行计算算法的城市实景三维模型的构建方法 | |
CN110223351B (zh) | 一种基于卷积神经网络的深度相机定位方法 | |
JP7294788B2 (ja) | 3d配置のタイプに応じた2d画像の分類 | |
CN104715504A (zh) | 一种鲁棒的大场景稠密三维重建方法 | |
JP2021093117A (ja) | 連帯的な検出と記述システムおよび方法 | |
Ozbay et al. | A hybrid method for skeleton extraction on Kinect sensor data: Combination of L1-Median and Laplacian shrinking algorithms | |
Merras et al. | Multi-view 3D reconstruction and modeling of the unknown 3D scenes using genetic algorithms | |
CN114565916A (zh) | 目标检测模型训练方法、目标检测方法以及电子设备 | |
CN113298871B (zh) | 地图生成方法、定位方法及其系统、计算机可读存储介质 | |
Budianti et al. | Background blurring and removal for 3d modelling of cultural heritage objects | |
Chen et al. | A 3-D point clouds scanning and registration methodology for automatic object digitization | |
Ahmadabadian | Photogrammetric multi-view stereo and imaging network design | |
Pinho | Fast and Robust 3D Reconstruction Solution from Permissive OpenSource Code | |
CN117635875A (zh) | 一种三维重建方法、装置及终端 | |
CN116708743A (zh) | 双目成像装置、方法、设备及存储介质 | |
Thangamania et al. | Geometry and Texture Measures for Interactive Virtualized Reality Indoor Modeler | |
CN117333548A (zh) | 一种基于类环面的相机位姿估计方法、系统和存储介质 | |
JP2020170265A (ja) | 画像処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140922 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20141007 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20150106 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150609 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150708 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5778237 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |