JP2023546739A - シーンの3次元モデルを生成するための方法、装置、およびシステム - Google Patents
シーンの3次元モデルを生成するための方法、装置、およびシステム Download PDFInfo
- Publication number
- JP2023546739A JP2023546739A JP2023548990A JP2023548990A JP2023546739A JP 2023546739 A JP2023546739 A JP 2023546739A JP 2023548990 A JP2023548990 A JP 2023548990A JP 2023548990 A JP2023548990 A JP 2023548990A JP 2023546739 A JP2023546739 A JP 2023546739A
- Authority
- JP
- Japan
- Prior art keywords
- data
- depth
- scene
- model
- imaging means
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000003384 imaging method Methods 0.000 claims abstract description 154
- 230000004044 response Effects 0.000 claims description 9
- 239000013589 supplement Substances 0.000 claims description 7
- 230000001502 supplementing effect Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 abstract description 3
- 238000001514 detection method Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 13
- 238000012545 processing Methods 0.000 description 12
- 239000000945 filler Substances 0.000 description 9
- 230000033001 locomotion Effects 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000013519 translation Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 230000000153 supplemental effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000010267 cellular communication Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/275—Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/271—Image signal generators wherein the generated image signals comprise depth maps or disparity maps
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/04—Architectural design, interior design
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Remote Sensing (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Image Analysis (AREA)
Abstract
Description
本願は、2020年10月29日に出願された中国特許出願第202011180650.0号の優先権を主張し、その内容全体が参照により本明細書に組み込まれる。
3D再構成とは、3Dオブジェクトのコンピュータ表現と処理に適した数学的モデルを確立する手法である。コンピュータでは、確立された3Dモデルにより、3Dオブジェクトの処理、操作、および分析を実現できる。3D再構成技術は、コンピュータで客観的な世界を表現するVR環境を構成するための重要な手法である。一般に、3D再構成は、画像取得、カメラ校正、特徴抽出、ステレオマッチング、および3D再構成などのステップを含み得る。
Claims (20)
- シーンの3Dモデルを生成する方法であって、
撮像手段を含む3Dモデリングシステムが、複数のフレームの深度画像の画素を含む第1の深度データを取得することと、
走査手段を含む前記3Dモデリングシステムが、複数のフレームの画像の深度データ点を含む第2の深度データを取得することと、
前記3Dモデリングシステムが、複数の色画像の画素を含む前記シーンの色データを受信することと、
前記3Dモデリングシステムが、前記色データ、前記第1の深度データ、前記第2の深度データに基づいて、前記シーンの3Dモデルを生成することと、
前記シーンの3Dモデルを表示させることと、含む方法。 - 前記第1の深度データにおける前記深度画像の各々は第1のデータであり、前記第2の深度データにおける画像フレームの各々は第2のデータであり、
前記方法は、さらに、
複数のデータペアを決定し、前記複数のデータペアの各々が、前記第1のデータおよび対応する前記第2のデータを含み、前記第1のデータおよび対応する前記第2のデータが同様の目標オブジェクトを含むことと、
前記複数のデータペアに基づいて、前記第1の深度データと前記第2の深度データとの間の位置関係を決定することと、を更に含む、
請求項1に記載の方法。 - 前記第1のデータの各々には、前記撮像手段の姿勢情報を示す第1の外部パラメータが付けされ、前記第2のデータの各々には、前記走査手段の姿勢情報を示す第2の外部パラメータが付けされ、前記複数のデータペアを決定することは、
前記第1の外部パラメータに基づいて、前記第1のデータに関連する第1の姿勢を決定することと、
前記第2の外部パラメータに基づいて、前記第2のデータに関連する第2の姿勢を決定することと、
前記第1の姿勢および前記第2の姿勢が同様であることに応じて、前記第1のデータおよび前記第2のデータを含むデータペアを決定することと、を含む、
請求項2に記載の方法。 - 前記第1の外部パラメータおよび前記第2の外部パラメータは、前記3Dモデリングシステムにおける同じ姿勢センサから出力される、
請求項3に記載の方法。 - 前記第1のデータの各々には、前記撮像手段により前記第1のデータが取得された定時を示す第1のタイムスタンプが付けされ、前記第2のデータの各々には、前記走査手段により前記第2のデータが取得された定時を示す第2のタイムスタンプが付けされ、前記データペアにおける前記第1のデータと対応する前記第2のデータは、閾値よりも小さい時間間隔を有する、
請求項2に記載の方法。 - 前記データペアにおける前記第1のデータおよび対応する前記第2のデータは、1つ以上の同様のオブジェクトで識別される、
請求項2に記載の方法。 - 深度閾値を決定することと、
前記1つ以上のデータ点の深度値が前記深度閾値よりも大きいことに応じて、前記第1の深度データにおける前記1つ以上のデータ点を削除することと、を更に含む、
請求項1に記載の方法。 - 生成された前記シーンの3Dモデルにおいて、解像度閾値未満の1つ以上の画像領域を識別することと、
前記撮像手段を含む前記3Dモデリングシステムが、複数の深度画像の画素を含む第1の充填データを取得することと、
生成された前記シーンの3Dモデルに、前記第1の充填データを補充して、新たなシーンの3Dモデルを生成することと、更に含む、
請求項1に記載の方法。 - 生成された前記シーンの3Dモデルにおいて、十分な前記深度データ点を持たない1つ以上の画像領域を識別することと、
前記走査手段を含む前記3Dモデリングシステムが、複数の画像フレームの深度データ点を含む第2の充填データを取得することと、
生成された前記シーンの3Dモデルに、第2の充填データを補充して、新たなシーンの3Dモデルを生成することと、さらに含む、
請求項1に記載の方法。 - 前記撮像手段は、第1のフレームレートで前記複数の深度画像を取得し、前記走査手段は、第2のフレームレートで前記複数の画像フレームを取得する、
請求項1に記載の方法。 - 前記3Dモデリングシステムは、取得された前記深度データに基づいて、前記シーンの3Dモデルをリアルタイムで表示するディスプレイを含む、
請求項1に記載の方法。 - シーンの3Dモデルを生成するためのシステムであって、
複数のフレームの深度画像の画素を含む第1の深度データを取得するように構成される撮像手段と、
複数の画像フレームの深度データ点を含む第2の深度データを取得するように構成される走査手段と、
前記撮像手段からの第1の深度データ、前記走査手段からの第2の深度データ、複数の色画像の画素を含む色データを取得し、前記色データ、前記第1の深度データ、前記第2の深度データに基づいて、前記シーンの3Dモデルを生成し、生成された前記シーンの3Dモデルを出力するように構成される1つ以上のプロセッサと、
を含むシステム。 - 前記第1の深度データにおける前記深度画像の各々は、第1のデータであり、前記第2の深度データにおける画像フレームの各々は、第2のデータであり、
前記1つ以上のプロセッサは、さらに、
複数のデータペアを決定し、前記複数のデータペアの各々は、前記第1のデータおよび対応する前記第2のデータを含み、前記第1のデータおよび対応する前記第2のデータは、同様の目標オブジェクトを含み、
前記複数のデータペアに基づいて、前記第1の深度データと前記第2の深度データとの間の位置関係を決定するように構成される、
請求項12に記載のシステム。 - 前記システムは、さらに、前記3Dモデリングシステムにおける前記撮像手段および前記走査手段の姿勢情報を示す外部パラメータを出力するように構成される1つ以上の姿勢センサを含み、
前記第1のデータの各々には、前記撮像手段の姿勢情報を示す第1の外部パラメータが付けされ、前記第2のデータの各々には、前記走査手段の姿勢情報を示す第2の外部パラメータが付けされ、
前記1つ以上のプロセッサは、さらに、
前記第1の外部パラメータに基づいて、前記第1のデータに関連する第1の姿勢を決定し、
前記第2の外部パラメータに基づいて、前記第2のデータに関連する第2の姿勢を決定し、
前記第1の姿勢と前記第2の姿勢が同様であることに応じて、前記第1のデータと前記第2のデータを含むデータペアを決定するように構成される、
請求項13に記載のシステム。 - 前記第1のデータの各々には、前記撮像手段により前記第1のデータが取得された定時を示す第1のタイムスタンプが付けされ、前記第2のデータの各々には、前記走査手段により前記第2のデータが取得された定時を示す第2のタイムスタンプが付けされ、
前記データペアにおける前記第1のデータと対応する前記第2のデータは、閾値よりも小さい時間間隔を有する、
請求項13に記載のシステム。 - 前記データペアにおける前記第1のデータおよび対応する前記第2のデータは、1つ以上の同様のオブジェクトで識別される、
請求項13に記載のシステム。 - 前記1つ以上のプロセッサは、さらに、
深度閾値を決定し、
前記1つ以上のデータ点の深度値が前記深度閾値よりも大きいことに応じて、前記第1の深度データにおける前記1つ以上のデータ点を削除するように構成される、
請求項16に記載のシステム。 - 前記1つ以上のプロセッサは、さらに、
生成された前記シーンの3Dモデルにおいて、解像度閾値未満の1つ以上の画像領域を識別し、
前記撮像手段から複数の深度画像の画素を含む第1の充填データを受信し、
生成された前記シーンの3Dモデルに前記第1の充填データを補充して、新たなシーンの3Dモデルを生成するように構成される、
請求項16に記載のシステム。 - 前記1つ以上のプロセッサは、さらに、
生成された前記シーンの3Dモデルにおいて、十分な深度データ点を持たない1つ以上の画像領域を識別し、
前記走査手段から複数の画像フレームの深度データ点を含む第2の充填データを受信し、
生成された前記シーンの3Dモデルに前記第2の充填データを補充して、新たなシーンの3Dモデルを生成するように構成される、
請求項13に記載のシステム。 - コンピュータ実行可能命令が記憶されている非揮発性なコンピュータ可読媒体であって、
前記コンピュータ実行可能命令は、1つ以上のプロセッサによって実行されると、プロセッサは、
撮像手段を含む3Dモデリングシステムが、複数のフレームの深度画像の画素を含む第1の深度データを取得することと、
走査手段を含む前記3Dモデリングシステムが、複数のフレームの画像の深度データ点を含む第2の深度データを取得することと、
前記3Dモデリングシステムが、複数の色画像の画素を含むシーンの色データを受信することと、
前記3Dモデリングシステムが、前記色データ、前記第1の深度データ、前記第2の深度データに基づいて、シーンの3Dモデルを生成することと、
前記シーンの3Dモデルを表示させることと、を実現する、
コンピュータ可読媒体。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011180650.0A CN112312113B (zh) | 2020-10-29 | 2020-10-29 | 用于生成三维模型的方法、装置和系统 |
CN202011180650.0 | 2020-10-29 | ||
PCT/CN2021/114241 WO2022088881A1 (en) | 2020-10-29 | 2021-08-24 | Method, apparatus and system for generating a three-dimensional model of a scene |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023546739A true JP2023546739A (ja) | 2023-11-07 |
Family
ID=74331621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023548990A Pending JP2023546739A (ja) | 2020-10-29 | 2021-08-24 | シーンの3次元モデルを生成するための方法、装置、およびシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US11989827B2 (ja) |
JP (1) | JP2023546739A (ja) |
CN (1) | CN112312113B (ja) |
WO (1) | WO2022088881A1 (ja) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112312113B (zh) * | 2020-10-29 | 2022-07-15 | 贝壳技术有限公司 | 用于生成三维模型的方法、装置和系统 |
CN112967381B (zh) * | 2021-03-05 | 2024-01-16 | 北京百度网讯科技有限公司 | 三维重建方法、设备和介质 |
CN112927281B (zh) * | 2021-04-06 | 2024-07-02 | Oppo广东移动通信有限公司 | 深度检测方法、深度检测装置、存储介质与电子设备 |
CN115512242B (zh) * | 2022-07-22 | 2023-05-30 | 北京微视威信息科技有限公司 | 场景变化检测方法及飞行装置 |
Family Cites Families (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101666854B1 (ko) * | 2010-06-14 | 2016-10-17 | 삼성전자주식회사 | 복수 개의 깊이 영상에 기초한 깊이 영상 접힘 제거 장치 및 방법 |
KR20120105169A (ko) * | 2011-03-15 | 2012-09-25 | 삼성전자주식회사 | 복수의 거리 픽셀들을 포함하는 3차원 이미지 센서의 구동 방법 |
US9053571B2 (en) * | 2011-06-06 | 2015-06-09 | Microsoft Corporation | Generating computer models of 3D objects |
US10848731B2 (en) * | 2012-02-24 | 2020-11-24 | Matterport, Inc. | Capturing and aligning panoramic image and depth data |
RU2012145349A (ru) * | 2012-10-24 | 2014-05-10 | ЭлЭсАй Корпорейшн | Способ и устройство обработки изображений для устранения артефактов глубины |
US9424650B2 (en) * | 2013-06-12 | 2016-08-23 | Disney Enterprises, Inc. | Sensor fusion for depth estimation |
CN104113702B (zh) * | 2014-07-25 | 2018-09-04 | 北京智谷睿拓技术服务有限公司 | 闪光控制方法及控制装置、图像采集方法及采集装置 |
CN104159099B (zh) * | 2014-08-29 | 2016-02-03 | 杭州道玄影视科技有限公司 | 一种3d立体影视制作中双目立体摄像机的设置方法 |
CN107431800A (zh) * | 2015-02-12 | 2017-12-01 | 奈克斯特Vr股份有限公司 | 用于进行环境测量和/或使用此类测量的方法和装置 |
US9369689B1 (en) * | 2015-02-24 | 2016-06-14 | HypeVR | Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video |
US9818232B2 (en) * | 2015-08-26 | 2017-11-14 | Adobe Systems Incorporated | Color-based depth smoothing of scanned 3D model to enhance geometry in 3D printing |
CN107851321B (zh) * | 2015-11-30 | 2020-09-11 | 华为技术有限公司 | 图像处理方法和双摄像头系统 |
MX2018010282A (es) * | 2016-02-25 | 2018-12-19 | Dainippon Printing Co Ltd | Sistema de generacion de datos de forma tridimensional e informacion de textura, programa de control de formacion de imagenes y metodo de generacion de datos de forma tridimensional e informacion de textura. |
US10306203B1 (en) * | 2016-06-23 | 2019-05-28 | Amazon Technologies, Inc. | Adaptive depth sensing of scenes by targeted light projections |
GB2554633B (en) * | 2016-06-24 | 2020-01-22 | Imperial College Sci Tech & Medicine | Detecting objects in video data |
JP6838994B2 (ja) * | 2017-02-22 | 2021-03-03 | キヤノン株式会社 | 撮像装置、撮像装置の制御方法およびプログラム |
CN108510537B (zh) * | 2017-02-28 | 2020-06-12 | 深圳市掌网科技股份有限公司 | 3d建模方法和装置 |
CN108986223A (zh) * | 2017-05-31 | 2018-12-11 | 上海拆名晃信息科技有限公司 | 一种三维场景重建的方法与装置 |
JP2020522002A (ja) * | 2017-06-02 | 2020-07-27 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 移動ターゲットを認識、追跡、および合焦するための方法及びシステム |
CN107483845B (zh) * | 2017-07-31 | 2019-09-06 | Oppo广东移动通信有限公司 | 拍照方法及其装置 |
CN107493412B (zh) * | 2017-08-09 | 2019-09-13 | Oppo广东移动通信有限公司 | 图像处理系统及方法 |
CN107610084B (zh) * | 2017-09-30 | 2020-09-01 | 驭势科技(北京)有限公司 | 一种对深度图像和激光点云图进行信息融合的方法与设备 |
US10529086B2 (en) * | 2017-11-22 | 2020-01-07 | Futurewei Technologies, Inc. | Three-dimensional (3D) reconstructions of dynamic scenes using a reconfigurable hybrid imaging system |
CN107995434A (zh) * | 2017-11-30 | 2018-05-04 | 广东欧珀移动通信有限公司 | 图像获取方法、电子装置和计算机可读存储介质 |
CN107966693B (zh) * | 2017-12-05 | 2021-08-13 | 成都合纵连横数字科技有限公司 | 一种基于深度渲染的车载激光雷达仿真方法 |
CN108234984A (zh) * | 2018-03-15 | 2018-06-29 | 百度在线网络技术(北京)有限公司 | 双目深度相机系统和深度图像生成方法 |
CN108492364B (zh) * | 2018-03-27 | 2022-09-20 | 百度在线网络技术(北京)有限公司 | 用于生成图像生成模型的方法和装置 |
CN108549088B (zh) * | 2018-04-27 | 2020-10-02 | 科沃斯商用机器人有限公司 | 基于机器人的定位方法、设备、系统及存储介质 |
CN109035309B (zh) * | 2018-07-20 | 2022-09-27 | 清华大学苏州汽车研究院(吴江) | 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法 |
CN110895833A (zh) * | 2018-09-13 | 2020-03-20 | 北京京东尚科信息技术有限公司 | 一种室内场景三维建模的方法和装置 |
CN109274957A (zh) * | 2018-10-31 | 2019-01-25 | 维沃移动通信有限公司 | 一种深度图像拍摄方法及移动终端 |
CN109741405B (zh) * | 2019-01-21 | 2021-02-02 | 同济大学 | 一种基于对偶结构光rgb-d相机的深度信息采集系统 |
CN111741283A (zh) * | 2019-03-25 | 2020-10-02 | 华为技术有限公司 | 图像处理的装置和方法 |
CN110233963A (zh) * | 2019-05-06 | 2019-09-13 | 深圳市华芯技研科技有限公司 | 一种双目相机间距调节方法及装置 |
CN110163968B (zh) * | 2019-05-28 | 2020-08-25 | 山东大学 | Rgbd相机大型三维场景构建方法及系统 |
CN111742344A (zh) * | 2019-06-28 | 2020-10-02 | 深圳市大疆创新科技有限公司 | 图像语义分割方法、可移动平台及存储介质 |
CN110428372B (zh) * | 2019-07-08 | 2021-12-10 | 佳木斯市奥义智能科技有限公司 | 深度数据与2d激光数据融合方法及装置、存储介质 |
CN110599546A (zh) * | 2019-08-28 | 2019-12-20 | 贝壳技术有限公司 | 一种获取三维空间数据的方法、系统、装置和存储介质 |
CN110874852A (zh) * | 2019-11-06 | 2020-03-10 | Oppo广东移动通信有限公司 | 深度图像的确定方法、图像处理器及存储介质 |
CN110842940A (zh) * | 2019-11-19 | 2020-02-28 | 广东博智林机器人有限公司 | 一种建筑测量机器人多传感器融合三维建模方法及系统 |
US20210166477A1 (en) * | 2019-12-03 | 2021-06-03 | Augustus Intelligence Inc. | Synthesizing images from 3d models |
CN111178138B (zh) * | 2019-12-04 | 2021-01-12 | 国电南瑞科技股份有限公司 | 基于激光点云和双目视觉的配网导线作业点检测方法及装置 |
CN111239729B (zh) * | 2020-01-17 | 2022-04-05 | 西安交通大学 | 融合散斑和泛光投射的ToF深度传感器及其测距方法 |
CN111415388B (zh) * | 2020-03-17 | 2023-10-24 | Oppo广东移动通信有限公司 | 一种视觉定位方法及终端 |
CN111526282A (zh) * | 2020-03-26 | 2020-08-11 | 香港光云科技有限公司 | 基于飞行时间的可调景深拍摄的方法及设备 |
US20210327119A1 (en) * | 2020-04-17 | 2021-10-21 | Occipital, Inc. | System for Generating a Three-Dimensional Scene Reconstructions |
CN111524194B (zh) * | 2020-04-24 | 2023-07-21 | 江苏盛海智能科技有限公司 | 一种激光雷达和双目视觉相互融合的定位方法及终端 |
CN112312113B (zh) * | 2020-10-29 | 2022-07-15 | 贝壳技术有限公司 | 用于生成三维模型的方法、装置和系统 |
-
2020
- 2020-10-29 CN CN202011180650.0A patent/CN112312113B/zh active Active
-
2021
- 2021-06-29 US US17/362,438 patent/US11989827B2/en active Active
- 2021-08-24 WO PCT/CN2021/114241 patent/WO2022088881A1/en active Application Filing
- 2021-08-24 JP JP2023548990A patent/JP2023546739A/ja active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2022088881A1 (en) | 2022-05-05 |
US20220139030A1 (en) | 2022-05-05 |
CN112312113B (zh) | 2022-07-15 |
US11989827B2 (en) | 2024-05-21 |
CN112312113A (zh) | 2021-02-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110383343B (zh) | 不一致检测系统、混合现实系统、程序和不一致检测方法 | |
JP6951595B2 (ja) | 住宅のデータ収集およびモデル生成方法 | |
AU2011312140B2 (en) | Rapid 3D modeling | |
JP2023546739A (ja) | シーンの3次元モデルを生成するための方法、装置、およびシステム | |
US6930685B1 (en) | Image processing method and apparatus | |
US20170142405A1 (en) | Apparatus, Systems and Methods for Ground Plane Extension | |
US20220067968A1 (en) | Motion capture calibration using drones with multiple cameras | |
US10545215B2 (en) | 4D camera tracking and optical stabilization | |
JP2016537901A (ja) | ライトフィールド処理方法 | |
Kahn | Reducing the gap between Augmented Reality and 3D modeling with real-time depth imaging | |
US20240244330A1 (en) | Systems and methods for capturing and generating panoramic three-dimensional models and images | |
CN113822936A (zh) | 数据处理方法、装置、计算机设备及存储介质 | |
JP2017215706A (ja) | 映像合成方法、映像取得装置、映像合成装置、映像合成システム及びコンピュータプログラム。 | |
US11600022B2 (en) | Motion capture calibration using drones | |
US11636621B2 (en) | Motion capture calibration using cameras and drones | |
Lichtenauer et al. | A semi-automatic procedure for texturing of laser scanning point clouds with google streetview images | |
US11282233B1 (en) | Motion capture calibration | |
US20220076452A1 (en) | Motion capture calibration using a wand | |
US20220076451A1 (en) | Motion capture calibration using a three-dimensional assembly | |
US20230410451A1 (en) | Augmented reality implement apparatus and method using mobile scanned object model scaling | |
WO2022045897A1 (en) | Motion capture calibration using drones with multiple cameras | |
WO2022055371A1 (en) | Motion capture calibration using a wand | |
Fleck et al. | 3DTV-Panoramic 3D Model Acquisition and its 3D Visualization on the Interactive Fogscreen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230424 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240312 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20240813 |