CN102422327A - 用于生成对象的三维模型的方法 - Google Patents
用于生成对象的三维模型的方法 Download PDFInfo
- Publication number
- CN102422327A CN102422327A CN2010800204282A CN201080020428A CN102422327A CN 102422327 A CN102422327 A CN 102422327A CN 2010800204282 A CN2010800204282 A CN 2010800204282A CN 201080020428 A CN201080020428 A CN 201080020428A CN 102422327 A CN102422327 A CN 102422327A
- Authority
- CN
- China
- Prior art keywords
- dimensional model
- texture
- depth
- depth representing
- representing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Graphics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Image Generation (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
本发明涉及用于生成某个对象的三维模型的方法。该方法包括确定对象的对象深度表示的步骤和生成对象的纹理的步骤。随后,通过对所述对象的所述对象深度表示应用位移映射并随后将所述纹理应用于使用所述位移映射而生成的所述对象的所述三维模型来生成三维模型。
Description
技术领域
本发明涉及用于生成对象的三维模型的方法和相关系统。
背景技术
这种方法在本领域是已知的,例如,根据在http://ieeexplore.ieee.org/stamp/stamp.jsp?arnumber=01024107上公开的论文“DATA PROCESSING IN 3D VIDEO SYSTEM BASED ON DATAFROM STRUCTURED LIGHT MEASUREMENT SYSTEM(基于来自结构光测量系统的3D视频系统中的数据处理)”。
该论文描述了一种系统和方法,其中,使用结构光生成对象的三维表示。在这种系统中,所建议的真实3D视频取决于基于条纹投影法的光学3D对象测量系统的使用。该结构光测量系统提供输出数据,它是采用从多个方向表示3D对象的坐标点云的形式的有关对象的所有点的深度信息。点云被转换成可接受用于可视化的数据,即三维模型,其最后可与虚拟环境相结合。
结构光3D扫描仪向主体投射光的图案,并观看图案在主体上的变形。以二维网格或条纹线图案为例。稍微偏离图案投影仪的照相机用于观看图案的变形,相当复杂的算法用于计算图案中每个点的距离。
该产生的“点云”包括在对象的表面上的大量的点,该表面代表已被扫描或数字化的对象的可视表面。这些“点云”本身通常不能直接在大多数3D应用中使用,因此,通常通过被称为逆向工程的处理被转换成三角网状模型、NURBS表面模型或CAD模型,以致它们可用于不同的目的。从“点云”到3D模型的转换是众所周知的复杂和计算密集的过程。
另外,这种结构光系统是不利的,因为它在需要复杂光装置时在真实环境中是不切实际的。
发明内容
本发明的目的是提供一种上述已知类型的但其中三维模型的生成在正常光条件下进行的方法。
根据本发明,该目的通过根据权利要求1所述的方法、根据权利要求7所述的系统和根据权利要求8所述的三维模型生成器达到。
实际上,首先通过测量与对象有关的深度信息生成对象的对象深度表示,并基于该生成的对象的对象深度表示,对象的三维模型可通过随后对所生成的对象的对象深度表示应用位移映射(displacement mapping)并将所生成的对象的纹理映射到使用位移映射而产生的对象的三维模型上来产生,从而在正常光条件下,获得对象的纹理化三维模型。
由于相对快速和有效的处理,因此,如果改变对象,则由于生成3D模型的短暂处理时间,因此,在非常短的时间内渲染纹理化三维对象可在实时方案中使用。
该纹理可以是任何可从高清晰度图像、标准清晰度纹理或随所述图像更新的预定义纹理中获得的纹理。
生成对象深度表示是确定对象的深度测量并通过测量对象的每个点的深度来重构对象的轮廓。
相对于凹凸映射、法线映射和视差映射,位移映射是可选的计算机图形技术,其使用(过程化的)纹理或高度映射以导致如下的结果:根据纹理函数在表面上每个点处估计的值,纹理化表面上的点的实际地理位置被移位,通常沿着局部表面法线。它给表面提供很大的深度感和细节感,特别允许自遮挡、自投影和廓影;另一方面,由于大量的附加几何学,这类技术是最经济的。
模型的重构轮廓随后用于应用所生成的(高清晰度)纹理到在位移映射后获得的三维模型的映射。
本发明的其它优点是:由于与点云技术相比,位移映射技术消耗很少的计算资源的事实,本发明的方法、相关系统和相关设备更快并以更有效的方式获得三维表示。因此,本发明的系统和方法可用于实时系统,因为处理的相对简化导致三维模型的快速生成。
本发明的另一个特征在权利要求2中描述。
确定对象深度表示的步骤是基于从照相机输入中获得的深度消息的提取。通常的深度消息是灰度图像,并且最白映射到最接近照相机的点。
本发明的再一个特征在权利要求3中描述。
确定对象的对象深度表示的步骤是基于红外距离测量设备的深度测量。对象深度表示是基于根据红外距离测量确定对象的每一个点的深度而生成的。红外距离测量用于测量视为粒子、对象或流在传播所测量的时间时到达检测器的距离。
本发明的另一个特征在权利要求4中描述。
生成所述对象的(高清晰度)纹理的步骤是生成照相机的(高清晰度)二维图像。在此,图像用于渲染(高清晰度)纹理,以用于映射到三维模型上。
本发明的再一个特征在权利要求5中描述。
在该方法中还包括以下步骤:如果应用背景过滤,则从对象深度表示中过滤噪声和/或背景信息,以生成没有背景信息的改进的对象深度表示。
与从结构光测量系统中获取的对象深度表示相比,该对象深度表示一般有大得多的噪声。因此,过滤器,例如高斯过滤器、双极性过滤器,用于首先降低噪声。
本发明的再一个特征在权利要求6中描述。
根据本发明的方法的另一个特征包括以下步骤:模糊初始对象深度表示或者通过应用过滤而获得的改进的对象深度表示,以便在应用位移映射和将(高清晰度)纹理映射到三维模型上之前进一步改进对象深度表示。通过模糊对象深度表示,噪声在初始对象深度表示中的影响可被进一步降低。
应当注意,在权利要求中使用的术语“包括”不应被解释为限于其后所列出的装置。因此,表述“设备包括装置A和B”的范围不应当限于设备仅包括组件A和B。它意味着对于本发明,设备的相关组件是A和B。
同样,应当注意,在权利要求中还使用的术语“连接”不应被解释为仅限于直接连接。因此,表述“设备A连接到设备B”的范围不应当限于其中设备A的输出直接连接到设备B的输入的设备或系统。它意味着在A的输出与B的输入之间存在可包括其它设备或装置的路径。
附图说明
通过参照以下结合附图的实施例的描述,本发明的上述和其它目的和特征将变得更加清楚,而本发明本身也可以得到最好的理解,其中:
图1表示根据本发明的用于生成三维模型的系统。
具体实施方式
在以下段落中,将参照附图描述根据本发明的在权利要求中提到的用于生成三维模型的系统、相关方法、相关三维模型生成设备3-DMGD的实现。
在该描述的第一段中描述如在图1中表示的用于生成三维模型的系统的主要单元。在第二段中,定义在前面所提到的单元与所描述的装置之间的所有连接。随后,在所有互连的描述之后,描述系统的所有相关功能性装置,包括相关的三维模型生成设备3-DMGD。在接下来的段落中,描述用于生成三维模型的系统的实际执行。
本发明的系统的重要单元是对象深度表示确定部ODRP,其用于确定对象O的对象深度表示,由此可生成三维模型。该对象深度表示可使用诸如飞行时间(time-of-flight)照相机的红外目标测量设备确定,或者可选择地,该对象深度表示可通过应用立体照相机对并通过应用诸如立体匹配的深度提取算法确定。
此外,还有纹理确定部TDP,其用于生成对象的(高清晰度)纹理,其中,该纹理可基于诸如UV映射的公知技术并基于高清晰度二维图像或正常二维图像生成。
另外,还有映射部MP,其用于通过将(高清晰度)纹理映射到由对象深度表示确定部ODRP确定的对象深度表示上来生成三维对象表示。
对象深度表示确定部ODRP具有输入端子,其同时是三维模型生成设备3-DMGD的输入端子。对象深度表示确定部ODRP连接到过滤部FP,过滤部FP再连接到深度模糊部DBP。深度模糊部DBP通过输出连接到映射部MP的第一输入,纹理确定部TDP通过输出连接到映射部MP的第二输入。映射部具有输出端子,其连接到三维对象转发部3-DOFP的输入端子,而三维对象转发部3-DOFP具有输出端子,其同时是三维模型生成设备3-DMGD的输出端子。
三维模型生成设备3-DMGD的输出端子可连接到或通过诸如接入网络和核心通信网络的通信网络连接到诸如第二人生(Second Life)的虚拟环境。
为了说明本发明,某个人的三维对象表示将被获得。该某个人的这种三维对象表示可用于在诸如第二人生e或OpenSim的虚拟环境中注入这种表示。
首先,对象深度表示确定部ODRP确定对象O的对象深度表示,其中,对象O是人,并将生成他的三维模型。该对象深度表示被假定使用诸如红外目标测量设备(诸如飞行时间照相机)的距离测量设备确定,或者可选择地,对象深度表示可通过将诸如立体匹配的深度提取算法应用于立体照相机对来确定。
此外,纹理确定部TDP生成对象的(高清晰度)纹理,其中,该纹理可以是高清晰度二维图像或正常二维图像,其中图像是使用照相机CAM拍摄的。
随后,映射部MP通过首先对所生成的由对象深度表示确定部ODRP确定的对象O的对象深度表示应用位移映射来生成这个人的三维模型。接着,映射部MP将所生成的对象的(高清晰度)纹理映射到使用位移映射而产生的对象的三维模型上,在正常光条件下获得对象的纹理化三维模型。
映射部MP首先对由对象深度表示确定部ODRP确定的对象深度表示应用位移映射技术,这被限定在这种使用(过程化的)纹理或高度映射中以导致基于先前所计算的深度表示而移位表面上的点的实际地理位置的效果。
所产生的这个人的纹理化三维模型可被三维模型转发部3-DMFP使用,以用于将该模型注入虚拟环境中。包括所注入的纹理化模型(在此是这个人的三维纹理化模型)的虚拟环境VE可以被访问,并且其内容可被任何客户机设备CX、CY、CZ观看。
由于当前的光条件,即没有使用额外的光,因此,在首先确定这个人的对象深度表示中,所生成的对象深度表示是灰度图像,并且表示深度的灰度值包含一定量的噪声,意味着对象的每个点的深度值并不是非常准确。
在对象深度表示中包括的该噪声可通过利用过滤部的专用过滤而被部分地或全部除去。
噪声的第一部分是由对象的背景组成,在生成对象深度表示时,该背景被包括。
该背景可通过除去与对象的背景有关的对象的所有点,例如除去位于某一深度范围外的对象深度表示的所有点(与对象的背景有关),而从该人的对象深度表示中除去。
由于不完美的光条件而构成的噪声的第二部分可通过过滤对象深度表示而除去。该过滤可以是例如高斯滤波器、双极性滤波器的应用。
所产生的对象深度表示是改进的对象深度表示,并不再包括任何背景或仅包括受限的或部分残余的背景,可用作映射部的输入,以用于将纹理映射到这个改进的对象深度表示上,并这样生成该人的改进的三维对象表示。
另外,为了进一步改进对象深度表示并因此获得该人的进一步改进的三维对象表示,深度模糊的步骤可通过向深度模糊部DBP输入该人的第一改进的对象深度表示来应用。在该深度模糊的步骤中,第一改进的对象深度表示被进一步改进以变得更适合于第一位移映射步骤和随后的纹理映射步骤。
从深度模糊部DPP的输出中产生的进一步改进的对象深度表示随后可用作映射部的输入,以用于第一位移映射步骤和随后的纹理映射步骤,其中,纹理被映射到改进的三维模型上,并这样生成该人的纹理化的改进的三维对象表示。
最后应注意,以上以功能模块的方式描述了本发明的实施例。通过以上给出的这些模块的功能性描述,对于设计电子设备领域的普通技术人员来说,如何用公知的电子组件制造这些模块的实施例是显而易见的。因此,关于这些功能模块的内容的详细体系结构没有给出。
尽管以上结合特定装置描述了本发明的原理,但应当清楚地理解,该描述仅以例子的形式给出,而并非对本发明的范围的限制,本发明的范围由后附的权利要求限定。
Claims (8)
1.一种用于生成对象的三维模型的方法,其特征在于,所述方法包括以下步骤:
a.确定所述对象(O)的对象深度表示;
b.生成所述对象(O)的纹理;以及
c.通过对所述对象(O)的所述对象深度表示应用位移映射并随后将所述纹理应用于使用所述位移映射而生成的所述对象的所述三维模型来生成所述对象的三维模型。
2.根据权利要求1所述的方法,其特征在于,所述确定所述对象的对象深度表示的步骤是基于从照相机输入提取所述对象的深度消息。
3.根据权利要求1所述的方法,其特征在于,所述确定所述对象的对象深度表示的步骤是基于红外距离测量设备(DMD)的深度测量。
4.根据权利要求1至3任意一项所述的方法,其特征在于,所述生成所述对象的纹理的步骤是基于照相机(CAM)的二维图像。
5.根据权利要求1至3任意一项所述的方法,其特征在于,所述方法还包括以下步骤:从所述对象深度表示中过滤噪声和/或背景信息。
6.根据权利要求1至3和5中任意一项所述的方法,其特征在于,所述方法还包括以下步骤:模糊所述对象深度表示。
7.一种用于生成对象(O)的三维模型的系统,其特征在于,所述系统包括:
a.对象深度表示确定部(ODRP),用于基于由距离测量设备(DMD)执行的对象深度测量来确定所述对象(O)的深度信息;
b.纹理确定部(TDP),用于生成所述对象(O)的纹理;以及
c.映射部(MP),用于使用位移映射并随后将所述纹理映射到使用所述位移映射而生成的所述对象的所述三维模型上来生成所述对象的三维模型。
8.一种在根据权利要求1所述的方法中使用的三维模型生成器,其特征在于,所述三维模型生成器包括:
a.对象深度表示确定部(ODRP),用于确定所述对象(O)的深度信息;
b.纹理确定部(TDP),用于生成所述对象(O)的HD纹理;以及
c.映射部(MP),用于使用位移映射并随后将所述纹理映射到使用所述位移映射而生成的所述对象的所述三维模型上来生成所述对象的三维模型。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP09290359A EP2251832A1 (en) | 2009-05-14 | 2009-05-14 | Method for generating a 3-dimensional model of an object |
EP09290359.0 | 2009-05-14 | ||
PCT/EP2010/056250 WO2010130650A1 (en) | 2009-05-14 | 2010-05-07 | Method for generating a 3-dimensional model of an object |
Publications (1)
Publication Number | Publication Date |
---|---|
CN102422327A true CN102422327A (zh) | 2012-04-18 |
Family
ID=41020915
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2010800204282A Pending CN102422327A (zh) | 2009-05-14 | 2010-05-07 | 用于生成对象的三维模型的方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US20120113110A1 (zh) |
EP (1) | EP2251832A1 (zh) |
JP (1) | JP5465323B2 (zh) |
KR (1) | KR101345458B1 (zh) |
CN (1) | CN102422327A (zh) |
WO (1) | WO2010130650A1 (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104677911A (zh) * | 2013-11-27 | 2015-06-03 | 财团法人工业技术研究院 | 用于机器视觉检验的检验设备和方法 |
CN106715084A (zh) * | 2014-07-28 | 2017-05-24 | 麻省理工学院 | 机器视觉辅助的增材制造的系统和方法 |
US9747680B2 (en) | 2013-11-27 | 2017-08-29 | Industrial Technology Research Institute | Inspection apparatus, method, and computer program product for machine vision inspection |
CN109389665A (zh) * | 2018-08-24 | 2019-02-26 | 先临三维科技股份有限公司 | 三维模型的纹理获取方法、装置、设备和存储介质 |
CN112316434A (zh) * | 2020-11-16 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 地形贴图的加载方法、装置、移动终端及存储介质 |
US11155040B2 (en) | 2016-12-16 | 2021-10-26 | Massachusetts Institute Of Technology | Adaptive material deposition for additive manufacturing |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101862199B1 (ko) | 2012-02-29 | 2018-05-29 | 삼성전자주식회사 | 원거리 획득이 가능한 tof카메라와 스테레오 카메라의 합성 시스템 및 방법 |
KR101454780B1 (ko) | 2013-06-10 | 2014-10-27 | 한국과학기술연구원 | 3d 모델의 텍스쳐 생성 방법 및 장치 |
GB2518019B (en) | 2013-12-13 | 2015-07-22 | Aveva Solutions Ltd | Image rendering of laser scan data |
CN114494550B (zh) * | 2021-12-30 | 2022-11-22 | 北京城市网邻信息技术有限公司 | 基于WebGPU的渲染方法、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030202120A1 (en) * | 2002-04-05 | 2003-10-30 | Mack Newton Eliot | Virtual lighting system |
CN1750046A (zh) * | 2005-10-20 | 2006-03-22 | 浙江大学 | 基于图形处理器的三维水墨效果渲染方法 |
US20070195083A1 (en) * | 2006-02-20 | 2007-08-23 | Korea Advanced Institute Of Science And Technology | Image-based protruded displacement mapping method and bi-layered displacement mapping method using the same |
WO2009004527A2 (en) * | 2007-07-03 | 2009-01-08 | Koninklijke Philips Electronics N.V. | Computing a depth map |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2739447B2 (ja) * | 1995-04-28 | 1998-04-15 | 株式会社エイ・ティ・アール通信システム研究所 | しわの表現可能な三次元像生成装置 |
US6057850A (en) * | 1997-07-15 | 2000-05-02 | Silicon Graphics, Inc. | Blended texture illumination mapping |
US8401336B2 (en) * | 2001-05-04 | 2013-03-19 | Legend3D, Inc. | System and method for rapid image sequence depth enhancement with augmented computer-generated elements |
KR100528343B1 (ko) * | 2003-07-14 | 2005-11-15 | 삼성전자주식회사 | 3차원 객체의 영상 기반 표현 및 편집 방법 및 장치 |
RU2358319C2 (ru) * | 2003-08-29 | 2009-06-10 | Самсунг Электроникс Ко., Лтд. | Способ и устройство для фотореалистического трехмерного моделирования лица на основе изображения |
EP1542167A1 (en) * | 2003-12-09 | 2005-06-15 | Koninklijke Philips Electronics N.V. | Computer graphics processor and method for rendering 3D scenes on a 3D image display screen |
JP2007004318A (ja) * | 2005-06-22 | 2007-01-11 | Sega Corp | 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体 |
US8269765B2 (en) * | 2008-02-28 | 2012-09-18 | Autodesk, Inc. | System and method for removing seam artifacts |
US8890863B1 (en) * | 2011-08-12 | 2014-11-18 | Google Inc. | Automatic method for photo texturing geolocated 3-D models from geolocated imagery |
-
2009
- 2009-05-14 EP EP09290359A patent/EP2251832A1/en not_active Withdrawn
-
2010
- 2010-05-07 US US13/320,113 patent/US20120113110A1/en not_active Abandoned
- 2010-05-07 WO PCT/EP2010/056250 patent/WO2010130650A1/en active Application Filing
- 2010-05-07 KR KR1020117026860A patent/KR101345458B1/ko not_active IP Right Cessation
- 2010-05-07 JP JP2012510230A patent/JP5465323B2/ja not_active Expired - Fee Related
- 2010-05-07 CN CN2010800204282A patent/CN102422327A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030202120A1 (en) * | 2002-04-05 | 2003-10-30 | Mack Newton Eliot | Virtual lighting system |
CN1750046A (zh) * | 2005-10-20 | 2006-03-22 | 浙江大学 | 基于图形处理器的三维水墨效果渲染方法 |
US20070195083A1 (en) * | 2006-02-20 | 2007-08-23 | Korea Advanced Institute Of Science And Technology | Image-based protruded displacement mapping method and bi-layered displacement mapping method using the same |
WO2009004527A2 (en) * | 2007-07-03 | 2009-01-08 | Koninklijke Philips Electronics N.V. | Computing a depth map |
Non-Patent Citations (2)
Title |
---|
刘保权,刘学慧,吴恩华: "基于GPU的实时深度图像前向映射绘制算法", 《软件学报》 * |
朱鉴,吴恩华: "基于GPU的球面深度图实时绘制", 《计算机学报》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104677911A (zh) * | 2013-11-27 | 2015-06-03 | 财团法人工业技术研究院 | 用于机器视觉检验的检验设备和方法 |
US9747680B2 (en) | 2013-11-27 | 2017-08-29 | Industrial Technology Research Institute | Inspection apparatus, method, and computer program product for machine vision inspection |
CN106715084A (zh) * | 2014-07-28 | 2017-05-24 | 麻省理工学院 | 机器视觉辅助的增材制造的系统和方法 |
US10252466B2 (en) | 2014-07-28 | 2019-04-09 | Massachusetts Institute Of Technology | Systems and methods of machine vision assisted additive fabrication |
US11141921B2 (en) | 2014-07-28 | 2021-10-12 | Massachusetts Institute Of Technology | Systems and methods of machine vision assisted additive fabrication |
US11207836B2 (en) | 2014-07-28 | 2021-12-28 | Massachusetts Institute Of Technology | Systems and methods of machine vision assisted additive fabrication |
US11155040B2 (en) | 2016-12-16 | 2021-10-26 | Massachusetts Institute Of Technology | Adaptive material deposition for additive manufacturing |
CN109389665A (zh) * | 2018-08-24 | 2019-02-26 | 先临三维科技股份有限公司 | 三维模型的纹理获取方法、装置、设备和存储介质 |
CN112316434A (zh) * | 2020-11-16 | 2021-02-05 | 腾讯科技(深圳)有限公司 | 地形贴图的加载方法、装置、移动终端及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
EP2251832A1 (en) | 2010-11-17 |
JP5465323B2 (ja) | 2014-04-09 |
JP2012527025A (ja) | 2012-11-01 |
US20120113110A1 (en) | 2012-05-10 |
KR20120007043A (ko) | 2012-01-19 |
KR101345458B1 (ko) | 2013-12-27 |
WO2010130650A1 (en) | 2010-11-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN102422327A (zh) | 用于生成对象的三维模型的方法 | |
CN106803267B (zh) | 基于Kinect的室内场景三维重建方法 | |
KR101554241B1 (ko) | 3차원 이미지에서의 결함성 픽셀 깊이 데이터 값의 깊이 맵 품질 향상을 위한 방법 | |
CN110148217A (zh) | 一种实时三维重建方法、装置及设备 | |
CN113362247A (zh) | 一种激光融合多目相机的语义实景三维重建方法及系统 | |
CN107592449A (zh) | 三维模型建立方法、装置和移动终端 | |
CN107707899B (zh) | 包含运动目标的多视角图像处理方法、装置及电子设备 | |
Khilar et al. | 3D image reconstruction: Techniques, applications and challenges | |
KR101725166B1 (ko) | 2차원 이미지들을 이용하여 3차원 이미지를 재구성하는 방법 및 이를 위한 장치 | |
JP2004252603A5 (zh) | ||
Siv et al. | 3D human face reconstruction using depth sensor of Kinect 2 | |
Choi et al. | Implementation of Real‐Time Post‐Processing for High‐Quality Stereo Vision | |
US20210225073A1 (en) | Method and device for determining a 3d model | |
Chuchvara et al. | A speed-optimized RGB-Z capture system with improved denoising capabilities | |
CN117994444B (zh) | 复杂场景的重建方法、设备及存储介质 | |
Vallet et al. | Fast and accurate visibility computation in urban scenes | |
Park et al. | 3D mesh construction from depth images with occlusion | |
Mijakovska et al. | Triangulation Method in Process of 3D Modelling from Video | |
JP2009251990A (ja) | 物体運動推定装置、物体運動推定方法、物体運動推定プログラムおよびそのプログラムを記録した記録媒体 | |
Tong et al. | 3D body scanning with hairstyle using one time‐of‐flight camera | |
CN116824051A (zh) | 低照度场景下的三维重建方法、系统、设备及介质 | |
Xie | Dance Performance in New Rural Areas Based on 3D Image Reconstruction Technology | |
Sugano et al. | A Study on the Creation of 3D Models of Cultural Properties by SfM Using an Elaborate Diorama of a Non-Existing Excavation Site | |
Landström et al. | Image reconstruction by prioritized incremental normalized convolution | |
JP2004178281A (ja) | 形状復元方法及び形状復元装置、ならびに形状復元プログラム及び記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20120418 |