CN111292239A - 一种三维模型拼接设备及方法 - Google Patents
一种三维模型拼接设备及方法 Download PDFInfo
- Publication number
- CN111292239A CN111292239A CN202010070148.8A CN202010070148A CN111292239A CN 111292239 A CN111292239 A CN 111292239A CN 202010070148 A CN202010070148 A CN 202010070148A CN 111292239 A CN111292239 A CN 111292239A
- Authority
- CN
- China
- Prior art keywords
- region
- image
- image acquisition
- acquisition device
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 60
- 230000003287 optical effect Effects 0.000 claims description 27
- 230000008859 change Effects 0.000 claims description 5
- 230000008901 benefit Effects 0.000 abstract description 4
- 230000015572 biosynthetic process Effects 0.000 description 67
- 238000003786 synthesis reaction Methods 0.000 description 67
- 238000004422 calculation algorithm Methods 0.000 description 22
- 230000000694 effects Effects 0.000 description 17
- 238000005457 optimization Methods 0.000 description 17
- 238000005259 measurement Methods 0.000 description 15
- 238000002474 experimental method Methods 0.000 description 14
- 230000008569 process Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 238000010276 construction Methods 0.000 description 5
- 230000001788 irregular Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000003306 harvesting Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012163 sequencing technique Methods 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 238000010146 3D printing Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 238000004904 shortening Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000005477 standard model Effects 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000001308 synthesis method Methods 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/04—Texture mapping
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种多区域三维模型生成方法及装置,利用图像采集装置采集目标物第一区域的多组图像A;采集目标物第二区域的多组图像B;利用图像采集装置采集目标物第三区域的多组图像C;其中第三区域为目标物第一区域和第二区域相连接区域;多组图像A、多组图像B、多组图像C能够用于合成目标物3D模型。首次提出通过“过渡采集”的方式实现目标物完整信息的采集,从而实现真正的3D模型构建,得到目标物真正体积范围的三维信息,而不仅仅是表面的三维信息。并且可以测量得到目标物更多信息(例如厚度)。
Description
技术领域
本发明涉及形貌测量技术领域,特别涉及3D形貌测量技术领域。
背景技术
在进行3D测量,利用3D测量数据进行加工制造,或是利用3D数据进行展示、识别时,首先应当为目标物建立具有较为准确的3D模型。目前常用的方法包括使用机器视觉的方式,采集物体不同角度的图片,并将这些图片匹配拼接形成3D模型。然而通常的3D采集均是针对物体表面进行的。例如,构建一个古董花瓶的三维模型,采用相机拍摄古董花瓶多个角度图像,然后利用三维构建模型算法合成花瓶的三维模型。但是利用这种方式构建的三维模型只是花瓶的表面,并没有实现真正的三维建模,也无法根据模型测量花瓶的一些参数。例如,无法测量其厚度。对于工业零件及其他一些三维物体也存在类似问题,一旦该物体存在一些“非表面”的部分,将无法准确合成。例如存在较深的孔洞,较高的凸起等。除了视觉方式,激光雷达、结构光的三维构建模式也存在类似问题。
另外,在使用视觉方式时,在采集不同角度图片时,可以待测物不同角度设置多个相机,也可以通过单个或多个相机转动从不同角度采集图片。但无论这两种方式哪一种,都涉及合成速度和合成精度的问题。而合成速度和合成精度在某种程度上是一对矛盾,合成速度的提高会导致最终3D合成精度下降;要提高3D合成精度则需要降低合成速度,通过更多的图片来合成。首先,现有技术中没有能够较好地同时提高合成速度和合成效果的算法。其次,通常认为采集和合成是两个过程,互不影响,并没有统一考虑。这影响了3D合成建模的效率无法兼顾提高合成速度和合成的精度。最后,在现有技术中,也曾提出使用包括转动角度、目标物尺寸、物距的经验公式限定相机位置,从而兼顾合成速度和效果。然而在实际应用中发现:除非有精确量角装置,否则用户对角度并不敏感,难以准确确定角度;目标物尺寸难以准确确定,特别是某些应用场合目标物需要频繁更换,每次测量带来大量额外工作量,并且需要专业设备才能准确测量不规则目标物。测量的误差导致相机位置设定误差,从而会影响采集合成速度和效果;准确度和速度还需要进一步提高。
因此,目前急需解决以下技术问题:①能够构建真实物体三维模型,完全还原真实物体。包括内部、外部信息,从而能够得到物体的所有测量信息。②通过算法能够同时提高合成速度和合成精度;③算法能够和采集图像的方法相互配合从而同时提高合成速度和合成精度。
发明内容
鉴于上述问题,提出了本发明提供一种克服上述问题或者至少部分地解决上述问题的一种三维模型生成方法及装置。
本发明的一方面提供了一种多区域三维模型生成方法及装置,
利用图像采集装置采集目标物第一区域的多组图像A;采集目标物第二区域的多组图像B;
利用图像采集装置采集目标物第三区域的多组图像C;其中第三区域为目标物第一区域和第二区域相连接区域;
多组图像A、多组图像B、多组图像C能够用于合成目标物3D模型。
可选的,其中第三区域的采集密度要高于第一区域或第二区域。
可选的,在进行采集时,
其中L为在相邻两个采集位置时图像采集装置光心的直线距离;f为图像采集装置的焦距;d为图像采集装置感光元件的矩形长度或宽度;T为图像采集装置感光元件沿着光轴到目标物表面的距离;δ为调整系数。
可选的,在采集第一区域时,δ<0.603;优选δ<0.498,δ<0.356,δ<0.311。
可选的,在采集第二区域时,δ<0.587;优选δ<0.443,δ<0.319,δ<0.282。
可选的,在采集第三区域时,δ<0.513;优选δ<0.415,δ<0.301,δ<0.269。
可选的,第一区域为曲率变化平坦或曲率无变化的区域;第二区域为曲率变化剧烈的区域。
可选的,第一区域为目标物外表面区域,第二区域为目标物内表面区域。
可选的,根据第一区域、第二区域或第三区域3D数据,计算与之相关的目标物的几何尺寸,例如目标物厚度。
可选的,图像采集装置在第一方向上转动采集,在第二方向上移动,以实现采集区域覆盖。
可选的,在第二方向上移动的距离满足条件:
其中△Y为相邻两个转动采集位置图像采集装置光心的直线距离;f为图像采集装置的焦距;d为图像采集装置感光元件(CCD)的矩形长度;M为图像采集装置感光元件沿着光轴到目标物表面的距离;μ为经验系数;μ<0.477,特别是μ<0.349或μ<0.254。
本发明的另一方面提供了一种三维模型使用设备,包括所述的方法及装置。
发明点及技术效果
1、首次提出通过“过渡采集”的方式实现目标物完整信息的采集,从而实现真正的3D模型构建,得到目标物真正体积范围的三维信息,而不仅仅是表面的三维信息。并且可以测量得到目标物更多信息(例如厚度)。
2、通过优化相机采集图片的位置的方式来和优化的算法相互配合一起提高合成速度和合成精度。并且优化位置时,无需测量角度,无需测量目标尺寸,适用性更强。
3、通过优化后的图像预处理步骤,提高算法效率。
4、提出了适合3D合成的算法架构,兼顾了合成效率和效果。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例提供的三维模型生成方法的流程图;
图2为本发明实施例提供的3D信息采集设备采集花瓶外表面的示意图;
图3为本发明实施例提供的3D信息采集设备采集花瓶瓶口边缘的示意图;
图4为本发明实施例提供的3D信息采集设备采集花瓶内表面的示意图;
图5为本发明实施例提供的3D合成方法流程图;
附图标记与各部件的对应关系如下:
1载物台,2转动装置,3转动臂,4图像采集装置。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
过渡法3D模型生成
请参考图1,第一步:利用图像采集装置采集目标物表面多个图像。采集这些图像时,对于图像采集装置的采集位置具有优化设置,具体“图像采集装置位置优化”将详述。对于采集的多个图像,应当保证能够通过下述“三维模型生成方法”可以构建目标物表面3D模型。
第二步:利用图像采集装置采集目标物内部多个图像。采集这些图像时,对于图像采集装置的采集位置具有优化设置,具体“图像采集装置位置优化”将详述。对于采集的多个图像,应当保证能够通过下述“三维模型生成方法”可以构建目标物内部3D模型。
目标物的内部可以为目标物中空的部分,例如花瓶的内部。但也可以为目标物表面的一些凹陷。这些凹陷较深时,通过第一步并不能建立其三维模型,此时需要单独使用图像采集设备进行额外采集和建模。
然而,由于内部采集通常比外部表面的采集对于空间的要求更为苛刻,能够容纳图像采集设备的空间非常有限。因此,此时图像采集设备可以更换为小体积的图像采集模组。当然,也可以在第一、二步中均使用小体积图像采集模组。
在进行采集时,可以通过转动图像采集设备的方式采集内部多张图像。如果目标物内部是较长的空间,图像采集装置可以先在一个位置转动采集,再深入另一个位置进行转动采集,如果还不能完整采集,还可以继续深入多个位置。在深入时,图像采集设备逐步深入的位置也是可以进行优化的,具体参见“图像采集装置位置优化”。当然,由于这种位置主要涉及在内部长度方向上的位置,因此优化目标、方式和结果与前述采集周向目标时的优化并不相同。
第三步:确定内部和外部相接的连接部,并利用图像采集装置采集目标物连接部多个图像。采集这些图像时,对于图像采集装置的采集位置要求更为严格,才能保证最终3D完整模型的构建。因此虽然相机位置优化方式大体上与“图像采集装置位置优化”相同,但其参数应更为优选,保证内外两个区域模型最终能够拼接成为完整的3D模型。由于能够获得内外表面的位置,因此目标物的厚度就可以利用内外表面的位置差求得。
第四步:将目标物多个表面图像、内部图像、连接部图像传输至处理器中,利用下述“三维模型生成方法”生成三维模型。
当然上述步骤并不是唯一的顺序,只要能够采集到表面图像、内部图像、连接部图像即可,并不一定非要按上述顺序采集。
生成目标三维模型后,根据三维模型中目标物外表面的位置和内表面的位置,可以计算得到目标物的厚度。进一步,也可以计算出该目标物实际制造所用物料的体积、重量等物理参数。
采集设备
为了实现3D信息的采集,本发明提供了一种用于3D信息采集的图像采集设备,包括图像采集装置4、转动装置2。图像采集装置4用于通过图像采集装置4的采集区域与目标物相对运动采集目标物一组图像;采集区域移动装置,用于驱动图像采集装置4的采集区域与目标物产生相对运动。采集区域为图像采集装置4的有效视场范围。具体采集设备的结构又有不同形态,如下:
①采集区域移动装置为转动结构的采集设备
如图2-图4所示:
目标物固定于载物台1上,转动装置2包括转动驱动装置、转动臂3,其中转动驱动装置可以位于目标物上方,带动转动臂3转动,转动臂3连接有向下延伸的立柱,立柱上安装有图像采集装置4。通过转动装置2的驱动,使得图像采集装置4围绕目标物转动。
在另一种情况下,设备包括圆形载物台1,用于承载目标物;转动装置2包括转动驱动装置、转动臂3,其中转动臂3为弯折形状,水平下段部转动固定于底座,使得竖直上段部绕载物台1转动;图像采集装置4,用于采集目标物图像,安装于转动臂3上段部,特别的图像采集装置4还可以沿转动臂3上下俯仰转动,以调节采集角度。
事实上,使得图像采集装置4绕目标物转动的方式并不限于以上,例如图像采集装置4设置在围绕目标物的环形轨道上、位于转台上、位于转动的悬臂上等各种结构均可以实现。因此,图像采集装置4只要绕目标物转动即可。当然这种转动并不一定是完整的圆周运动,可以根据采集需要只转动一定角度。并且这种转动也不一定必须为圆周运动,图像采集装置4的运动轨迹可以为其它曲线轨迹,但要保证相机从不同角度拍摄物体。
除了上述方式,在某些情况下也可以将相机固定,承载目标物的载物台1转动,使得目标物面向图像采集装置4的方向时刻变化,从而使得图像采集装置4能够从不同角度采集目标物图像。但此时计算时,仍然可以按照转化为图像采集装置4运动的情况下来进行计算,从而使得运动符合相应经验公式(具体下面将详细阐述)。例如,载物台1转动的场景下,可以假设载物台1不动,而图像采集装置4转动。通过利用经验公式设定图像采集装置4转动时拍摄位置的距离,从而推导出其转速,从而反推出载物台1转速,以方便进行转速控制,实现3D采集。
另外,为了使得图像采集装置4能够采集目标物1不同方向的图像,也可以保持图像采集装置4和目标物均静止,通过转动图像采集装置4的光轴来实现。例如:采集区域移动装置为光学扫描装置,使得图像采集装置4不移动或转动的情况下,图像采集装置4的采集区域与目标物产生相对运动。采集区域移动装置还包括光线偏转单元,光线偏转单元被机械驱动发生转动,或被电学驱动导致光路偏折,或本身为多组在空间的排布,从而实现从不同角度获得目标物的图像。光线偏转单元典型地可以为反射镜,通过转动使得目标物不同方向的图像被采集。或直接于空间布置环绕目标物的反射镜,依次使得反射镜的光进入图像采集装置4中。与前述类似,这种情况下光轴的转动可以看作是图像采集装置4虚拟位置的转动,通过这种转换的方法,假设为图像采集装置4转动,从而利用下述经验公式进行计算。
图像采集装置4用于采集目标物的图像,其可以为定焦相机,或变焦相机。特别是即可以为可见光相机,也可以为红外相机。当然,可以理解的是任何具有图像采集功能的装置均可以使用,并不构成对本发明的限定,例如可以为CCD、CMOS、相机、摄像机、工业相机、监视器、摄像头、手机、平板、笔记本、移动终端、可穿戴设备、智能眼镜、智能手表、智能手环以及带有图像采集功能所有设备。
在转动设置时,还可以在设备中加入背景板。背景板位于图像采集装置4对面,并且在图像采集装置4转动时同步转动,在图像采集装置4静止时保持静止。而使得图像采集装置4采集的目标物图像都是以背景板为背景的。当然,也可以为目标物设定完全固定的背景板,以使得无论图像采集装置4如何运动,均可以将该背景板作为采集背景。背景板全部为纯色,或大部分(主体)为纯色。特别是可以为白色板或黑色板,具体颜色可以根据目标物主体颜色来选择。背景板通常为平板,优选也可以为曲面板,例如凹面板、凸面板、球形板,甚至在某些应用场景下,可以为表面为波浪形的背景板;也可以为多种形状拼接板,例如可以用三段平面进行拼接,而整体呈现凹形,或用平面和曲面进行拼接等。
设备还包括处理器,也称处理单元,用以根据图像采集装置4采集的多个图像,根据3D合成算法,合成目标物3D模型,得到目标物3D信息。
除了上述转动方式外,在某些场景下,很难有较大空间容纳转动装置2转动。此时要限定转动装置2的转动空间。例如转动装置2可以包括转动驱动装置和转动臂3,其中转动臂3的旋转轨迹与转动中心距离较小或转动臂3的中心线与转动中心线重合(或近似重合)。转动驱动装置可以包括电机,电机通过齿轮与直线型转动臂3直接连接,此时转动臂3的物理中心线与转动臂3转动中心线重合。在另外一种情况下,转动臂3为L型,包括横臂和竖臂。转动臂3的横臂与转动驱动装置连接,图像采集装置4安装在竖臂上。转动驱动装置包括电机,电机带动横臂转动,与横臂固定连接的竖臂从而相应转动,此时转动中心线与竖臂的物理中心线并不重合。通常为了节约转动空间,这种不重合的距离可以适当减小,或横臂尺寸适当减小。当然,如图4,在使用时,可以将L型转动臂3的竖臂放入目标物内部,而横臂放在外面,就可以减小对转动空间的要求,此时反而要求横臂尺寸更长一些。
②采集区域移动装置为平动结构的采集设备
除了上述转动结构外,图像采集装置4可以以直线轨迹相对目标物运动。例如图像采集装置4位于直线轨道上,沿直线轨道依次经过目标物进行拍摄,在过程中图像采集装置4保持不转动。其中直线轨道也可以用直线悬臂代替。但更佳的是,在图像采集装置4整体沿直线轨迹运动时,其进行一定的转动,从而使得图像采集装置4的光轴朝向目标物。
③采集区域移动装置为无规则运动结构的采集设备
有时,采集区域移动并不规则,例如可以手持图像采集装置4环绕目标物进行拍摄,此时难以以严格的轨道进行运动,图像采集装置4的运动轨迹难以准确预测。因此在这种情况下如何保证拍摄图像能够准确、稳定地合成3D模型是一大难题,目前还未有人提及。更常见的方法是多拍照片,用照片数量的冗余来解决该问题。但这样合成结果并不稳定。虽然目前也有一些通过限定相机转动角度的方式提高合成效果,但实际上用户对于角度并不敏感,即使给出优选角度,在手持拍摄的情况下用户也很难操作。因此本发明提出了通过限定两次拍照相机移动距离的方式来提高合成效果、缩短合成时间的方法。
例如在进行人脸识别过程中,用户可以手持移动终端围绕自己面部进行移动拍摄。只要符合拍照位置的经验要求(具体下述),就可以准确合成面部3D模型,此时与预先存储的标准模型相对比,即可实现人脸识别。例如可以解锁手机,或进行支付验证。
在无规则运动的情况下,可以在移动终端或图像采集装置4中设置传感器,通过传感器测量图像采集装置4两次拍摄时移动的直线距离,在移动距离不满足上述关于L(具体下述条件)的经验条件时,向用户发出报警。报警包括向用户发出声音或灯光报警。当然,也可以在用户移动图像采集装置4时,手机屏幕上显示,或语音实时提示用户移动的距离,以及可移动的最大距离L。实现该功能的传感器包括:测距仪、陀螺仪、加速度计、定位传感器和/或它们的组合。
④多相机方式的采集设备
可以了解,除了通过相机与目标物相对运动从而使得相机可以拍摄目标物不同角度的图像外,还可以在目标物周围不同位置设置多个相机,从而可以实现同时拍摄目标物不同角度的图像。
3D信息采集方法流程
在进行内部、外部、和连接部的采集时,大体的采集流程类似,但细节上又有不同。
在采集目标物外部时,允许图像采集装置4运动的空间相对较大,此时可以采用通常的旋转装置即可实现。例如将目标物,放置在图像采集装置4和背景板之间,放置在载物台1上。优选放置在转动装置2的转轴延长线上,即图像采集装置4转动所围绕的圆心处。这样可以保证图像采集装置4在转动过程中距离目标物的距离基本不变,从而防止由于物距剧烈变化而导致图像采集不清晰,或导致对相机的景深要求过高(增加成本)。由于不同目标物大小不同,为了保证目标物在相机视野内适合的范围。此时可以调节载物台1高度,也可以调节转动装置2的高度。处理器控制上述旋转装置转动,从而使得图像采集装置4绕目标物转动。同时处理器根据“位置优化条件”,在图像采集装置4的位置达到上一个采集位置L距离的位置时,控制图像采集装置4对目标物进行图像采集。处理机接收采集到的多个图像数据,存储在存储器中或发送给云端进行存储。
在采集目标物内部时,由于通常内部空间有限,并且受到开口大小的影响,此时需要使用L型旋转臂,将竖臂插入目标物内部,并驱动竖臂转动,带动图像采集装置4绕目标物内部表面转动。由于内部空间有限,使得图像采集装置4的视场也受到影响,因此很难在一次360°的转动过程中采集完整的内部表面图像。此时可以先将竖臂插入目标物内部某一较浅深度例如Y1,转动采集;再将竖臂更加深入的插入目标物另一略微深的深度Y2,再次转动采集,依次类推,通过不断将竖臂插入不同深度Yn,不断转动采集,就能够获得目标物内部表面的所有图像。每次图像采集装置4向下移动的距离△Y=Yn-Yn-1需要进行优化,具体优化方法可以参考位置优化条件。当然,除了移动竖臂的方式外,也可以通过在竖臂上滑动图像采集装置4,使得图像采集装置4在不同深度位置滑动,实现能够在不同深度进行转动采集。除了上述方式外,也可以使用多个图像采集装置4,每个图像采集装置4按照△Y=Yn-Yn-1的间隔条件设置在竖臂上。在每一圈转动采集时,同时处理器根据“位置优化条件”,在图像采集装置4的位置达到上一个采集位置L距离的位置时,控制图像采集装置4对目标物进行图像采集。处理机接收采集到的多个图像数据,存储在存储器中或发送给云端进行存储。
当然,在采集目标物外表面时,也会碰到相机视场无法覆盖目标物高度(长度)的情况,此时也可以采用上述沿目标物不同高度、长度移动图像采集装置4,在不同高度/长度进行转动采集的方式。具体移动距离或多个相机的间隔与上述优化方式相同。
在采集目标物内部和外部之间的连接部时,调节图像采集装置4的位置,使得其对准连接部,且保证转动装置2能够驱动图像采集装置4绕连接部转动,拍摄连接部的完整图像。优选,除了拍摄连接部图像外,图像采集装置4在转动拍摄时,应当采集连接部和目标物内部同时存在的图像,以及连接部外部同时存在的图像。同样,在每一圈转动采集时,同时处理器根据“位置优化条件”,在图像采集装置4的位置达到上一个采集位置L距离的位置时,控制图像采集装置4对目标物进行图像采集。处理机接收采集到的多个图像数据,存储在存储器中或发送给云端进行存储。
虽然实施例中举例为目标物内部、外部和连接部的采集,并利用这三部分采集到的图像得到目标物完整的、包括内外的3D模型。但可以理解,采集并不限于内部和外部。任何两个采集区域均可以使用这种方法采集,例如采集第一区域图像,采集第二区域图像,采集第一区域与第二区域连接区域的图像,并将这三类图像送入处理器中,根据3D合成算法进行3D模型合成。例如,目标物表面大部分为凹凸起伏不大的平坦区域,但在平坦区域中具有一个深坑或凸起。此时平坦区域可以对应于第一区域,深坑或凸起可以对应于第二区域,平坦区域与深坑或凸起的邻接部分相当于连接区域。分别采集这三部分图像,经过3D合成算法后即可得到该目标物完整3D模型。
图像采集装置位置优化
1、在进行目标物采集时图像采集装置4在第一方向上的位置的优化
第一方向通常为目标物的周向,或者围绕目标物的方向(例如半周,或部分周向)。如在采集花瓶的外表面信息时,第一方向为围绕花瓶的圆周方向。也就是说,图像采集装置4可以绕花瓶一周转动,拍摄花瓶圆周360°范围内的图像。此时,图像采集装置4究竟在哪个位置进行采集需要进行优化,否则将难以兼顾3D模型构建的时间和效果。当然,除了绕目标转动的方式外,也可以布置多个图像采集装置4同时进行采集(具体可以参见“多相机方式的采集设备”),此时图像采集装置4位置依然需要优化,优化的经验条件与上述一致,此时由于有多个图像采集装置4,因此优化的位置就是两个相邻图像采集装置4之间的位置。
采集区域移动装置为转动结构,图像采集装置4围绕目标物转动,在进行3D采集时,图像采集装置4在不同采集位置光轴方向相对于目标物发生变化,此时相邻两个图像采集装置4的位置,或图像采集装置4相邻两个采集位置满足如下条件:
其中L为相邻两个采集位置图像采集装置4光心的直线距离;f为图像采集装置4的焦距;d为图像采集装置4感光元件(CCD)的矩形长度或宽度;T为图像采集装置4感光元件沿着光轴到目标物表面的距离;δ为调整系数。
当上述两个位置是沿图像采集装置4感光元件长度方向时,d取矩形长度;当上述两个位置是沿图像采集装置4感光元件宽度方向时,d取矩形宽度。
图像采集装置4在两个位置中的任何一个位置时,感光元件沿着光轴到目标物表面的距离作为T。除了这种方法外,在另一种情况下,L为An、An+1两个图像采集装置光心的直线距离,与An、An+1两个图像采集装置4相邻的An-1、An+2两个图像采集装置4和An、An+1两个图像采集装置4各自感光元件沿着光轴到目标物1表面的距离分别为Tn-1、Tn、Tn+1、Tn+2,T=(Tn-1+Tn+Tn+1+Tn+2)/4。当然可以不只限于相邻4个位置,也可以用更多的位置进行平均值计算。
如上所述,L应当为两个图像采集装置4光心的直线距离,但由于图像采集装置4光心位置在某些情况下并不容易确定,因此在某些情况下也可以使用图像采集装置4的感光元件中心、图像采集装置4的几何中心、图像采集装置4与云台(或平台、支架)连接的轴中心、镜头近端或远端表面的中心替代,经过试验发现由此带来的误差是在可接受的范围内的,因此上述范围也在本发明的保护范围之内。
通常情况下,现有技术中均采用物体尺寸、视场角等参数作为推算相机位置的方式,并且两个相机之间的位置关系也采用角度表达。由于角度在实际使用过程中并不好测量,因此在实际使用时较为不便。并且,物体尺寸会随着测量物体的变化而改变。例如,在进行一个成年人头部3D信息采集后,再进行儿童头部采集时,就需要重新测量头部尺寸,重新推算。上述不方便的测量以及多次重新测量都会带来测量的误差,从而导致相机位置推算错误。而本方案根据大量实验数据,给出了相机位置需要满足的经验条件,不仅避免测量难以准确测量的角度,而且不需要直接测量物体大小尺寸。经验条件中d、f均为相机固定参数,在购买相机、镜头时,厂家即会给出相应参数,无需测量。而T仅为一个直线距离,用传统测量方法,例如直尺、激光测距仪均可以很便捷的测量得到。因此,本发明的经验公式使得准备过程变得方便快捷,同时也提高了相机位置的排布准确度,使得相机能够设置在优化的位置中,从而在同时兼顾了3D合成精度和速度,具体实验数据参见下述。
利用本发明装置,进行实验,得到了如下实验结果。
更换相机镜头,再次实验,得到了如下实验结果。
更换相机镜头,再次实验,得到了如下实验结果。
从上述实验结果及大量实验经验可以得出,δ的值应当满足δ<0.603,此时已经能够合成部分3D模型,虽然有一部分无法自动合成,但是在要求不高的情况下也是可以接受的,并且可以通过手动或者更换算法的方式弥补无法合成的部分。特别是δ的值满足δ<0.498时,能够最佳地兼顾合成效果和合成时间的平衡;为了获得更好的合成效果可以选择δ<0.356,此时合成时间会上升,但合成质量更好。当然为了进一步提高合成效果,可以选择δ<0.311。而当δ为0.681时,已经无法合成。但这里应当注意,以上范围仅仅是最佳实施例,并不构成对保护范围的限定。
并且从上述实验可以看出,对于相机拍照位置的确定,只需要获取相机参数(焦距f、CCD尺寸)、相机CCD与物体表面的距离T即可根据上述公式得到,这使得在进行设备设计和调试时变得容易。由于相机参数(焦距f、CCD尺寸)在相机购买时就已经确定,并且是产品说明中就会标示的,很容易获得。因此根据上述公式很容易就能够计算得到相机位置,而不需要再进行繁琐的视场角测量和物体尺寸测量。特别是在一些场合中,需要更换相机镜头,那么本发明的方法直接更换镜头常规参数f计算即可得到相机位置;同理,在采集不同物体时,由于物体大小不同,对于物体尺寸的测量也较为繁琐。而使用本发明的方法,无需进行物体尺寸测量,能够更为便捷地确定相机位置。并且使用本发明确定的相机位置,能够兼顾合成时间和合成效果。因此,上述经验条件是本发明的发明点之一。
以上是采集目标物外表面图像进行3D合成时得到的数据,根据上述类似方法,可以进行目标物内表面以及目标物连接部实验,同样可以得到相应数据如下:
在进行内表面采集时,δ的值应当满足δ<0.587,此时已经能够合成部分3D模型,虽然有一部分无法自动合成,但是在要求不高的情况下也是可以接受的,并且可以通过手动或者更换算法的方式弥补无法合成的部分。特别是δ的值满足δ<0.443时,能够最佳地兼顾合成效果和合成时间的平衡;为了获得更好的合成效果可以选择δ<0.319,此时合成时间会上升,但合成质量更好。当然为了进一步提高合成效果,可以选择δ<0.282。而当δ为0.675时,已经无法合成。但这里应当注意,以上范围仅仅是最佳实施例,并不构成对保护范围的限定。
在进行连接部采集时,δ的值应当满足δ<0.513,此时配合内外表面的图像已经能够合成部分3D模型,形成较为完整的包括内外表面的3D模型,虽然有一部分无法自动合成,但是在要求不高的情况下也是可以接受的,并且可以通过手动或者更换算法的方式弥补无法合成的部分。特别是δ的值满足δ<0.415时,能够最佳地兼顾合成效果和合成时间的平衡;为了获得更好的合成效果可以选择δ<0.301,此时合成时间会上升,但合成质量更好。当然为了进一步提高合成效果,可以选择δ<0.269。而当δ为0.660时,已经无法合成。但这里应当注意,以上范围仅仅是最佳实施例,并不构成对保护范围的限定。
以上数据仅为验证该公式条件所做实验得到的,并不对发明构成限定。即使没有这些数据,也不影响该公式的客观性。本领域技术人员可以根据需要调整设备参数和步骤细节进行实验,得到其他数据也是符合该公式条件的。
2、图像采集装置在第二方向上的位置的优化
某些时候,目标物体积过大,图像采集装置4仅在一个位置绕目标物转动并不能采集到目标物的所有信息。此时需要在第二方向上移动图像采集装置4,使得图像采集装置4能够在第二方向上不同位置分别转动采集。第二方向通常为目标物的竖直轴向。如在采集花瓶的外表面信息时,第而方向为花瓶的高度方向。也就是说,图像采集装置4可以沿花瓶高度移动,在不同高度再进行转动采集。此时,图像采集装置4究竟在哪个高度位置进行采集需要进行优化,否则将难以兼顾3D模型构建的时间和效果。当然,除了图像采集装置4移动的方式外,也可以布置多个图像采集装置4同时进行采集,此时图像采集装置4位置依然需要优化,优化的经验条件与上述一致,此时由于有多个图像采集装置4,因此优化的位置就是两个相邻的进行转动的位置Y1、Y2。
在进行3D采集时,图像采集装置4在目标物第二方向上的移动的位置满足如下条件:
其中△Y为相邻两个转动采集位置图像采集装置4光心的直线距离;f为图像采集装置4的焦距;d为图像采集装置4感光元件(CCD)的矩形长度;M为图像采集装置4感光元件沿着光轴到目标物表面的距离;μ为经验系数。
当上述两个位置是沿图像采集装置4感光元件长度方向时,d取矩形长度;当上述两个位置是沿图像采集装置4感光元件宽度方向时,d取矩形宽度。
图像采集装置4在上述两个位置中的任何一个位置时,感光元件沿着光轴到目标物表面的距离作为M。
如上所述,△Y应当为两个图像采集装置4光心的直线距离,但由于图像采集装置4光心位置在某些情况下并不容易确定,因此在某些情况下也可以使用图像采集装置4的感光元件中心、图像采集装置4的几何中心、图像采集装置4与云台(或平台、支架)连接的轴中心、镜头近端或远端表面的中心替代,经过试验发现由此带来的误差是在可接受的范围内的,因此上述范围也在本发明的保护范围之内。
利用本发明装置,进行实验,得到了如下实验结果。
从上述实验结果及大量实验经验可以得出,μ的值应当满足μ<0.477,此时已经能够合成部分3D模型,虽然有一部分无法自动合成,但是在要求不高的情况下也是可以接受的,并且可以通过手动或者更换算法的方式弥补无法合成的部分。特别是μ的值满足μ<0.349时,能够最佳地兼顾合成效果和合成时间的平衡;为了获得更好的合成效果可以选择μ<0.254,此时合成时间会上升,但合成质量更好。而当μ为0.5151时,已经无法合成。但这里应当注意,以上范围仅仅是最佳实施例,并不构成对保护范围的限定。
以上数据仅为验证该公式条件所做实验得到的,并不对发明构成限定。即使没有这些数据,也不影响该公式的客观性。本领域技术人员可以根据需要调整设备参数和步骤细节进行实验,得到其他数据也是符合该公式条件的。
3D合成方法流程
根据上述采集方法,图像采集装置4通过与目标物相对运动而采集目标物一组图像;
处理单元根据上述一组图像中的多个图像得到目标物的3D信息。具体算法如下。当然,处理单元可以直接设置在图像采集装置4所在的壳体内,也可以通过数据线或通过无线方式与图像采集装置4连接。例如可以使用独立的计算机、服务器及集群服务器等作为处理单元,图像采集装置4采集到的图像数据传输至其上,进行3D合成。同时,也可以将图像采集装置4的数据传输至云平台,利用云平台的强大计算能力进行3D合成。
利用上述采集到的图片进行3D合成时,可以采用现有算法实现,也可以采用本发明提出的优化的算法,主要包括如下步骤,请参考图5:
步骤1:对所有输入照片进行图像增强处理。采用下述滤波器增强原始照片的反差和同时压制噪声。
式中:g(x,y)为原始影像在(x,y)处灰度值,f(x,y)为经过Wallis滤波器增强后该处的灰度值,mg为原始影像局部灰度均值,sg为原始影像局部灰度标准偏差,mf为变换后的影像局部灰度目标值,sf为变换后影像局部灰度标准偏差目标值。c∈(0,1)为影像方差的扩展常数,b∈(0,1)为影像亮度系数常数。
该滤波器可以大大增强影像中不同尺度的影像纹理模式,所以在提取影像的点特征时可以提高特征点的数量和精度,在照片特征匹配中则提高了匹配结果可靠性和精度。
步骤2:对输入的所有照片进行特征点提取,并进行特征点匹配,获取稀疏特征点。采用SURF算子对照片进行特征点提取与匹配。SURF特征匹配方法主要包含三个过程,特征点检测、特征点描述和特征点匹配。该方法使用Hessian矩阵来检测特征点,用箱式滤波器(Box Filters)来代替二阶高斯滤波,用积分图像来加速卷积以提高计算速度,并减少了局部影像特征描述符的维数,来加快匹配速度。主要步骤包括①构建Hessian矩阵,生成所有的兴趣点,用于特征提取,构建Hessian矩阵的目的是为了生成图像稳定的边缘点(突变点);②构建尺度空间特征点定位,将经过Hessian矩阵处理的每个像素点与二维图像空间和尺度空间邻域内的26个点进行比较,初步定位出关键点,再经过滤除能量比较弱的关键点以及错误定位的关键点,筛选出最终的稳定的特征点;③特征点主方向的确定,采用的是统计特征点圆形邻域内的harr小波特征。即在特征点的圆形邻域内,统计60度扇形内所有点的水平、垂直harr小波特征总和,然后扇形以0.2弧度大小的间隔进行转动并再次统计该区域内harr小波特征值之后,最后将值最大的那个扇形的方向作为该特征点的主方向;④生成64维特征点描述向量,特征点周围取一个4*4的矩形区域块,但是所取得矩形区域方向是沿着特征点的主方向。每个子区域统计25个像素的水平方向和垂直方向的haar小波特征,这里的水平和垂直方向都是相对主方向而言的。该haar小波特征为水平方向值之后、垂直方向值之后、水平方向绝对值之后以及垂直方向绝对值之和4个方向,把这4个值作为每个子块区域的特征向量,所以一共有4*4*4=64维向量作为Surf特征的描述子;⑤特征点匹配,通过计算两个特征点间的欧式距离来确定匹配度,欧氏距离越短,代表两个特征点的匹配度越好。
步骤3:输入匹配的特征点坐标,利用光束法平差,解算稀疏的人脸三维点云和拍照相机的位置和姿态数据,即获得了稀疏人脸模型三维点云和位置的模型坐标值;以稀疏特征点为初值,进行多视照片稠密匹配,获取得到密集点云数据。该过程主要有四个步骤:立体像对选择、深度图计算、深度图优化、深度图融合。针对输入数据集里的每一张影像,我们选择一张参考影像形成一个立体像对,用于计算深度图。因此我们可以得到所有影像的粗略的深度图,这些深度图可能包含噪声和错误,我们利用它的邻域深度图进行一致性检查,来优化每一张影像的深度图。最后进行深度图融合,得到整个场景的三维点云。
步骤4:利用密集点云进行人脸曲面重建。包括定义八叉树、设置函数空间、创建向量场、求解泊松方程、提取等值面几个过程。由梯度关系得到采样点和指示函数的积分关系,根据积分关系获得点云的向量场,计算指示函数梯度场的逼近,构成泊松方程。根据泊松方程使用矩阵迭代求出近似解,采用移动方体算法提取等值面,对所测点云重构出被测物体的模型。
步骤5:人脸模型的全自动纹理贴图。表面模型构建完成后,进行纹理贴图。主要过程包括:①纹理数据获取通过图像重建目标的表面三角面格网;②重建模型三角面的可见性分析。利用图像的标定信息计算每个三角面的可见图像集以及最优参考图像;③三角面聚类生成纹理贴片。根据三角面的可见图像集、最优参考图像以及三角面的邻域拓扑关系,将三角面聚类生成为若干参考图像纹理贴片;④纹理贴片自动排序生成纹理图像。对生成的纹理贴片,按照其大小关系进行排序,生成包围面积最小的纹理图像,得到每个三角面的纹理映射坐标。
应当注意,上述算法是本发明的优化算法,本算法与图像采集条件相互配合,使用该算法兼顾了合成的时间和质量,是本发明的发明点之一。当然,使用现有技术中常规3D合成算法也可以实现,只是合成效果和速度会受到一定影响。
三维模型的利用
利用上述方法可以合成目标物的三维模型,从而将现实物理世界的物体完整地数字化。这些数字化的信息可以用来进行物体的识别、比对,用来产品设计,用来进行3D展示,用来辅助医疗等多种用途。
例如,在采集了人脸的三维信息后,就可以将其作为识别比对的基础,进行人脸3D识别。
例如,利用人体三维模型可以为用户设计更合身的衣服。
例如,生成工件的三维模型后,可以直接进行3D打印加工。
例如,生成了人体内部的三维模型后,可以将人体信息数字化,从而用来模拟手术过程,用于医疗教学。
上述目标物体、目标物、及物体皆表示预获取三维信息的对象。可以为一实体物体,也可以为多个物体组成物。例如可以为头部、手部等。所述目标物的三维信息包括三维图像、三维点云、三维网格、局部三维特征、三维尺寸及一切带有目标物三维特征的参数。本发明里所谓的三维是指具有XYZ三个方向信息,特别是具有深度信息,与只有二维平面信息具有本质区别。也与一些称为三维、全景、全息、三维,但实际上只包括二维信息,特别是不包括深度信息的定义有本质区别。
本发明所说的采集区域是指图像采集装置4(例如相机)能够拍摄的范围。本发明中的图像采集装置4可以为CCD、CMOS、相机、摄像机、工业相机、监视器、摄像头、手机、平板、笔记本、移动终端、可穿戴设备、智能眼镜、智能手表、智能手环以及带有图像采集功能所有设备。
本发明所述的转动运动,为在采集过程中前一位置采集平面和后一位置采集平面发生交叉而不是平行,或前一位置图像采集装置4光轴和后一位置图像采集位置光轴发生交叉而不是平行。也就是说,图像采集装置4的采集区域环绕或部分环绕目标物运动,均可以认为是两者相对转动。虽然本发明实施例中列举更多的为有轨道的转动运动,但是可以理解,只要图像采集设备的采集区域和目标物之间发生非平行的运动,均是转动范畴,均可以使用本0.发明的限定条件。本发明保护范围并不限定于实施例中的有轨道转动。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的基于本发明装置中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
至此,本领域技术人员应认识到,虽然本文已详尽示出和描述了本发明的多个示例性实施例,但是,在不脱离本发明精神和范围的情况下,仍可根据本发明公开的内容直接确定或推导出符合本发明原理的许多其他变型或修改。因此,本发明的范围应被理解和认定为覆盖了所有这些其他变型或修改。
Claims (12)
1.一种多区域三维模型生成方法及装置,其特征在于:
利用图像采集装置采集目标物第一区域的多组图像A;采集目标物第二区域的多组图像B;
利用图像采集装置采集目标物第三区域的多组图像C;其中第三区域为目标物第一区域和第二区域相连接区域;
多组图像A、多组图像B、多组图像C能够用于合成目标物3D模型。
2.如权利要求1所述方法及装置,其特征在于:其中第三区域的采集密度要高于第一区域或第二区域。
4.如权利要求1所述方法及装置,其特征在于:在采集第一区域时,δ<0.603;优选δ<0.498,δ<0.356,δ<0.311。
5.如权利要求1所述方法及装置,其特征在于:在采集第二区域时,δ<0.587;优选δ<0.443,δ<0.319,δ<0.282。
6.如权利要求1所述方法及装置,其特征在于:在采集第三区域时,δ<0.513;优选δ<0.415,δ<0.301,δ<0.269。
7.如权利要求1所述方法及装置,其特征在于:第一区域为曲率变化平坦或曲率无变化的区域;第二区域为曲率变化剧烈的区域。
8.如权利要求1所述方法及装置,其特征在于:第一区域为目标物外表面区域,第二区域为目标物内表面区域。
9.如权利要求1所述方法及装置,其特征在于:根据第一区域、第二区域或第三区域3D数据,计算与之相关的目标物的几何尺寸,例如目标物厚度。
10.如权利要求1所述方法及装置,其特征在于:图像采集装置在第一方向上转动采集,在第二方向上移动,以实现采集区域覆盖。
12.一种三维模型使用设备,其特征在于,包括如权利要求1-11所述的方法及装置。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010070148.8A CN111292239B (zh) | 2020-01-21 | 2020-01-21 | 一种三维模型拼接设备及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010070148.8A CN111292239B (zh) | 2020-01-21 | 2020-01-21 | 一种三维模型拼接设备及方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111292239A true CN111292239A (zh) | 2020-06-16 |
CN111292239B CN111292239B (zh) | 2021-03-12 |
Family
ID=71030007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010070148.8A Active CN111292239B (zh) | 2020-01-21 | 2020-01-21 | 一种三维模型拼接设备及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111292239B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257537A (zh) * | 2020-10-15 | 2021-01-22 | 天目爱视(北京)科技有限公司 | 一种智能多点三维信息采集设备 |
CN112254671A (zh) * | 2020-10-15 | 2021-01-22 | 天目爱视(北京)科技有限公司 | 一种多次组合式3d采集系统及方法 |
CN112254677A (zh) * | 2020-10-15 | 2021-01-22 | 天目爱视(北京)科技有限公司 | 一种基于手持设备的多位置组合式3d采集系统及方法 |
CN113393512A (zh) * | 2021-05-19 | 2021-09-14 | 哈尔滨工业大学 | 基于二维超声图像的甲状腺体积自动估算方法及系统 |
CN113962993A (zh) * | 2021-12-21 | 2022-01-21 | 武汉霖杉工贸有限公司 | 基于计算机视觉的纸杯原材料质量检测方法 |
CN113985438A (zh) * | 2021-11-12 | 2022-01-28 | 河北农业大学 | 一种植物三维模型重建系统及方法 |
WO2022078433A1 (zh) * | 2020-10-15 | 2022-04-21 | 左忠斌 | 一种多点组合式3d采集系统及方法 |
CN114396890A (zh) * | 2022-01-13 | 2022-04-26 | 天津大学 | 一种内腔表面三维轮廓测量装置及方法 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103293163A (zh) * | 2013-05-14 | 2013-09-11 | 天津名唐环保科技有限公司 | 一种小张马口铁双面质量检测方法及检测系统 |
CN103344196A (zh) * | 2013-07-11 | 2013-10-09 | 上海大学 | 单镜头结构光立体成像的装置及对管道内场景立体成像的方法 |
CN103472668A (zh) * | 2013-09-24 | 2013-12-25 | 东北大学 | 一种立体成像装置及方法 |
US20160001505A1 (en) * | 2014-07-07 | 2016-01-07 | Mimaki Engineering Co., Ltd. | Apparatus for modeling three-dimensional object and method for modeling three-dimensional object |
CN105578985A (zh) * | 2013-12-19 | 2016-05-11 | 皇家飞利浦有限公司 | 对象跟踪设备 |
CN106580495A (zh) * | 2016-12-23 | 2017-04-26 | 大连三生科技发展有限公司 | 一种牙科3d打印系统 |
CN106725936A (zh) * | 2016-12-23 | 2017-05-31 | 大连三生科技发展有限公司 | 一种基于云技术的牙科3d打印系统 |
CN107423772A (zh) * | 2017-08-08 | 2017-12-01 | 南京理工大学 | 一种新的基于ransac的双目图像特征匹配方法 |
CN109035379A (zh) * | 2018-09-10 | 2018-12-18 | 天目爱视(北京)科技有限公司 | 一种目标物360°3d测量及信息获取装置 |
CN109882711A (zh) * | 2019-03-19 | 2019-06-14 | 卢连欢 | 图像采集装置和人像雕刻方法 |
CN110460835A (zh) * | 2018-05-07 | 2019-11-15 | 佳能株式会社 | 图像处理装置及其控制方法和计算机可读存储介质 |
-
2020
- 2020-01-21 CN CN202010070148.8A patent/CN111292239B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103293163A (zh) * | 2013-05-14 | 2013-09-11 | 天津名唐环保科技有限公司 | 一种小张马口铁双面质量检测方法及检测系统 |
CN103344196A (zh) * | 2013-07-11 | 2013-10-09 | 上海大学 | 单镜头结构光立体成像的装置及对管道内场景立体成像的方法 |
CN103472668A (zh) * | 2013-09-24 | 2013-12-25 | 东北大学 | 一种立体成像装置及方法 |
CN105578985A (zh) * | 2013-12-19 | 2016-05-11 | 皇家飞利浦有限公司 | 对象跟踪设备 |
US20160001505A1 (en) * | 2014-07-07 | 2016-01-07 | Mimaki Engineering Co., Ltd. | Apparatus for modeling three-dimensional object and method for modeling three-dimensional object |
CN106580495A (zh) * | 2016-12-23 | 2017-04-26 | 大连三生科技发展有限公司 | 一种牙科3d打印系统 |
CN106725936A (zh) * | 2016-12-23 | 2017-05-31 | 大连三生科技发展有限公司 | 一种基于云技术的牙科3d打印系统 |
CN107423772A (zh) * | 2017-08-08 | 2017-12-01 | 南京理工大学 | 一种新的基于ransac的双目图像特征匹配方法 |
CN110460835A (zh) * | 2018-05-07 | 2019-11-15 | 佳能株式会社 | 图像处理装置及其控制方法和计算机可读存储介质 |
CN109035379A (zh) * | 2018-09-10 | 2018-12-18 | 天目爱视(北京)科技有限公司 | 一种目标物360°3d测量及信息获取装置 |
CN109882711A (zh) * | 2019-03-19 | 2019-06-14 | 卢连欢 | 图像采集装置和人像雕刻方法 |
Non-Patent Citations (1)
Title |
---|
张文博: "三维扫描技术在封头变形检测中的应用", 《电站辅机》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112257537A (zh) * | 2020-10-15 | 2021-01-22 | 天目爱视(北京)科技有限公司 | 一种智能多点三维信息采集设备 |
CN112254671A (zh) * | 2020-10-15 | 2021-01-22 | 天目爱视(北京)科技有限公司 | 一种多次组合式3d采集系统及方法 |
CN112254677A (zh) * | 2020-10-15 | 2021-01-22 | 天目爱视(北京)科技有限公司 | 一种基于手持设备的多位置组合式3d采集系统及方法 |
WO2022078433A1 (zh) * | 2020-10-15 | 2022-04-21 | 左忠斌 | 一种多点组合式3d采集系统及方法 |
CN113393512A (zh) * | 2021-05-19 | 2021-09-14 | 哈尔滨工业大学 | 基于二维超声图像的甲状腺体积自动估算方法及系统 |
CN113393512B (zh) * | 2021-05-19 | 2022-11-11 | 哈尔滨工业大学 | 基于二维超声图像的甲状腺体积自动估算方法及系统 |
CN113985438A (zh) * | 2021-11-12 | 2022-01-28 | 河北农业大学 | 一种植物三维模型重建系统及方法 |
CN113962993A (zh) * | 2021-12-21 | 2022-01-21 | 武汉霖杉工贸有限公司 | 基于计算机视觉的纸杯原材料质量检测方法 |
CN113962993B (zh) * | 2021-12-21 | 2022-03-15 | 武汉霖杉工贸有限公司 | 基于计算机视觉的纸杯原材料质量检测方法 |
CN114396890A (zh) * | 2022-01-13 | 2022-04-26 | 天津大学 | 一种内腔表面三维轮廓测量装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111292239B (zh) | 2021-03-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111292239B (zh) | 一种三维模型拼接设备及方法 | |
CN111060023B (zh) | 一种高精度3d信息采集的设备及方法 | |
CN111292364B (zh) | 一种三维模型构建过程中图像快速匹配的方法 | |
CN111076674B (zh) | 一种近距离目标物3d采集设备 | |
CN111238374B (zh) | 一种基于坐标测量的三维模型构建及测量方法 | |
CN111442721B (zh) | 一种基于多激光测距和测角的标定设备及方法 | |
CN111028341B (zh) | 一种三维模型生成方法 | |
CN111429523B (zh) | 一种在3d建模中远距离标定方法 | |
CN111445529B (zh) | 一种基于多激光测距的标定设备及方法 | |
CN111060008B (zh) | 一种3d智能视觉设备 | |
CN111445528B (zh) | 一种在3d建模中多相机共同标定方法 | |
CN111340959B (zh) | 一种基于直方图匹配的三维模型无缝纹理贴图方法 | |
CN211178345U (zh) | 一种三维采集设备 | |
CN112257537B (zh) | 一种智能多点三维信息采集设备 | |
CN112304222A (zh) | 一种背景板同步旋转的3d信息采集设备 | |
CN111208138B (zh) | 一种智能木料识别装置 | |
CN112254638A (zh) | 一种可俯仰调节的智能视觉3d信息采集设备 | |
CN111325780B (zh) | 一种基于图像筛选的3d模型快速构建方法 | |
WO2021115297A1 (zh) | 3d信息采集的设备及方法 | |
CN111649690B (zh) | 一种能够手持的3d信息采集的设备及方法 | |
CN211375622U (zh) | 一种高精度虹膜3d信息采集设备及虹膜识别设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |