CN110956664A - 一种手持式三维扫描系统的相机位置实时重定位方法 - Google Patents
一种手持式三维扫描系统的相机位置实时重定位方法 Download PDFInfo
- Publication number
- CN110956664A CN110956664A CN201911299020.2A CN201911299020A CN110956664A CN 110956664 A CN110956664 A CN 110956664A CN 201911299020 A CN201911299020 A CN 201911299020A CN 110956664 A CN110956664 A CN 110956664A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- fpfh
- orb
- image
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种手持式三维扫描系统的相机位置实时重定位方法,包括如下执行过程:在算法执行前,预先采集m帧RGB图像I,得到图像集A,A={I1,I2,...,Im},以及和I一一对应的点云P,得到点云集B,B={P1,P2,…,Pm},P={p1,p2,...,pN},其中p=(x,y,z);在提取三维特征之前,进行了点云的去中心化和主成分分析,使得所有点云都位于世界坐标原点,并且主方向保持一致,尽量消除了各个点云位姿之间的差异。
Description
技术领域
本发明涉及手持式三维扫描仪技术领域,尤其涉及一种手持式三维扫描系统的相机位置实时重定位方法。
背景技术
采用结构光的三维扫描一次只能扫描物体的一个侧面,要得到物体完整的形状信息,常常需要从物体的不同角度进行扫描,然后依靠相邻两组数据的重合部分将各侧面扫描到的数据依次进行坐标转换后,合成为同一坐标系的一组数据,即数据拼接。这就要求相邻的两组数据重合程序非常高,但是由于图像噪声,相机运动过快,相机运动模糊等原因,常常导致新采集的数据与原有数据重合程度过低,无法继续拼接,导致扫描中断,从而造成相机位置丢失。如果需要继续扫描,则需要在已有数据中找到与新采集数据重合程度最高的一组,并进行拼接,实现相机位置的重定位。
传统的重定位方法多采用暴力匹配或基于二维图像特征点的词袋模型方法。暴力匹配需要对每一帧进行匹配,计算量过大,无法满足实时性需求。基于二维图像特征点的词袋模型丢失了三维信息,并且丢失了各特征点之间的邻接关系,对旋转和缩放不够敏感,且受光照影响较大,因此使用该方法常常出现误判。
发明内容
本发明的目的在于针对上述现有技术的不足,提供了一种手持式三维扫描系统的相机位置实时重定位方法,该方法同时使用修正后的二维特征以及三维特征进行图像和点云匹配,大大提高了重定位的准确度和灵敏度,能够在相机位置丢失后实时准确的进行相机位置的重定位,提升了用户体验和扫描效率。
为实现上述目的,本发明采用了如下技术方案:
本发明提供了一种手持式三维扫描系统的相机位置实时重定位方法,包括如下执行过程:
在算法执行前,预先采集m帧RGB图像I,得到图像集A,A={I1,I2,…,Im},以及和I一一对应的点云P,得到点云集B,B={P1,P2,…,Pm},P={p1,p2,…,pN},其中p=(x,y,z);
S1、对B中的每一帧点云P进行主成分分析:计算P的质心c,对P进行去中心化处理,即p1=p1-c,p2=p2-c,…,pN=pN-c;
计算P的协方差矩阵COV,对COV进行特征值分解,得到3个特征向量vx,vy,vz,对此3个特征向量进行校正,保证两两垂直,即vx=vy×vz,vy=vx×vz,vz=vx×vy;然后将校正后的vx,vy,vz分别作为行向量组成特征向量矩阵R,通过R对P进行空间变换,即p1=p1R-1,p2=p2R-1,…,pN=pNR-1;其中:
S2、对B中的每一帧点云P,计算P的快速点特征直方图(Fast Point FeatureHistograms,FPFH)特征,得到P的FPFH特征集合M,M={m1,m2,…,mn},其中m=(a1,a2,…,a33),m为FPFH特征描述向量;
S3、对A中的每一帧图像I,利用R进行透视变换;设(u,v)为原始图像像素坐标,w为原始图像宽度,(u',v')为变换后像素坐标,w'为变换后宽度,透视变换的计算公式为:[u',v',w']=[u,v,w]R-1;
S4、对A中的每一帧图像I,计算I的ORB(Oriented FAST and Rotated BRIEF)特征,得到I的ORB特征集合N,N={n1,n2,…,nn},其中n=(b1,b2,…,b32),n为ORB特征描述向量。
进一步,将m个所述特征集合M集合到一起,利用K-Means算法构造一个包含K个词汇的单词表α1,α2,…,αn,即FPFH特征词典D-FPFH,将D-FPFH保存到本地存储器。
进一步,将m个所述特征集合N集合到一起,利用K-Means算法构造一个包含K个词汇的单词表β1,β2,…,βn,即ORB特征词典D-ORB,将D-ORB保存到本地存储器。
进一步,还包括如下执行过程:
S5、将D-FPFH和D-ORB从本地存储器加载到内存;
S6、对扫描后拼接成功的每一帧图像I和对应的点云P:依次执行步骤所述S1~S4;
S7、通过查找所述D-FPFH中的单词,点云P上提取的所述FPFH特征可以转换为单词表示:
1·α1+1·α2+0·α3+…+1·αn=[α1,α2,…,αn][1,1,0,…,1];
因为D-FPFH是固定的,所以一帧点云就可以用向量简化表示:α=[1,1,0,…,1];
S8、通过查找所述D-ORB中的单词,图像I上提取的所述ORB特征可以转换为单词表示:
1·β1+1·β2+0·β3+…+1·βn=[β1,β2,…,βn][1,1,0,…,1],
因为D-ORB是固定的,所以一帧图像就可以用向量简化表示:β=[1,1,0,…,1];
S9、将α放入集合A,将β放入集合B;
S10、若扫描未中断,循环执行步骤所述S6~S9;
S11、若扫描中断,将触发重定位功能,对新采集的一帧图像I'和点云P',依次执行步骤所述S1~S4和所述S7~S8得到P'的简化表示向量α'和I'的简化表示向量β';
S12、对A中的每一个α,计算α和α'的相似程度sA,取sA最高的一帧点云P和P'进行ICP(Iterative Closest Point)拼接,如果拼接成功,则说明重定位成功;其中:
S13、对B中的每一个β,计算β和β'的相似程度sB,取sB最高的一帧图像I对应的P和P'进行ICP(Iterative Closest Point)拼接,如果拼接成功,则说明重定位成功;其中:
S14、步骤所述S12和步骤所述S13同步进行,并行计算;
若其中一步计算结果显示重定位成功,则停止另一步的计算,并将α'放入集合A,将β'放入集合B,算法返回执行步骤S6;
S15、若步骤所述S14步之后重定位仍未成功,循环执行步骤所述S11~S13步,直到重定位成功。
本发明的有益效果为:
1)在提取三维特征之前,进行了点云的去中心化和主成分分析,使得所有点云都位于世界坐标原点,并且主方向保持一致,尽量消除了各个点云位姿之间的差异。
2)在提取二维图像特征之前,利用点云主成分分析得到的变换矩阵对图像进行了透视变换(使用点云主成分分析得到的变换矩阵对图像进行透视变换,避免了直接对图像进行角点检测来进行透视变换。因为直接对图像进行角点检测计算量过大且误差较大,甚至会导致错误的结果),消除了因相机位姿的旋转导致的图像畸变,使得每一帧图像都处于同一拍摄角度下,从而大大提高了特征提取的准确度(直接使用原始图像进行特征提取常常导致同一物体因为相机拍摄角度的不同,造成图像畸变较大,从而无法准确进行相似度评价)。
3)提出了基于三维特征的三维特征词典,弥补了二维特征不具有深度信息的缺陷。
4)使用三维特征和二维特征同步进行重定位,弥补了单纯使用二维特征出现较多误判情况的缺陷和单纯使用三维特征丢失纹理信息的缺陷。本算法综合使用了二维特征具有丰富纹理的优势和三维特征具有深度信息的优势,算法实时性和准确度比传统算法只使用二维特征有了巨大的提升。
附图说明
图1为本发明的一种手持式三维扫描系统的相机位置实时重定位方法的框图;
图2为实施例一的示意图之一;
图3为实施例一的示意图之二;
图4为实施例一的示意图之三;
图5为实施例一的示意图之四;
图6为实施例一的示意图之五;
图7为实施例一的示意图之六。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
一种手持式三维扫描系统的相机位置实时重定位方法,包括如下执行过程:
在算法执行前,预先采集m帧RGB图像I,得到图像集A,A={I1,I2,…,Im},以及和I一一对应的点云P,得到点云集B,B={P1,P2,…,Pm},P={p1,p2,…,pN},其中p=(x,y,z);
S1、对B中的每一帧点云P进行主成分分析:计算P的质心c,对P进行去中心化处理,即p1=p1-c,p2=p2-c,…,pN=pN-c;
计算P的协方差矩阵COV,对COV进行特征值分解,得到3个特征向量vx,vy,vz,对此3个特征向量进行校正,保证两两垂直,即vx=vy×vz,vy=vx×vz,vz=vx×vy;然后将校正后的vx,vy,vz分别作为行向量组成特征向量矩阵R,通过R对P进行空间变换,即p1=p1R-1,p2=p2R-1,…,pN=pNR-1;其中:
S2、对B中的每一帧点云P,计算P的快速点特征直方图(Fast Point FeatureHistograms,FPFH)特征,得到P的FPFH特征集合M,M={m1,m2,…,mn},其中m=(a1,a2,…,a33),m为FPFH特征描述向量;
S3、对A中的每一帧图像I,利用R进行透视变换;设(u,v)为原始图像像素坐标,w为原始图像宽度,(u',v')为变换后像素坐标,w'为变换后宽度,透视变换的计算公式为:[u',v',w']=[u,v,w]R-1;
S4、对A中的每一帧图像I,计算I的ORB(Oriented FAST and Rotated BRIEF)特征,得到I的ORB特征集合N,N={n1,n2,…,nn},其中n=(b1,b2,…,b32),n为ORB特征描述向量。
将m个所述特征集合M集合到一起,利用K-Means算法构造一个包含K个词汇的单词表α1,α2,…,αn,即FPFH特征词典D-FPFH,将D-FPFH保存到本地存储器。
将m个所述特征集合N集合到一起,利用K-Means算法构造一个包含K个词汇的单词表β1,β2,…,βn,即ORB特征词典D-ORB,将D-ORB保存到本地存储器。还包括如下执行过程:
S5、将D-FPFH和D-ORB从本地存储器加载到内存;
S6、对扫描后拼接成功的每一帧图像I和对应的点云P:依次执行步骤所述S1~S4;
S7、通过查找所述D-FPFH中的单词,点云P上提取的所述FPFH特征可以转换为单词表示:
1·α1+1·α2+0·α3+…+1·αn=[α1,α2,…,αn][1,1,0,…,1];
因为D-FPFH是固定的,所以一帧点云就可以用向量简化表示:α=[1,1,0,…,1];
S8、通过查找所述D-ORB中的单词,图像I上提取的所述ORB特征可以转换为单词表示:
1·β1+1·β2+0·β3+…+1·βn=[β1,β2,…,βn][1,1,0,…,1],
因为D-ORB是固定的,所以一帧图像就可以用向量简化表示:β=[1,1,0,…,1];
S9、将α放入集合A,将β放入集合B;
S10、若扫描未中断,循环执行步骤所述S6~S9;
S11、若扫描中断,将触发重定位功能,对新采集的一帧图像I'和点云P',依次执行步骤所述S1~S4和所述S7~S8得到P'的简化表示向量α'和I'的简化表示向量β';
S12、对A中的每一个α,计算α和α'的相似程度sA,取sA最高的一帧点云P和P'进行ICP(Iterative Closest Point)拼接,如果拼接成功,则说明重定位成功;其中:
S13、对B中的每一个β,计算β和β'的相似程度sB,取sB最高的一帧图像I对应的P和P'进行ICP(Iterative Closest Point)拼接,如果拼接成功,则说明重定位成功;其中:
S14、步骤所述S12和步骤所述S13同步进行,并行计算;
若其中一步计算结果显示重定位成功,则停止另一步的计算,并将α'放入集合A,将β'放入集合B,算法返回执行步骤S6;
S15、若步骤所述S14步之后重定位仍未成功,循环执行步骤所述S11~S13步,直到重定位成功。
实施例一:
在Intel Core i5通用计算平台上安装搭载该算法的手持式三维扫描系统进行连续扫描,由于用户操作失误导致扫描中断,如图2所示,此时触发重定位功能,用户将扫描设备对准之前扫描的任意部位,如图3所示,算法执行后,实现50ms左右对相机位置进行重定位(从图2中A处重定位到图3中B处),使扫描继续进行。图4为重定位成功后验证二维图像匹配结果,图5为验证点云匹配结果,可以发现二维图像和点云匹配结果都符合实际情况。
使用传统词袋模型算法进行重定位,则出现误判,比如实际是同一位置但未成功识别,如图6所示,无法满足实际使用需求。但使用本算法在传统算法重定位失败的情况下,仍然通过点云重定位成功,如图7所示。
图4中a为已经扫描过的位置,图4中b为扫描中断后本算法重定位成功后的位置,图中横线连接了左右两幅图像的相似位置,可以发现左右两张图非常相似。
图5中深色为已经扫描过的点云,浅色为扫描中断后重定位成功后的点云,可以发现两帧点云出现大面积重叠。
图6c为已经扫描过的位置,图6d为扫描中断后用户扫描的位置,图中横线连接了左右两幅图像的相似位置,可以发现左右两张图差距较大,但拍摄的仍旧是同一个物体。
图7中深色为已经扫描过的点云,浅色为扫描中断后重定位成功后的点云,可以发现两帧点云出现大面积重叠。
以上所述实施例仅表达了本发明的实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (4)
1.一种手持式三维扫描系统的相机位置实时重定位方法,其特征在于,包括如下执行过程:
在算法执行前,预先采集m帧RGB图像I,得到图像集A,A={I1,I2,…,Im},以及和I一一对应的点云P,得到点云集B,B={P1,P2,…,Pm},P={p1,p2,...,pN},其中p=(x,y,z);
S1、对B中的每一帧点云P进行主成分分析:计算P的质心c,对P进行去中心化处理,即p1=p1-c,p2=p2-c,...,pN=pN-c;
计算P的协方差矩阵COV,对COV进行特征值分解,得到3个特征向量vx,vy,vz,对此3个特征向量进行校正,保证两两垂直,即vx=vy×vz,vy=vx×vz,vz=vx×vy;然后将校正后的vx,vy,vz分别作为行向量组成特征向量矩阵R,通过R对P进行空间变换,即p1=p1R-1,p2=p2R-1,...,pN=pNR-1;其中:
S2、对B中的每一帧点云P,计算P的快速点特征直方图(Fast Point FeatureHistograms,FPFH)特征,得到P的FPFH特征集合M,M={m1,m2,...,mn},其中m=(a1,a2,...,a33),m为FPFH特征描述向量;
S3、对A中的每一帧图像I,利用R进行透视变换;设(u,v)为原始图像像素坐标,w为原始图像宽度,(u',v')为变换后像素坐标,w'为变换后宽度,透视变换的计算公式为:[u',v',w']=[u,v,w]R-1;
S4、对A中的每一帧图像I,计算I的ORB(Oriented FAST and Rotated BRIEF)特征,得到I的ORB特征集合N,N={n1,n2,...,nn},其中n=(b1,b2,...,b32),n为ORB特征描述向量。
2.根据权利要求1所述的一种手持式三维扫描系统的相机位置实时重定位方法,其特征在于:将m个所述特征集合M集合到一起,利用K-Means算法构造一个包含K个词汇的单词表α1,α2,...,αn,即FPFH特征词典D-FPFH,将D-FPFH保存到本地存储器。
3.根据权利要求2所述的一种手持式三维扫描系统的相机位置实时重定位方法,其特征在于:将m个所述特征集合N集合到一起,利用K-Means算法构造一个包含K个词汇的单词表β1,β2,...,βn,即ORB特征词典D-ORB,将D-ORB保存到本地存储器。
4.根据权利要求3所述的一种手持式三维扫描系统的相机位置实时重定位方法,其特征在于,还包括如下执行过程:
S5、将D-FPFH和D-ORB从本地存储器加载到内存;
S6、对扫描后拼接成功的每一帧图像I和对应的点云P:依次执行步骤所述S1~S4;
S7、通过查找所述D-FPFH中的单词,点云P上提取的所述FPFH特征可以转换为单词表示:
1·α1+1·α2+0·α3+...+1·αn=[α1,α2,...,αn][1,1,0,...,1];
因为D-FPFH是固定的,所以一帧点云就可以用向量简化表示:α=[1,1,0,...,1];
S8、通过查找所述D-ORB中的单词,图像I上提取的所述ORB特征可以转换为单词表示:
1·β1+1·β2+0·β3+...+1·βn=[β1,β2,...,βn][1,1,0,...,1],
因为D-ORB是固定的,所以一帧图像就可以用向量简化表示:β=[1,1,0,...,1];
S9、将α放入集合A,将β放入集合B;
S10、若扫描未中断,循环执行步骤所述S6~S9;
S11、若扫描中断,将触发重定位功能,对新采集的一帧图像I'和点云P',依次执行步骤所述S1~S4和所述S7~S8得到P'的简化表示向量α'和I'的简化表示向量β';
S12、对A中的每一个α,计算α和α'的相似程度sA,取sA最高的一帧点云P和P'进行ICP(Iterative Closest Point)拼接,如果拼接成功,则说明重定位成功;其中:
S13、对B中的每一个β,计算β和β'的相似程度sB,取sB最高的一帧图像I对应的P和P'进行ICP(Iterative Closest Point)拼接,如果拼接成功,则说明重定位成功;其中:
S14、步骤所述S12和步骤所述S13同步进行,并行计算;
若其中一步计算结果显示重定位成功,则停止另一步的计算,并将α'放入集合A,将β'放入集合B,算法返回执行步骤S6;
S15、若步骤所述S14步之后重定位仍未成功,循环执行步骤所述S11~S13步,直到重定位成功。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911299020.2A CN110956664B (zh) | 2019-12-17 | 2019-12-17 | 一种手持式三维扫描系统的相机位置实时重定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911299020.2A CN110956664B (zh) | 2019-12-17 | 2019-12-17 | 一种手持式三维扫描系统的相机位置实时重定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110956664A true CN110956664A (zh) | 2020-04-03 |
CN110956664B CN110956664B (zh) | 2023-06-16 |
Family
ID=69982007
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911299020.2A Active CN110956664B (zh) | 2019-12-17 | 2019-12-17 | 一种手持式三维扫描系统的相机位置实时重定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110956664B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553975A (zh) * | 2020-04-27 | 2020-08-18 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的实时回环检测方法 |
WO2024051458A1 (zh) * | 2022-09-06 | 2024-03-14 | 深圳市其域创新科技有限公司 | 续扫重定位方法、装置、设备、存储介质及三维续扫方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120177283A1 (en) * | 2011-01-11 | 2012-07-12 | Sen Wang | Forming 3d models using two images |
US20130083964A1 (en) * | 2011-09-29 | 2013-04-04 | Allpoint Systems, Llc | Method and system for three dimensional mapping of an environment |
CN106898022A (zh) * | 2017-01-17 | 2017-06-27 | 徐渊 | 一种手持式快速三维扫描系统及方法 |
CN107123161A (zh) * | 2017-06-14 | 2017-09-01 | 西南交通大学 | 一种基于narf和fpfh的接触网零全网三维重建方法 |
CN109215117A (zh) * | 2018-09-12 | 2019-01-15 | 北京航空航天大学青岛研究院 | 基于ORB与U-net的花卉三维重建方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
-
2019
- 2019-12-17 CN CN201911299020.2A patent/CN110956664B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120177283A1 (en) * | 2011-01-11 | 2012-07-12 | Sen Wang | Forming 3d models using two images |
US20130083964A1 (en) * | 2011-09-29 | 2013-04-04 | Allpoint Systems, Llc | Method and system for three dimensional mapping of an environment |
CN106898022A (zh) * | 2017-01-17 | 2017-06-27 | 徐渊 | 一种手持式快速三维扫描系统及方法 |
CN107123161A (zh) * | 2017-06-14 | 2017-09-01 | 西南交通大学 | 一种基于narf和fpfh的接触网零全网三维重建方法 |
CN109215117A (zh) * | 2018-09-12 | 2019-01-15 | 北京航空航天大学青岛研究院 | 基于ORB与U-net的花卉三维重建方法 |
CN110223348A (zh) * | 2019-02-25 | 2019-09-10 | 湖南大学 | 基于rgb-d相机的机器人场景自适应位姿估计方法 |
Non-Patent Citations (2)
Title |
---|
左川;庞春江;: "基于改进ORB的抗视角变换快速图像匹配算法" * |
葛宝臻;李晓洁;孙宇臣;杜朴;: "激光三维彩色人体扫描的数据重建技术" * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553975A (zh) * | 2020-04-27 | 2020-08-18 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的实时回环检测方法 |
CN111553975B (zh) * | 2020-04-27 | 2022-04-22 | 武汉易维晟医疗科技有限公司 | 一种手持式三维扫描系统的实时回环检测方法 |
WO2024051458A1 (zh) * | 2022-09-06 | 2024-03-14 | 深圳市其域创新科技有限公司 | 续扫重定位方法、装置、设备、存储介质及三维续扫方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110956664B (zh) | 2023-06-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111145238B (zh) | 单目内窥镜图像的三维重建方法、装置及终端设备 | |
CN108549873B (zh) | 三维人脸识别方法和三维人脸识别系统 | |
CN108764048B (zh) | 人脸关键点检测方法及装置 | |
US8374422B2 (en) | Face expressions identification | |
US8467596B2 (en) | Method and apparatus for object pose estimation | |
CN103530599B (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
US20150262346A1 (en) | Image processing apparatus, image processing method, and image processing program | |
CN108229475B (zh) | 车辆跟踪方法、系统、计算机设备及可读存储介质 | |
CN108960211A (zh) | 一种多目标人体姿态检测方法以及系统 | |
CN108345821B (zh) | 面部追踪方法及设备 | |
CN108335331A (zh) | 一种钢卷双目视觉定位方法及设备 | |
US9767383B2 (en) | Method and apparatus for detecting incorrect associations between keypoints of a first image and keypoints of a second image | |
Urban et al. | Finding a good feature detector-descriptor combination for the 2D keypoint-based registration of TLS point clouds | |
US20110227923A1 (en) | Image synthesis method | |
CN112200056B (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN106709500B (zh) | 一种图像特征匹配的方法 | |
CN107766864B (zh) | 提取特征的方法和装置、物体识别的方法和装置 | |
CN109190617B (zh) | 一种图像的矩形检测方法、装置及存储介质 | |
CN111325828B (zh) | 一种基于三目相机的三维人脸采集方法及装置 | |
CN112163995A (zh) | 一种超大航拍条带图像的拼接生成方法及装置 | |
CN112784712B (zh) | 一种基于实时监控的失踪儿童预警实现方法、装置 | |
CN110956664B (zh) | 一种手持式三维扫描系统的相机位置实时重定位方法 | |
CN113724329A (zh) | 融合平面与立体信息的目标姿态估计方法、系统和介质 | |
CN107680035B (zh) | 一种参数标定方法和装置、服务器及可读存储介质 | |
CN117288120A (zh) | 基于多视角的三维成像测量系统及其标定方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |