CN108171651A - 基于多模型几何拟合和分层单应变换的图像对齐方法 - Google Patents
基于多模型几何拟合和分层单应变换的图像对齐方法 Download PDFInfo
- Publication number
- CN108171651A CN108171651A CN201711432105.4A CN201711432105A CN108171651A CN 108171651 A CN108171651 A CN 108171651A CN 201711432105 A CN201711432105 A CN 201711432105A CN 108171651 A CN108171651 A CN 108171651A
- Authority
- CN
- China
- Prior art keywords
- point
- homograph
- region
- image
- match point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000009466 transformation Effects 0.000 claims abstract description 23
- 230000007704 transition Effects 0.000 claims abstract description 17
- 238000003672 processing method Methods 0.000 claims abstract description 6
- 238000000605 extraction Methods 0.000 claims abstract description 4
- 239000011159 matrix material Substances 0.000 claims description 26
- 230000001413 cellular effect Effects 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 238000006243 chemical reaction Methods 0.000 claims description 4
- 238000000205 computational method Methods 0.000 claims description 4
- 230000008859 change Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 241000208340 Araliaceae Species 0.000 description 3
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 3
- 235000003140 Panax quinquefolius Nutrition 0.000 description 3
- 235000008434 ginseng Nutrition 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/04—Context-preserving transformations, e.g. by using an importance map
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理方法,为更好的针对不同的平面区域进行不同的单应变换,本发明采取的技术方案是,基于多模型几何拟合和分层单应变换的图像对齐方法,利用多模型几何拟合的方法将提取的特征匹配点分类,分类之后,图像就有了基础层和过渡层,在基础层采用动态直接线性变换方法,在过渡层采用分层单应估计来提高单应变换的精确度。本发明主要应用于图像处理场合。
Description
技术领域
本发明属于图像处理方法,关于图像对齐的问题,本发明介绍了一种通过多模型拟合和分层单应变换来处理图像对齐的新方法,能够对于多平面、复杂的图像达到很好的对齐效果,避免重影和模糊。
背景技术
随着科学技术的发展,图像对齐在点云编码、视频稳定以及计算机视觉占据重要地位。图像对齐的基本过程是通过至少两张不同角度拍摄的图像,构造成一个无缝、高清晰和具有更大视野的图像。
图像对齐的核心和关键问题是图像配准问题,而图像配准的性能又取决于估计的单应变换的精确性。因此,图像的单应变换是多年来图像对齐技术研究的重点和难点。
对于图像对齐的研究,国内外研究人员也提出了很多的对齐算法。Hartley等提出了一种基于全局单应变换的方法,可是这种方法要求视差较小而且由于全局变换的局限性(单应矩阵单一),这种方法导致了严重的重影和图像变形。Zaragoza等提出了一种局部单应变换的方法,基于动态直接线性变换让多单应矩阵尽可能相似来处理图像对齐的问题。Xiang等提出了线性约束和局部变换相结合的方法,这种方法保证了图像对齐的连续性。图像对齐的算法日益成熟,然而,由于在图像重叠区域直接选取两幅图像其中一个进行变形,这种方法容易在重叠区域产生明显的缝隙。如何对多幅图像进行无缝对齐,仍然是一个具有挑战性的问题。
发明内容
由于图像对齐主要依赖于单应变换的准确性,因此,对于单应变换的研究就成为了对齐问题的处理关键。为了更好的针对不同的平面区域进行不同的单应变换,本发明采取的技术方案是,基于多模型几何拟合和分层单应变换的图像对齐方法,利用多模型几何拟合的方法将提取的特征匹配点分类,分类之后,图像就有了基础层和过渡层,在基础层采用动态直接线性变换方法,在过渡层采用分层单应估计来提高单应变换的精确度。
具体步骤是,
1)针对输入源图像I和目标图像I′,利用度不变特征转换方法,获得一系列的特征匹配点—Ω={xi}和Ω′={xi′},xi和xi′分别是I和I′的第i个特征匹配点,将Ω和特征匹配点分类并且每个类的单应变换最小化xi和到相应的匹配点xi′的距离,目标函数为:
其中,λ>0是衡量数据项和平滑项的权重系数;
1-1)
数据项的作用是最小化x和它对应的匹配点x′的距离,Hi是3×3的单应变换矩阵,是xi的齐次坐标,φ(·)代表齐次坐标到非齐次坐标的变换,距离优化函数和D(Hi,xi,xi′)衡量的是xi的变换点到它对应的匹配点xi′的距离;
1-2)
平滑项主要约束相邻的像素点,使之有相同的单应矩阵,N(xi)是三角网格定义的像素点xi的邻域特征点和邻域关系,如果Hi=Hj,则惩罚项S(Hi,Hj)为1,其他情况为0;
2)利用多模型几何拟合使得源图像的每一个匹配点都被标记了标签,相同的标签作为一类,这样,就将所有的匹配点分类到了几个不同的区域,每个区域的边界划分公式如下:
其中,Ωm是第m个区域的匹配点的集合,s(xm,i)是特征点xm,i的尺度分量,W是源图像的宽度,根据公式(5),(6)可知,Bm,l和Bm,r分别表示划分的第m个区域的左边界和右边界,考虑到建筑物图像主要是在前面进行拍摄,所以边界只划分出来了左右边界,只包含一类特征点的区域称之为基础区域,按照上述公式计算出来的包换两种特征点的区域称之为过渡区域;
3)对于基础区域采用动态直接线性变换的方法来估计局部的单应变换,源图像的第m个区域的特征点x*通过下面的公式变换到对应的匹配点
其中,是x*的齐次坐标,单应矩阵H*的计算方法如下:
h*是H*的向量化形式,其为9×1的行向量,ai是公式的计算结果:
权重参数wi *的定义如下:
wi *=max(exp(-||x*-xi||2/δ2),γ) (10)
xi是所处理区域的第i个匹配点,x*是所处理区域的网格个中心点坐标,δ是尺度参数,γ是为了防止处理方法失去其灵活性;
4)过渡层区域采用离散的单应变换进行处理,首先利用动态直接线性变换的方法获得候选的单应矩阵,将单应矩阵集合表示为Tm是第m个过渡层,通过图像切割达到优化目标函数的目的,
4-1)
其中,数据项中的符号含义如下:表示第k个元胞的单应矩阵,D(Hk,xj,x′j)和公式(3)是相同的定义,权重参数是根据匹配点到第k个元胞的距离来调节匹配点的变换的,
pk是第k个元胞的中心点。
4-2)平滑项定义为:
Ht是第k个元胞的邻域元胞的单应变换。
本发明的特点及有益效果是:
本发明利用多模型几何拟合和分层单应变换估计的方法,完成了多平面,复杂图像的对齐问题,它具有以下特点:
1、简单易懂,复杂度相对较低,易于实现。
2、对于图像对齐问题,提出一种新的思路,并不是单纯优化单应矩阵,而是从处理过程上进行探索。
3、利用多模型几何拟合的方法,使得复杂的图像可以分成几个不同的区域,有利于后续处理。
4、能量目标函数的优化运用灵活。
附图说明:
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解:
图1是算法流程图;
图2是不同区域的分割图(对应于公式(5)(6)的计算结果);
图3是4种实验方法的结果比较,从左到右依次是,(a)动态直接线性变换,(b)保形半射影,(c)相似投影,(d)我们的实验结果。每一列从上到下分别是原始图,中间图,结果图,放大图。
具体实施方式
本发明利用多模型几何拟合对图像特诊匹配点进行分类,对不同的区域使用不同的单应矩阵估计方法,完成了多平面,复杂图像的对齐问题。
为了更好的针对不同的平面区域进行不同的单应变换,本发明采取的技术方案是,利用多模型几何拟合的方法将提取的特征匹配点分类,分类之后,图像就有了基础层和过渡层,在基础层采用动态直接线性变换方法,在过渡层采用分层单应估计来提高单应变换的精确度。具体方法包括以下步骤:
1)针对输入的两张图像(源图像I和目标图像I′),利用度不变特征转换方法,获得一系列的特征匹配点—Ω={xi}和Ω′={xi′},xi和xi′分别是I和I′的第i个特征匹配点。我们的目标是将Ω和特征匹配点分类并且每个类的单应变换可以最小化xi和到相应的匹配点xi′的距离,目标函数为:
其中,λ>0是衡量数据项和平滑项的权重系数。
1-1)
数据项的作用是最小化x和它对应的匹配点x′的距离,Hi是3×3的单应变换矩阵,是xi的齐次坐标,φ(·)代表齐次坐标到非齐次坐标的变换,距离优化函数和D(Hi,xi,xi′)衡量的是xi的变换点到它对应的匹配点xi′的距离。
1-2)
平滑项主要约束相邻的像素点,使之有相同的单应矩阵,N(xi)是三角网格定义的像素点xi的邻域特征点和邻域关系。如果Hi=Hj,则惩罚项S(Hi,Hj)为1,其他情况为0。
2)多模型拟合的方法使得源图像的每一个匹配点都被标记了标签,相同的标签作为一类,这样,就将所有的匹配点分类到了几个不同的区域,每个区域的边界划分公式如下:
其中,Ωm是第m个区域的匹配点的集合,s(xm,i)是特征点xm,i的尺度分量,W是源图像的宽度,根据公式(5),(6)可知,Bm,l和Bm,r分别表示划分的第m个区域的左边界和右边界。考虑到建筑物图像主要是在前面进行拍摄,所以边界只划分出来了左右边界。只包含一类特征点的区域称之为基础区域,按照上述公式计算出来的包换两种特征点的区域称之为过渡区域。
3)由于基础区域仍然不是一个完美的平面场景,所以利用基本的单应变换会产生非对齐现象,所以,我们采用动态直接线性变换的方法来估计局部的单应变换。源图像的第m个区域的特征点x*通过下面的公式变换到对应的匹配点
其中,是x*的齐次坐标,单应矩阵H*的计算方法如下:
h*是H*的向量化形式,其为9×1的行向量,ai是公式的计算结果:
权重参数wi *的定义如下:
wi *=max(exp(-||x*-xi||2/δ2),γ) (10)
xi是所处理区域的第i个匹配点,x*是所处理区域的网格个中心点坐标,δ是尺度参数,γ是为了防止处理方法失去其灵活性。
4)过渡层区域可能包含多个平面,所以离散的单应变换能达到更好的效果,我们首先利用动态直接线性变换的方法获得候选的单应矩阵,将单应矩阵集合表示为Tm是第m个过渡层,通过图像切割达到优化目标函数的目的,
4-1)
其中,数据项中的符号含义如下:表示第k个元胞的单应矩阵,D(Hk,xj,x′j)和公式(3)是相同的定义,权重参数是根据匹配点到第k个元胞的距离来调节匹配点的变换的,
pk是第k个元胞的中心点。
4-2)平滑项定义为:
Ht是第k个元胞的邻域元胞的单应变换。
下面结合附图和具体实施方式进一步详细说明本发明。
1)针对输入的两张图像(源图像I和目标图像I′),利用度不变特征转换方法,获得一系列的特征匹配点—Ω={xi}和Ω′={xi′},xi和xi′分别是I和I′的第i个特征匹配点。我们的目标是将Ω和特征匹配点分类并且每个类的单应变换可以最小化xi和到相应的匹配点xi′的距离,目标函数为:
其中,λ>0是衡量数据项和平滑项的权重系数。
1-1)
数据项的作用是最小化x和它对应的匹配点x′的距离,Hi是3×3的单应变换矩阵,是xi的齐次坐标,φ(·)代表齐次坐标到非齐次坐标的变换,距离优化函数和D(Hi,xi,xi′)衡量的是xi的变换点到它对应的匹配点xi′的距离。
1-2)
平滑项主要约束相邻的像素点,使之有相同的单应矩阵,N(xi)是三角网格定义的像素点xi的邻域特征点和邻域关系。如果Hi=Hj,则惩罚项S(Hi,Hj)为1,其他情况为0。
2)多模型拟合的方法使得源图像的每一个匹配点都被标记了标签,相同的标签作为一类,这样,就将所有的匹配点分类到了几个不同的区域,每个区域的边界划分公式如下:
其中,Ωm是第m个区域的匹配点的集合,s(xm,i)是特征点xm,i的尺度分量,W是源图像的宽度,根据公式(5),(6)可知,Bm,l和Bm,r分别表示划分的第m个区域的左边界和右边界。考虑到建筑物图像主要是在前面进行拍摄,所以边界只划分出来了左右边界。只包含一类特征点的区域称之为基础区域,按照上述公式计算出来的包换两种特征点的区域称之为过渡区域。
3)由于基础区域仍然不是一个完美的平面场景,所以利用基本的单应变换会产生非对齐现象,所以,我们采用动态直接线性变换的方法来估计局部的单应变换。源图像的第m个区域的特征点x*通过下面的公式变换到对应的匹配点
其中,是x*的齐次坐标,单应矩阵H*的计算方法如下:
h*是H*的向量化形式,其为9×1的行向量,ai是公式的计算结果:
权重参数wi *的定义如下:
wi *=max(exp(-||x*-xi||2/δ2),γ) (9)
xi是所处理区域的第i个匹配点,x*是所处理区域的网格个中心点坐标,δ是尺度参数,γ是为了防止处理方法失去其灵活性。
4)过渡层区域可能包含多个平面,所以离散的单应变换能达到更好的效果,我们首先利用动态直接线性变换的方法获得候选的单应矩阵,将单应矩阵集合表示为Tm是第m个过渡层,通过图像切割达到优化目标函数的目的,
4-1)
其中,数据项中的符号含义如下:表示第k个元胞的单应矩阵,D(Hk,xj,x′j)和公式(3)是相同的定义,权重参数是根据匹配点到第k个元胞的距离来调节匹配点的变换的,
pk是第k个元胞的中心点。
4-2)平滑项定义为:
Ht是第k个元胞的邻域元胞的单应变换。
Claims (2)
1.一种基于多模型几何拟合和分层单应变换的图像对齐方法,其特征是,利用多模型几何拟合的方法将提取的特征匹配点分类,分类之后,图像就有了基础层和过渡层,在基础层采用动态直接线性变换方法,在过渡层采用分层单应估计来提高单应变换的精确度。
2.如权利要求1所述的基于多模型几何拟合和分层单应变换的图像对齐方法,其特征是,具体步骤是,
1)针对输入源图像I和目标图像I′,利用度不变特征转换方法,获得一系列的特征匹配点—Ω={xi}和Ω′={xi′},xi和xi′分别是I和I′的第i个特征匹配点,将Ω和特征匹配点分类并且每个类的单应变换最小化xi和到相应的匹配点xi的距离,目标函数为:
其中,λ>0是衡量数据项和平滑项的权重系数;
数据项的作用是最小化x和它对应的匹配点x′的距离,Hi是3×3的单应变换矩阵,是xi的齐次坐标,φ(·)代表齐次坐标到非齐次坐标的变换,距离优化函数和D(Hi,xi,xi′)衡量的是xi的变换点到它对应的匹配点xi′的距离;
平滑项主要约束相邻的像素点,使之有相同的单应矩阵,N(xi)是三角网格定义的像素点xi的邻域特征点和邻域关系,如果Hi=Hj,则惩罚项S(Hi,Hj)为1,其他情况为0;
2)利用多模型几何拟合使得源图像的每一个匹配点都被标记了标签,相同的标签作为一类,这样,就将所有的匹配点分类到了几个不同的区域,每个区域的边界划分公式如下:
其中,Ωm是第m个区域的匹配点的集合,s(xm,i)是特征点xm,i的尺度分量,W是源图像的宽度,根据公式(5),(6)可知,Bm,l和Bm,r分别表示划分的第m个区域的左边界和右边界,考虑到建筑物图像主要是在前面进行拍摄,所以边界只划分出来了左右边界,只包含一类特征点的区域称之为基础区域,按照上述公式计算出来的包换两种特征点的区域称之为过渡区域;
3)对于基础区域采用动态直接线性变换的方法来估计局部的单应变换,源图像的第m个区域的特征点x*通过下面的公式变换到对应的匹配点
其中,是x*的齐次坐标,单应矩阵H*的计算方法如下:
h*是H*的向量化形式,其为9×1的行向量,ai是公式的计算结果:
权重参数wi *的定义如下:
wi *=max(exp(-||x*-xi||2/δ2),γ) (10)
xi是所处理区域的第i个匹配点,x*是所处理区域的网格个中心点坐标,δ是尺度参数,γ是为了防止处理方法失去其灵活性;
4)过渡层区域采用离散的单应变换进行处理,首先利用动态直接线性变换的方法获得候选的单应矩阵,将单应矩阵集合表示为Tm是第m个过渡层,通过图像切割达到优化目标函数的目的,
其中,数据项中的符号含义如下:表示第k个元胞的单应矩阵,D(Hk,xj,x′j)和公式(3)是相同的定义,权重参数是根据匹配点到第k个元胞的距离来调节匹配点的变换的,
pk是第k个元胞的中心点。
4-2)平滑项定义为:
Ht是第k个元胞的邻域元胞的单应变换。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711432105.4A CN108171651B (zh) | 2017-12-26 | 2017-12-26 | 基于多模型几何拟合和分层单应变换的图像对齐方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711432105.4A CN108171651B (zh) | 2017-12-26 | 2017-12-26 | 基于多模型几何拟合和分层单应变换的图像对齐方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108171651A true CN108171651A (zh) | 2018-06-15 |
CN108171651B CN108171651B (zh) | 2021-07-09 |
Family
ID=62520877
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711432105.4A Active CN108171651B (zh) | 2017-12-26 | 2017-12-26 | 基于多模型几何拟合和分层单应变换的图像对齐方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108171651B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109166077A (zh) * | 2018-08-17 | 2019-01-08 | 广州视源电子科技股份有限公司 | 图像对齐方法、装置、可读存储介质及计算机设备 |
CN110223250A (zh) * | 2019-06-02 | 2019-09-10 | 西安电子科技大学 | 基于单应变换的sar几何校正方法 |
CN111083480A (zh) * | 2019-12-10 | 2020-04-28 | 四川新视创伟超高清科技有限公司 | 一种基于cpu的8k超高清视频高速编码方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130230247A1 (en) * | 2012-03-05 | 2013-09-05 | Thomson Licensing | Method and apparatus for multi-label segmentation |
CN106910208A (zh) * | 2017-03-07 | 2017-06-30 | 中国海洋大学 | 一种存在运动目标的场景图像拼接方法 |
CN107194959A (zh) * | 2017-04-25 | 2017-09-22 | 北京海致网聚信息技术有限公司 | 基于切片进行图像配准的方法和装置 |
-
2017
- 2017-12-26 CN CN201711432105.4A patent/CN108171651B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130230247A1 (en) * | 2012-03-05 | 2013-09-05 | Thomson Licensing | Method and apparatus for multi-label segmentation |
CN106910208A (zh) * | 2017-03-07 | 2017-06-30 | 中国海洋大学 | 一种存在运动目标的场景图像拼接方法 |
CN107194959A (zh) * | 2017-04-25 | 2017-09-22 | 北京海致网聚信息技术有限公司 | 基于切片进行图像配准的方法和装置 |
Non-Patent Citations (2)
Title |
---|
张超: "基于局部特征的图像配准算法及应用研究", 《中国博士学位论文全文数据库 信息科技辑》 * |
方贤勇: "图像拼接技术研究", 《中国优秀博硕士学位论文全文数据库 (博士) 信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109166077A (zh) * | 2018-08-17 | 2019-01-08 | 广州视源电子科技股份有限公司 | 图像对齐方法、装置、可读存储介质及计算机设备 |
CN109166077B (zh) * | 2018-08-17 | 2023-04-18 | 广州视源电子科技股份有限公司 | 图像对齐方法、装置、可读存储介质及计算机设备 |
CN110223250A (zh) * | 2019-06-02 | 2019-09-10 | 西安电子科技大学 | 基于单应变换的sar几何校正方法 |
CN110223250B (zh) * | 2019-06-02 | 2021-11-30 | 西安电子科技大学 | 基于单应变换的sar几何校正方法 |
CN111083480A (zh) * | 2019-12-10 | 2020-04-28 | 四川新视创伟超高清科技有限公司 | 一种基于cpu的8k超高清视频高速编码方法 |
CN111083480B (zh) * | 2019-12-10 | 2022-11-04 | 四川新视创伟超高清科技有限公司 | 一种基于cpu的8k超高清视频高速编码方法 |
Also Published As
Publication number | Publication date |
---|---|
CN108171651B (zh) | 2021-07-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Sun et al. | Deep RGB-D saliency detection with depth-sensitive attention and automatic multi-modal fusion | |
Xiang et al. | Learning rgb-d feature embeddings for unseen object instance segmentation | |
Verma et al. | Feastnet: Feature-steered graph convolutions for 3d shape analysis | |
CN110705448B (zh) | 一种人体检测方法及装置 | |
CN109993748B (zh) | 一种基于点云处理网络的三维网格物体分割方法 | |
US10078796B2 (en) | Apparatus and method of hand gesture recognition based on depth image | |
Tschopp et al. | Efficient convolutional neural networks for pixelwise classification on heterogeneous hardware systems | |
Hagelskjær et al. | Pointvotenet: Accurate object detection and 6 dof pose estimation in point clouds | |
Li et al. | LPSNet: a novel log path signature feature based hand gesture recognition framework | |
CN111489394B (zh) | 物体姿态估计模型训练方法、系统、装置及介质 | |
CN108171651A (zh) | 基于多模型几何拟合和分层单应变换的图像对齐方法 | |
CN105184772A (zh) | 一种基于超像素的自适应彩色图像分割方法 | |
Georgakopoulos et al. | Pose recognition using convolutional neural networks on omni-directional images | |
EP4055561A1 (en) | Object detection device, method, and systerm | |
Pan et al. | Residual meshnet: Learning to deform meshes for single-view 3d reconstruction | |
CN115147488B (zh) | 一种基于密集预测的工件位姿估计方法与抓取系统 | |
CN110807379A (zh) | 一种语义识别方法、装置、以及计算机存储介质 | |
Zheng et al. | Feater: An efficient network for human reconstruction via feature map-based transformer | |
KR100956747B1 (ko) | 신경망회로와 병렬처리 프로세서를 결합한 컴퓨터구조 및그를 이용한 처리방법 | |
Chen et al. | Generalized Zero-Shot Vehicle Detection in Remote Sensing Imagery via Coarse-to-Fine Framework. | |
Li et al. | Image semantic segmentation based on fully convolutional neural network and CRF | |
CN106599901B (zh) | 基于深度玻尔兹曼机的协同目标分割与行为识别方法 | |
CN113487713B (zh) | 一种点云特征提取方法、装置及电子设备 | |
Liu et al. | A depth adaptive feature extraction and dense prediction network for 6-D pose estimation in robotic grasping | |
Gu et al. | A Swin Transformer based Framework for Shape Recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |