CN112001223A - 真实环境地图的快速虚拟化构建方法 - Google Patents

真实环境地图的快速虚拟化构建方法 Download PDF

Info

Publication number
CN112001223A
CN112001223A CN202010627953.6A CN202010627953A CN112001223A CN 112001223 A CN112001223 A CN 112001223A CN 202010627953 A CN202010627953 A CN 202010627953A CN 112001223 A CN112001223 A CN 112001223A
Authority
CN
China
Prior art keywords
matrix
diagonal
hidden layer
sample
generating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010627953.6A
Other languages
English (en)
Other versions
CN112001223B (zh
Inventor
葛菲
高昕
史鹏健
孙大平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Xinzhi Digital Media Information Technology Co ltd
Original Assignee
Anhui Xinzhi Digital Media Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Xinzhi Digital Media Information Technology Co ltd filed Critical Anhui Xinzhi Digital Media Information Technology Co ltd
Priority to CN202010627953.6A priority Critical patent/CN112001223B/zh
Publication of CN112001223A publication Critical patent/CN112001223A/zh
Application granted granted Critical
Publication of CN112001223B publication Critical patent/CN112001223B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Remote Sensing (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种真实环境地图的快速虚拟化构建方法,包括数据采集与初始化、随机生成隐藏层映射函数的输入权重向量与输入偏置、生成隐藏层输出函数、产生辅助有标注样本集合、生成隐藏层输出矩阵、生成图拉普拉斯矩阵、计算输出权重矩阵、更新隶属矩阵、实现真实环境的地图构建等步骤。与已有的技术方案相比,本发明具有流程简单、易于执行、运算速度快、占用资源少、无需大量人工标注、制图准确度高的优点。

Description

真实环境地图的快速虚拟化构建方法
技术领域
本发明属于数据分析领域,特别是涉及一种真实环境地图的快速虚拟化构建方法。
背景技术
地图信息是实现机器人自主移动的重要信息之一,因此,在没有地图的情况下,需要移动机器人能够利用摄像装置拍摄真实环境图片,并结合定位信息进行地图的快速构建。这种视觉制图技术引起了很多研究机构的关注,也产生了一定数量的研究成果。例如,专利CN201910877005.5提供了一种视觉地图定位方法及系统,所述视觉地图定位方法包括:通过局部地图3d点和全局地图3d点的描述符匹配,计算局部地图相对全局地图的变换矩阵;获取设定照片相对参考照片的位置和朝向;利用所述变换矩阵把获取的设定照片相对参考照片的位置和朝向变换到全局地图中。本发明需要从3d到2d的匹配过程,而这一过程较为费时。发明专利CN201711444384.6提出了一种视觉高精度地图制作方法和装置,方法包括:获取图像信息,并提取图像特征点;对所述图像进行图像处理,以获取所述特征点对应的位置信息;对所述图像进行交通信息深度学习,以获取道路信息;对所述位置信息与所述道路信息进行融合,以获取高精度地图,从而能够有效降低视觉高精度地图制作的成本,提高视觉高精度地图的更新速度。该方法采用了深度学习,对计算机提出了更高的要求,也会消耗更多的运算资源与电能。发明专利CN201210332451.6提出一种基于天花板的角点信息实现机器人定位及地图绘制的方法,该方法采用实时高效的角点选取算法,角点位于天花板上,由安装在机器人上且光轴与天花板垂直的摄像机进行拍摄,并从拍摄的图片中提取出角点;使用光流跟踪法跟踪连续两张图片中匹配的角点对,利用匹配的角点对来实现角点的三维重构;配合基于扩展卡尔曼滤波的同步定位与地图创建算法确定机器人每次拍摄时的位置和航向角,结合重构的路标信息不断完善地图。本发明实现了基于天花板视觉的同步定位与地图绘制,能较精确地描述机器人与周围环境的关系。然而天花板到地面有一定的距离,容易遮挡摄像头,且天花板的特征较少,容易产生多解问题,导致制图精度不高。
发明内容
针对已有技术存在的运算速度慢,精度低等问题,本发明提出了一种真实环境地图的快速虚拟化构建方法,其过程如下:
步骤1、数据采集与初始化:
对目标区域进行网格化,令携带了定位装置与全视角摄像装置的机器人进入目标区域,遍历每个可以进入的网格,并在每个网格里采集一副全景图像,共得到n个图像,对每幅图像提取特征,得到样本集合
Figure BDA0002565469180000021
Figure BDA0002565469180000022
进行标记,得到对应的类别标签
Figure BDA0002565469180000023
其中,
Figure BDA0002565469180000024
为Ni维行向量,
Figure BDA0002565469180000025
为No维行向量,No为场景类别的数量,因此类别集合为
Figure BDA0002565469180000026
如果样本xp的类别为
Figure BDA0002565469180000027
中的第c类,则yn的第c个元素为1,其余为0;
Figure BDA0002565469180000028
表示实数域,
Figure BDA00025654691800000222
为有标签样本数量、n为所有样本数量,u=n-l为无标签样本数量,No与Ni分别表述输出层与输入层神经元数量,为正整数;
初始化:人工设定以下参数:λ1,λ2,σ>0,隐藏层节点数Nh>0,最大迭代次数E为大于1的正整数,令迭代步t= 0,根据实际情况人工设定最大迭代步E为大于1的正整数;令隶属矩阵
Figure BDA0002565469180000029
其中
Figure BDA00025654691800000210
Iu为u维单位方阵,Ou为u维零方阵;
步骤2、随机生成隐藏层映射函数的输入权重向量
Figure BDA00025654691800000211
与输入偏置;b∈R,具体如下:
随机生成Nh个a,得到
Figure BDA00025654691800000212
随机生成Nh个b,得到
Figure BDA00025654691800000213
步骤3、生成隐藏层输出函数,具体如下:
Figure BDA00025654691800000214
其中,G(a,b,x)为激活函数,x表示样本,上标T表示矩阵转置;
步骤4:产生辅助有标注样本集合
Figure BDA00025654691800000215
具体如下:
求取xq对应的辅助样本
Figure BDA00025654691800000216
具体如下:
Figure BDA00025654691800000217
其中||·||2表示二范数,然后用xq的标签yq
Figure BDA00025654691800000218
标注,得到
Figure BDA00025654691800000219
步骤5、生成隐藏层输出矩阵H,具体如下:
Figure BDA00025654691800000220
其中,
Figure BDA00025654691800000221
步骤6、生成图拉普拉斯矩阵L,具体如下:
图拉普拉斯矩阵L=D-A,A为相似性矩阵,其第i行第j列元素Aij为:
Figure BDA0002565469180000031
其中,xi与xj为样本,i,j∈{1,...,n+l},σ>0为高斯核宽,D为A的度矩阵,D为对角阵,D的第i个对角元素dii=∑jAij
步骤7、计算输出权重矩阵β,具体如下:
Figure BDA0002565469180000032
其中,
Figure BDA0002565469180000033
为Nh维单位阵,C为对角阵,
Figure BDA0002565469180000034
C0为对角阵,ρ(C0)表示C0对角元素之和,C0的第1至第
Figure BDA00025654691800000315
个对角元素均为1,C0的第
Figure BDA00025654691800000316
至第n个对角元素为0,C0的第n+1至第n+l个对角元素为γ∈(0,1),
Figure BDA0002565469180000035
Figure BDA00025654691800000317
表示
Figure BDA00025654691800000318
的伪逆矩阵,
Figure BDA00025654691800000319
为H的前
Figure BDA00025654691800000320
行组成的矩阵,Hu为H的第
Figure BDA00025654691800000321
到第n行组成的矩阵,
Figure BDA0002565469180000036
为u×No维零矩阵;
Figure BDA0002565469180000037
为参考矩阵,其第k列元素均为1,其余元素为0;
步骤8、更新隶属矩阵Vk,具体如下:
Figure BDA0002565469180000038
其中,
Figure BDA0002565469180000039
为Vk对角线上第iu个元素,
Figure BDA00025654691800000310
为参考行向量,其第k个元素为1,其余为0;t自增1,如果t>E,则令
Figure BDA00025654691800000311
并跳至步骤9,否则跳至步骤7;
步骤9:对于所有的未标注的样本,采用
Figure BDA00025654691800000312
预测其场景,并在网格中标注该场景,即可实现真实环境的地图构建。
其中,步骤3所涉及的激活函数G(a,b,x)为:
Figure BDA00025654691800000313
其中,步骤3所涉及的激活函数G(a,b,x)为:
Figure BDA00025654691800000314
其中,γ∈(0.7,0.8)。
与已有的技术方案相比,本发明具有流程简单、易于执行、运算速度快、占用资源少、无需大量人工标注、制图准确度高的优点。
附图说明
图1为本发明方法流程图;
具体实施方式
下面结合实例对本发明作进一步描述,但本发明的保护范围并不限于此。
如图1所示,本发明具体实现如下:
步骤1、数据采集与初始化:
对目标区域进行网格化,令携带了定位装置与全视角摄像装置的机器人进入目标区域,遍历每个可以进入的网格,并在每个网格里采集一副全景图像,共得到n个图像,对每幅图像提取特征,得到样本集合
Figure BDA0002565469180000041
Figure BDA0002565469180000042
进行标记,得到对应的类别标签
Figure BDA0002565469180000043
其中,
Figure BDA0002565469180000044
为Ni维行向量,
Figure BDA0002565469180000045
为No维行向量,No为场景类别的数量,因此类别集合为
Figure BDA0002565469180000046
如果样本xp的类别为
Figure BDA0002565469180000047
中的第c类,则yp的第c个元素为1,其余为0;
Figure BDA0002565469180000048
表示实数域,
Figure BDA00025654691800000418
为有标签样本数量、n为所有样本数量,u=n-l为无标签样本数量,No与Ni分别表述输出层与输入层神经元数量,为正整数;
初始化:人工设定以下参数:λ1,λ2,σ>0,隐藏层节点数Nh>0,最大迭代次数E为大于1的正整数,令迭代步t=0,根据实际情况人工设定最大迭代步E为大于1的正整数;令隶属矩阵
Figure BDA0002565469180000049
其中
Figure BDA00025654691800000410
Iu为u维单位方阵,Ou为u维零方阵;
步骤2、随机生成隐藏层映射函数的输入权重向量
Figure BDA00025654691800000411
与输入偏置;b∈R,具体如下:
随机生成Nh个a,得到
Figure BDA00025654691800000412
随机生成Nh个b,得到
Figure BDA00025654691800000413
步骤3、生成隐藏层输出函数,具体如下:
Figure BDA00025654691800000414
其中,G(a,b,x)为激活函数,x表示样本,上标T表示矩阵转置;
步骤4:产生辅助有标注样本集合
Figure BDA00025654691800000415
具体如下:
求取xq对应的辅助样本
Figure BDA00025654691800000416
具体如下:
Figure BDA00025654691800000417
其中||·||2表示二范数,然后用xq的标签yq
Figure BDA0002565469180000051
标注,得到
Figure BDA0002565469180000052
步骤5、生成隐藏层输出矩阵H,具体如下:
Figure BDA0002565469180000053
其中,
Figure BDA0002565469180000054
步骤6、生成图拉普拉斯矩阵L,具体如下:
图拉普拉斯矩阵L=D-A,A为相似性矩阵,其第i行第j列元素Aij为:
Figure BDA0002565469180000055
其中,xi与xj为样本,i,j∈{1,...,n+l},σ>0为高斯核宽,D为A的度矩阵,D为对角阵,D的第i个对角元素dii=∑jAij
步骤7、计算输出权重矩阵β,具体如下:
Figure BDA0002565469180000056
其中,
Figure BDA0002565469180000057
为Nh维单位阵,C为对角阵,
Figure BDA0002565469180000058
C0为对角阵,ρ(C0)表示C0对角元素之和,C0的第1至第
Figure BDA00025654691800000519
个对角元素均为1,C0的第
Figure BDA00025654691800000520
至第n个对角元素为0,C0的第n+1至第n+l个对角元素为γ∈(0,1),
Figure BDA0002565469180000059
Figure BDA00025654691800000521
表示
Figure BDA00025654691800000522
的伪逆矩阵,
Figure BDA00025654691800000523
为H的前
Figure BDA00025654691800000524
行组成的矩阵,Hu为H的第
Figure BDA00025654691800000525
到第n行组成的矩阵,
Figure BDA00025654691800000510
为u×No维零矩阵;
Figure BDA00025654691800000511
为参考矩阵,其第k列元素均为1,其余元素为0;
步骤8、更新隶属矩阵Vk,具体如下:
Figure BDA00025654691800000512
其中,
Figure BDA00025654691800000513
为Vk对角线上第iu个元素,
Figure BDA00025654691800000514
为参考行向量,其第k个元素为1,其余为0;t自增1,如果t>E,则令
Figure BDA00025654691800000515
并跳至步骤9,否则跳至步骤7;
步骤9:对于所有的未标注的样本,采用
Figure BDA00025654691800000516
预测其场景,并在网格中标注该场景,即可实现真实环境的地图构建。
优选地,步骤3所涉及的激活函数G(a,b,x)为:
Figure BDA00025654691800000517
优选地,步骤3所涉及的激活函数G(a,b,x)为:
Figure BDA00025654691800000518
优选地,上述所有方案中的γ∈(0.7,0.8)。
在步骤1中进行特征提取时,可以采用自动编码器进行图像的无监督训练,以提取特征向量,该自动编码器包括至少一个卷积层和一个池化层。也可以采用通用的视觉词典来描述特征。
场景类别由人工定义,可以是:走廊、拐角、卫生间、厨房等。
提供以上实施例仅仅是为了描述本发明的目的,而并非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理而做出的各种等同替换和修改,均应涵盖在本发明的范围之内。

Claims (4)

1.一种真实环境地图的快速虚拟化构建方法,其特征在于包括以下步骤:
步骤1、数据采集与初始化:
对目标区域进行网格化,令携带了定位装置与全视角摄像装置的机器人进入目标区域,遍历每个可以进入的网格,并在每个网格里采集一副全景图像,共得到n个图像,对每幅图像提取特征,得到样本集合
Figure FDA0002565469170000011
Figure FDA0002565469170000012
进行标记,得到对应的类别标签
Figure FDA0002565469170000013
其中,
Figure FDA0002565469170000014
为Ni维行向量,
Figure FDA0002565469170000015
为No维行向量,No为场景类别的数量,因此类别集合为
Figure FDA0002565469170000016
如果样本xp的类别为
Figure FDA0002565469170000017
中的第c类,则yp的第c个元素为1,其余为0;
Figure FDA0002565469170000018
表示实数域,l为有标签样本数量、n为所有样本数量,u=n-l为无标签样本数量,No与Ni分别表述输出层与输入层神经元数量,为正整数;
初始化:人工设定以下参数:λ1,λ2,σ>0,隐藏层节点数Nh>0,最大迭代次数E为大于1的正整数,令迭代步t=0,根据实际情况人工设定最大迭代步E为大于1的正整数;令隶属矩阵
Figure FDA0002565469170000019
其中
Figure FDA00025654691700000110
Iu为u维单位方阵,Ou为u维零方阵;
步骤2、随机生成隐藏层映射函数的输入权重向量
Figure FDA00025654691700000111
与输入偏置;b∈R,具体如下:
随机生成Nh个a,得到
Figure FDA00025654691700000112
随机生成Nh个b,得到
Figure FDA00025654691700000113
步骤3、生成隐藏层输出函数,具体如下:
Figure FDA00025654691700000114
其中,G(a,b,x)为激活函数,x表示样本,上标T表示矩阵转置;
步骤4:产生辅助有标注样本集合
Figure FDA00025654691700000115
具体如下:
求取xq对应的辅助样本
Figure FDA00025654691700000116
具体如下:
Figure FDA00025654691700000117
其中||·||2表示二范数,然后用xq的标签yq
Figure FDA00025654691700000118
标注,得到
Figure FDA00025654691700000119
步骤5、生成隐藏层输出矩阵H,具体如下:
Figure FDA00025654691700000120
其中,
Figure FDA00025654691700000121
步骤6、生成图拉普拉斯矩阵L,具体如下:
图拉普拉斯矩阵L=D-A,A为相似性矩阵,其第i行第j列元素Aij为:
Figure FDA0002565469170000021
其中,xi与xj为样本,i,j∈{1,...,n+l},σ>0为高斯核宽,D为A的度矩阵,D为对角阵,D的第i个对角元素dii=∑jAij
步骤7、计算输出权重矩阵β,具体如下:
Figure FDA0002565469170000022
其中,
Figure FDA0002565469170000023
为Nh维单位阵,C为对角阵,
Figure FDA0002565469170000024
C0为对角阵,ρ(C0)表示C0对角元素之和,C0的第1至第l个对角元素均为1,C0的第l+1至第n个对角元素为0,C0的第n+1至第n+l个对角元素为γ∈(0,1),
Figure FDA0002565469170000025
pinv(Hl)表示Hl的伪逆矩阵,Hl为H的前l行组成的矩阵,Hu为H的第l到第n行组成的矩阵,
Figure FDA0002565469170000026
为u×No维零矩阵;
Figure FDA0002565469170000027
为参考矩阵,其第k列元素均为1,其余元素为0;
步骤8、更新隶属矩阵Vk,具体如下:
Figure FDA0002565469170000028
其中,
Figure FDA0002565469170000029
为Vk对角线上第iu个元素,iu=1,...,u,
Figure FDA00025654691700000210
为参考行向量,其第k个元素为1,其余为0;t自增1,如果t>E,则令
Figure FDA00025654691700000211
并跳至步骤9,否则跳至步骤7;
步骤9:对于所有的未标注的样本,采用
Figure FDA00025654691700000212
预测其场景,并在网格中标注该场景,即可实现真实环境的地图构建。
2.如权利要求1所述的一种真实环境地图的快速虚拟化构建方法,步骤3所涉及的激活函数G(a,b,x)为:
Figure FDA00025654691700000213
3.如权利要求1所述的一种真实环境地图的快速虚拟化构建方法,步骤3所涉及的激活函数G(a,b,x)为:
Figure FDA00025654691700000214
4.如权利要求1、2、3所述的任意一种真实环境地图的快速虚拟化构建方法,其特征在于,γ∈(0.7,0.8)。
CN202010627953.6A 2020-07-01 2020-07-01 真实环境地图的快速虚拟化构建方法 Active CN112001223B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010627953.6A CN112001223B (zh) 2020-07-01 2020-07-01 真实环境地图的快速虚拟化构建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010627953.6A CN112001223B (zh) 2020-07-01 2020-07-01 真实环境地图的快速虚拟化构建方法

Publications (2)

Publication Number Publication Date
CN112001223A true CN112001223A (zh) 2020-11-27
CN112001223B CN112001223B (zh) 2023-11-24

Family

ID=73467332

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010627953.6A Active CN112001223B (zh) 2020-07-01 2020-07-01 真实环境地图的快速虚拟化构建方法

Country Status (1)

Country Link
CN (1) CN112001223B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115506783A (zh) * 2021-06-21 2022-12-23 中国石油化工股份有限公司 一种岩性识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104330090A (zh) * 2014-10-23 2015-02-04 北京化工大学 机器人分布式表征智能语义地图创建方法
US20170161606A1 (en) * 2015-12-06 2017-06-08 Beijing University Of Technology Clustering method based on iterations of neural networks
WO2019174377A1 (zh) * 2018-03-14 2019-09-19 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN111126297A (zh) * 2019-12-25 2020-05-08 淮南师范学院 一种基于学习者表情的体验分析方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104330090A (zh) * 2014-10-23 2015-02-04 北京化工大学 机器人分布式表征智能语义地图创建方法
US20170161606A1 (en) * 2015-12-06 2017-06-08 Beijing University Of Technology Clustering method based on iterations of neural networks
WO2019174377A1 (zh) * 2018-03-14 2019-09-19 大连理工大学 一种基于单目相机的三维场景稠密重建方法
CN111126297A (zh) * 2019-12-25 2020-05-08 淮南师范学院 一种基于学习者表情的体验分析方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
倪嘉成;许悦雷;马时平;李帅;: "结合侧抑制机制的自动编码器训练新算法", 计算机应用与软件, no. 09 *
郑国强;周治平;: "一种基于视觉即时定位与地图构建的改进增强现实注册方法", 激光与光电子学进展, no. 06 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115506783A (zh) * 2021-06-21 2022-12-23 中国石油化工股份有限公司 一种岩性识别方法

Also Published As

Publication number Publication date
CN112001223B (zh) 2023-11-24

Similar Documents

Publication Publication Date Title
CN111862126B (zh) 深度学习与几何算法结合的非合作目标相对位姿估计方法
Engelmann et al. Know what your neighbors do: 3D semantic segmentation of point clouds
CN109544677B (zh) 基于深度图像关键帧的室内场景主结构重建方法及系统
Chen et al. Large-scale structure from motion with semantic constraints of aerial images
CN111060115B (zh) 一种基于图像边缘特征的视觉slam方法及系统
Gao et al. Counting from sky: A large-scale data set for remote sensing object counting and a benchmark method
CN112750148B (zh) 一种基于孪生网络的多尺度目标感知跟踪方法
CN111310631B (zh) 一种旋翼作业飞行机器人目标跟踪方法及系统
Wang Research towards yolo-series algorithms: Comparison and analysis of object detection models for real-time UAV applications
CN111625667A (zh) 一种基于复杂背景图像的三维模型跨域检索方法及系统
CN111126385A (zh) 一种可变形活体小目标的深度学习智能识别方法
CN112434618A (zh) 基于稀疏前景先验的视频目标检测方法、存储介质及设备
Han et al. Research on remote sensing image target recognition based on deep convolution neural network
Liu et al. CAFFNet: channel attention and feature fusion network for multi-target traffic sign detection
Wang et al. Revisiting monocular satellite pose estimation with transformer
CN115018999A (zh) 一种多机器人协作的稠密点云地图构建方法及装置
Yin et al. Enhanced faster-RCNN algorithm for object detection in aerial images
CN112001223A (zh) 真实环境地图的快速虚拟化构建方法
Chen et al. Satellite components detection from optical images based on instance segmentation networks
CN116342675B (zh) 一种实时单目深度估计方法、系统、电子设备及存储介质
CN110634160B (zh) 二维图形中目标三维关键点提取模型构建及姿态识别方法
CN116503602A (zh) 基于多层级边缘增强的非结构化环境三维点云语义分割方法
Zhang et al. 6D object pose estimation algorithm using preprocessing of segmentation and keypoint extraction
Li et al. Research on YOLOv3 pedestrian detection algorithm based on channel attention mechanism
Li et al. Few-shot meta-learning on point cloud for semantic segmentation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information
CB02 Change of applicant information

Address after: Zone 50268, Zhongke Dadaozhen Building, No. 767 Yulan Avenue, High tech Zone, Hefei City, Anhui Province, 230088

Applicant after: Anhui Xinzhi Digital Technology Co.,Ltd.

Address before: 230088 building 210-c2, A3 / F, Hefei Innovation Industrial Park, 800 Wangjiang West Road, high tech Zone, Hefei City, Anhui Province

Applicant before: Anhui Xinzhi digital media information technology Co.,Ltd.

GR01 Patent grant
GR01 Patent grant