CN108519088A - 一种基于人工神经网络的可见光视觉定位方法 - Google Patents
一种基于人工神经网络的可见光视觉定位方法 Download PDFInfo
- Publication number
- CN108519088A CN108519088A CN201810177834.8A CN201810177834A CN108519088A CN 108519088 A CN108519088 A CN 108519088A CN 201810177834 A CN201810177834 A CN 201810177834A CN 108519088 A CN108519088 A CN 108519088A
- Authority
- CN
- China
- Prior art keywords
- coordinate system
- camera
- neural network
- axis
- artificial neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 53
- 238000000034 method Methods 0.000 title claims abstract description 38
- 230000006870 function Effects 0.000 claims description 12
- 210000002569 neuron Anatomy 0.000 claims description 12
- 238000012546 transfer Methods 0.000 claims description 12
- 239000013598 vector Substances 0.000 claims description 12
- 230000008859 change Effects 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 8
- 230000000007 visual effect Effects 0.000 claims description 8
- 238000012937 correction Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 230000000946 synaptic effect Effects 0.000 claims description 6
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000003287 optical effect Effects 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 4
- 230000004807 localization Effects 0.000 abstract description 4
- 238000013178 mathematical model Methods 0.000 abstract description 3
- 241001465382 Physalis alkekengi Species 0.000 abstract 1
- 238000012067 mathematical method Methods 0.000 abstract 1
- 230000008447 perception Effects 0.000 abstract 1
- 230000004310 photopic vision Effects 0.000 abstract 1
- 238000004088 simulation Methods 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000000354 decomposition reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/20—Instruments for performing navigational calculations
- G01C21/206—Instruments for performing navigational calculations specially adapted for indoor navigation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Automation & Control Theory (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于人工神经网络的可见光视觉定位方法,针对目前基于发送位置信息的LED灯具和具有到达角感应器的相机实现的室内可见光定位需要复杂的数学模型,为此,本发明通过灯具的图像感知通信,建立LED灯具图像之间的虚拟投影不变线,利用人工神经网络学习,更精确地确定出相机相对于环境坐标所在的方向信息,再凭借数学方法实现相机定位。仿真结果表明,本发明比现有定位方法具有更好的定位效果,具有广阔应用前景。
Description
技术领域
本发明涉及可见光通信技术领域,具体涉及一种基于人工神经网络的可见光视觉定位方法。
背景技术
近年来,因智能终端如智能手机和其他智能设备的发展,而常用的定位技术如GPS无法兼顾室内,通过智能设备实现室内定位的研究因其潜在的市场价值受到重视。智能终端搭载有许多传感器,例如陀螺仪、加速度计、磁性传感器和相机。然而,利用磁性传感器和加速度计来实现定位会因为磁场干扰和用户的动作影响准确性,利用陀螺仪定位需要应用互补滤波器来防止陀螺漂移和噪声。
使用相机实现室内定位可行的原因在于,它描绘出三维现实和二维图像之间的联系。为了计算出用户的位置,需要预先得出世界坐标系和相机坐标系的旋转关系和相互转换。现有的实现这个目标的技术是外在的相机标定,这个标定需要预先得出至少六个空间点的坐标和他们对应的图像点位才能建立投影的模型,除此之外,还要应用最小平方和或者奇异值分解的方法才能从投影模型转换到旋转模型,增加了实现的复杂性。
而利用图像识别通信实现室内定位的优点在于LED灯可用于发射位置信息的同时也可用于室内照明。利用相机得到的图像识别到达角度,可用于估计相机所在位置和相机方向。然而,由于三维现实和二维图像的非线性和高度复杂性,利用相机实现定位需要复杂的数学模型,而人工神经网络是一种可以简化这种复杂关系的方法。
因此,有必要基于人工神经网络实现可见光视觉定位,实现更加具有操作性和简洁的方法来估计相机的位置进而定位出用户的位置,实现更加有效和精确的室内定位。
发明内容
本发明的目的是为了解决现有技术中的上述缺陷,提供一种基于人工神经网络的可见光视觉定位方法,在简化定位技术的同时,优化可见光室内定位的效果。
本发明的目的可以通过采取如下技术方案达到:
一种基于人工神经网络的可见光视觉定位方法,所述的可见光视觉定位方法包括下列步骤:
S1、使用四个LED灯,分别改变终端相机坐标系的X轴,Y轴和Z轴旋转角度以及相机位置,用每一个角度和位置组合的LED灯具图像,建立六条虚拟投影不变量线,计算不同的Z轴旋转角度,利用这些数据创建人工神经网络输入数据库;
S2、使用一个多层感知器人工神经网络、,通过向后传递误差进行神经网络学习,利用人工神经网络输入数据库训练该多层感知器人工神经网络;
S3、训练完成后,用一个待定位位置和X轴、Y轴和Z轴旋转角度组合输入该多层感知器人工神经网络,由共线性状态建立二维图像和三维空间的关系,利用该多层感知器人工神经网络输出的结果实现相机在世界坐标系下的定位。
进一步地,所述的步骤S1包括:
S101、设置LED灯具,确保LED灯具构成的平面平行于世界坐标系的XY平面,并且确保终端相机的相机坐标系XY平面平行于世界坐标系的XY平面,使得相机具有较低角度的X轴,Y轴旋转矢量;
S102、相机拍下位于平行于世界和相机坐标系XY平面的平面上的LED灯具形成图像,任何两个LED灯连线的角度通过计算得出,计算LED灯具在世界坐标系下连线和世界坐标系的X轴夹角角度:
其中:XWL,YWL,ZW:LED灯图像在世界坐标系的坐标,L=1或2代表LED1或LED2,
xcl,ycl:LED灯图像在相机坐标系的坐标,l=1或2代表LED1或LED2,进而计算出相机坐标系和世界坐标系的X轴夹角角度:
θxX=θcx-θWX+k;
其中:
θcx为LED灯具载相机坐标系下连线和相机坐标系的X轴夹角角度;
相机坐标系和世界坐标系的yaw旋转矢量,即相机坐标系的Z轴旋转角度:yaw=π-θxX;
S103、分别从0到π/6和0到π/18改变X轴和Y轴旋转角度,以及从0到2π改变Z轴旋转角度,以此改变终端相机的相机坐标系的X轴、Y轴和Z轴旋转角度,围绕其中一个LED灯具的竖直位置以500和1000毫米的半径的圆放置相机,以此改变终端相机位置,每一次获取数据都利用四个LED灯具图像,四个LED灯具两两组合建立六条虚拟投影不变量线,重复步骤S102为每一个角度和位置组合计算得到六个Z轴旋转角度,并储存到人工神经网络输入数据库。
进一步地,所述的步骤S2包括:
步骤S201、使用一个具有25个神经元的多层感知器人工神经网络,通过向后传递误差进行神经网络学习,隐藏层里的每个神经元都使用一个tan-sigmoid转移函数获得非线性性,输出层的神经元使用线性转移函数,在正推法中一层的每个神经元根据突触权重和传递函数,形成输出作为下一层的输入,最终输出结果为y(k),而输出量的期望值为t(k),则均方误差msc为:
其中,Q为输出值的数量;
步骤S202、利用正推法获得的均方误差根据偏差修正原则调整突触权重,反向层层传递,通过这种递归将误差减少到一定的量。
进一步地,所述的步骤S3的过程如下:
由共线性状态建立二维图像和三维空间的关系,根据这种状态,每个物点,它的图像和投影中心三者应该在同一条线上,从而计算出:
其中,xcl,ycl:LED灯具图像在相机坐标系的坐标;
xcp,ycp:投影中心在相机坐标系的坐标;
XWL,YWL,ZWL:LED灯具图像在世界坐标系的坐标;
XW0,YW0,ZW0:相机在世界坐标系的定位;
RT(ω,φ,κ):世界坐标系与相机坐标系的关系旋转向量;
f:相机镜头的焦距;
λ:品质因数;
旋转矩阵R是关于X轴,Y轴和Z轴旋转向量的函数,可由神经网络的输出获得,XWL由光学无线传输获得,xcl由创建图像的的特征获得,所以知道相机不变的参数就可通过上述方程实现定位;
计算出定位的坐标:
其中:
xcl,ycl:LED灯具图像在相机坐标系的坐标,l=1或2代表LED1或LED2;
xcp,ycp:投影中心在相机坐标系的坐标;
XWL,YWL,ZWL:LED灯图像在世界坐标系的坐标,L=1或2代表LED1或LED2;
XW0,YW0,ZW0:相机在世界坐标系的定位;
rij:旋转矩阵RT(ω,φ,κ)的元素;
f:相机镜头的焦距。
进一步地,当Z轴旋转角大于π时的修正算法如下:
当yaw<π/2且xc1-xc2<0时,Z轴旋转角度取yaw+π;当yaw<π/2且xc1-xc2≥0时,Z轴旋转角度取yaw;当yaw≥π/2且yc1-yc2>0时,Z轴旋转角度取yaw+π;当yaw≥π/2且yc1-yc2≥0时,Z轴旋转角度取yaw。
进一步地,所述的步骤S202中使用莱文贝格-马夸特方法来加速训练过程。
本发明相对于现有技术具有如下的优点及效果:
1、本发明基于简单的人工神经网络技术,比起传统的使用至少六个空间点及其图像点的外在的相机标定室内定位技术,大大简化了可见光视觉定位的复杂程度,且可以优化定位效果。
2、由于三维现实和二维图像的非线性和高度复杂性,利用相机实现定位需要复杂的数学模型,而本发明使用的虚拟投影不变量线和人工神经网络是一种可以简化这种复杂关系的方法。
3、基于人工神经网络实现可见光视觉定位,可以实现更加具有操作性和简洁的方法来估计相机的位置进而定位出用户的位置,实现更加有效和精确的室内定位。
附图说明
图1是本发明实现相机接收LED灯信号的示意图;
图2是本发明相机图像与LED灯位置的关系图;
图3是人工神经网络的结构图;
图4是人工神经网络的训练示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例
一种基于人工神经网络的可见光视觉定位方法,包括下列步骤:
S1、使用四个LED灯,分别改变终端相机坐标系的X轴,Y轴和Z轴旋转角度以及相机位置,用每一个角度和位置组合的LED灯具图像,建立六条虚拟投影不变量线,计算不同的Z轴旋转角度,利用这些数据创建人工神经网络输入数据库;
所述的步骤S1包括以下步骤:
S101、设置LED灯具时,如图1所示,确保LED灯具构成的平面平行于世界坐标系的XY平面,并且尽可能的确保终端相机的相机坐标系XY平面如图1近乎平行于世界坐标系的XY平面,使得相机具有较低角度的X轴,Y轴旋转矢量。
S102、相机拍下位于平行于世界和相机坐标系XY平面的平面上的LED灯具形成图像,任何两个LED灯连线的角度可以计算得出,因此可以如图2建立关系,计算LED灯具在世界坐标系下连线和世界坐标系的X轴夹角角度:
其中:XWL,YWL,ZW:LED灯图像在世界坐标系的坐标(L=1或2代表LED1和LED2),xcl,ycl:LED灯图像在相机坐标系的坐标(l=1或2代表LED1和LED2),进而计算出相机坐标系和世界坐标系的X轴夹角角度:
θxX=θcx-θWX+k;
其中:
θcx为LED灯具载相机坐标系下连线和相机坐标系的X轴夹角角度;
相机坐标系和世界坐标系的yaw旋转矢量,即相机坐标系的Z轴旋转角度:yaw=π-θxX;
当Z轴旋转角大于π时的修正算法:
当yaw<π/2且xc1-xc2<0时,Z轴旋转角度取yaw+π;当yaw<π/2且xc1-xc2≥0时,Z轴旋转角度取yaw;当yaw≥π/2且yc1-yc2>0时,Z轴旋转角度取yaw+π;当yaw≥π/2且yc1-yc2≥0时,Z轴旋转角度取yaw。
S103、分别从0到π/6和0到π/18改变X轴和Y轴旋转角度(即Pitch和Roll),以及从0到2π改变Z轴旋转角度,以此改变终端相机的相机坐标系的X轴、Y轴和Z轴旋转角度。围绕其中一个LED灯具的竖直位置以500和1000毫米的半径的圆放置相机,以此改变终端相机位置。每一次获取数据都利用四个LED灯具图像,四个LED灯具两两组合建立六条虚拟投影不变量线,重复步骤S102为每一个角度和位置组合计算得到六个Z轴旋转角度,并储存到人工神经网络输入数据库。
S2、使用一个多层感知器人工神经网络(MLP),通过向后传递误差进行神经网络学习,利用人工神经网络输入数据库训练这个多层感知器人工神经网络;
所述的步骤S2包括以下步骤:
步骤S201、如图3所示,使用一个具有25个神经元的多层感知器人工神经网络(MLP),通过向后传递误差进行神经网络学习。隐藏层里的每个神经元都使用一个tan-sigmoid转移函数获得非线性性,输出层的神经元使用线性转移函数。在正推法中,一层的每个神经元根据突触权重和传递函数,形成输出作为下一层的输入。最终输出结果为y(k),而输出量的期望值为t(k),则均方误差(msc)为:
其中,Q为输出值的数量。
步骤S202、利用正推法获得的均方误差根据偏差修正原则调整突触权重,反向层层传递,通过这种递归将误差减少到一定的量。由于使用大量的数据作为训练目标,使用莱文贝格-马夸特方法来加速训练过程。
S3、训练完成后,用一个待定位位置和X轴,Y轴和Z轴旋转角度组合来测试神经网络,由共线性状态建立二维图像和三维空间的关系,利用神经网络输出的结果实现相机在世界坐标系下的定位。
所述的步骤S3的过程如下:
由共线性状态建立二维图像和三维空间的关系。根据这种状态,每个物点,它的图像和投影中心三者应该在同一条线上,从而计算出:
其中,xcl,ycl:LED灯具图像在相机坐标系的坐标;
xcp,ycp:投影中心在相机坐标系的坐标;
XWL,YWL,ZWL:LED灯具图像在世界坐标系的坐标;
XW0,YW0,ZW0:相机在世界坐标系的定位;
RT(ω,φ,κ):世界坐标系与相机坐标系的关系旋转向量;
f:相机镜头的焦距;
λ:品质因数;
旋转矩阵R是关于X轴,Y轴和Z轴旋转向量的函数,可由神经网络的输出获得。XWL可由光学无线传输获得,xcl可由创建图像的的特征获得,所以知道相机不变的参数就可通过上述方程实现定位。
计算出定位的坐标:
其中:
xcl,ycl:LED灯具图像在相机坐标系的坐标(l=1或2代表LED1和LED2);
xcp,ycp:投影中心在相机坐标系的坐标;
XWL,YWL,ZWL:LED灯图像在世界坐标系的坐标(L=1或2代表LED1和LED2);
XW0,YW0,ZW0:相机在世界坐标系的定位;
rij:旋转矩阵RT(ω,φ,κ)的元素;
f:相机镜头的焦距。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (6)
1.一种基于人工神经网络的可见光视觉定位方法,其特征在于,所述的可见光视觉定位方法包括下列步骤:
S1、使用四个LED灯,分别改变终端相机坐标系的X轴,Y轴和Z轴旋转角度以及相机位置,用每一个角度和位置组合的LED灯具图像,建立六条虚拟投影不变量线,计算不同的Z轴旋转角度,利用这些数据创建人工神经网络输入数据库;
S2、使用一个多层感知器人工神经网络、,通过向后传递误差进行神经网络学习,利用人工神经网络输入数据库训练该多层感知器人工神经网络;
S3、训练完成后,用一个待定位位置和X轴、Y轴和Z轴旋转角度组合输入该多层感知器人工神经网络,由共线性状态建立二维图像和三维空间的关系,利用该多层感知器人工神经网络输出的结果实现相机在世界坐标系下的定位。
2.根据权利要求1所述的一种基于人工神经网络的可见光视觉定位方法,其特征在于,所述的步骤S1包括:
S101、设置LED灯具,确保LED灯具构成的平面平行于世界坐标系的XY平面,并且确保终端相机的相机坐标系XY平面平行于世界坐标系的XY平面,使得相机具有较低角度的X轴,Y轴旋转矢量;
S102、相机拍下位于平行于世界和相机坐标系XY平面的平面上的LED灯具形成图像,任何两个LED灯连线的角度通过计算得出,计算LED灯具在世界坐标系下连线和世界坐标系的X轴夹角角度:
其中:XWL,YWL,ZW:LED灯图像在世界坐标系的坐标,L=1或2代表LED1或LED2,
xcl,ycl:LED灯图像在相机坐标系的坐标,l=1或2代表LED1或LED2,进而计算出相机坐标系和世界坐标系的X轴夹角角度:
θxX=θcx-θWX+k;
其中:
θcx为LED灯具载相机坐标系下连线和相机坐标系的X轴夹角角度;
相机坐标系和世界坐标系的yaw旋转矢量,即相机坐标系的Z轴旋转角度:yaw=π-θxX;
S103、分别从0到π/6和0到π/18改变X轴和Y轴旋转角度,以及从0到2π改变Z轴旋转角度,以此改变终端相机的相机坐标系的X轴、Y轴和Z轴旋转角度,围绕其中一个LED灯具的竖直位置以500和1000毫米的半径的圆放置相机,以此改变终端相机位置,每一次获取数据都利用四个LED灯具图像,四个LED灯具两两组合建立六条虚拟投影不变量线,重复步骤S102为每一个角度和位置组合计算得到六个Z轴旋转角度,并储存到人工神经网络输入数据库。
3.根据权利要求1所述的一种基于人工神经网络的可见光视觉定位方法,其特征在于,所述的步骤S2包括:
步骤S201、使用一个具有25个神经元的多层感知器人工神经网络,通过向后传递误差进行神经网络学习,隐藏层里的每个神经元都使用一个tan-sigmoid转移函数获得非线性性,输出层的神经元使用线性转移函数,在正推法中一层的每个神经元根据突触权重和传递函数,形成输出作为下一层的输入,最终输出结果为y(k),而输出量的期望值为t(k),则均方误差msc为:
其中,Q为输出值的数量;
步骤S202、利用正推法获得的均方误差根据偏差修正原则调整突触权重,反向层层传递,通过这种递归将误差减少到一定的量。
4.根据权利要求1所述的一种基于人工神经网络的可见光视觉定位方法,其特征在于,所述的步骤S3的过程如下:
由共线性状态建立二维图像和三维空间的关系,根据这种状态,每个物点,它的图像和投影中心三者应该在同一条线上,从而计算出:
其中,xcl,ycl:LED灯具图像在相机坐标系的坐标;
xcp,ycp:投影中心在相机坐标系的坐标;
XWL,YWL,ZWL:LED灯具图像在世界坐标系的坐标;
XW0,YW0,ZW0:相机在世界坐标系的定位;
RT(ω,φ,κ):世界坐标系与相机坐标系的关系旋转向量;
f:相机镜头的焦距;
λ:品质因数;
旋转矩阵R是关于X轴,Y轴和Z轴旋转向量的函数,可由神经网络的输出获得,XWL由光学无线传输获得,xcl由创建图像的的特征获得,所以知道相机不变的参数就可通过上述方程实现定位;
计算出定位的坐标:
其中:
xcl,ycl:LED灯具图像在相机坐标系的坐标,l=1或2代表LED1或LED2;
xcp,ycp:投影中心在相机坐标系的坐标;
XWL,YWL,ZWL:LED灯图像在世界坐标系的坐标,L=1或2代表LED1或LED2;
XW0,YW0,ZW0:相机在世界坐标系的定位;
rij:旋转矩阵RT(ω,φ,κ)的元素;
f:相机镜头的焦距。
5.根据权利要求2所述的一种基于人工神经网络的可见光视觉定位方法,其特征在于,当Z轴旋转角大于π时的修正算法如下:
当yaw<π/2且xc1-xc2<0时,Z轴旋转角度取yaw+π;当yaw<π/2且xc1-xc2≥0时,Z轴旋转角度取yaw;当yaw≥π/2且yc1-yc2>0时,Z轴旋转角度取yaw+π;当yaw≥π/2且yc1-yc2≥0时,Z轴旋转角度取yaw。
6.根据权利要求3所述的一种基于人工神经网络的可见光视觉定位方法,其特征在于,所述的步骤S202中使用莱文贝格-马夸特方法来加速训练过程。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810177834.8A CN108519088A (zh) | 2018-03-05 | 2018-03-05 | 一种基于人工神经网络的可见光视觉定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810177834.8A CN108519088A (zh) | 2018-03-05 | 2018-03-05 | 一种基于人工神经网络的可见光视觉定位方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108519088A true CN108519088A (zh) | 2018-09-11 |
Family
ID=63433437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810177834.8A Pending CN108519088A (zh) | 2018-03-05 | 2018-03-05 | 一种基于人工神经网络的可见光视觉定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108519088A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111458681A (zh) * | 2020-03-18 | 2020-07-28 | 华中科技大学 | 一种基于双阶段神经网络的可见光定位方法和系统 |
CN111780769A (zh) * | 2020-07-29 | 2020-10-16 | 深圳市南科信息科技有限公司 | 单灯可见光定位方法 |
CN112665580A (zh) * | 2019-10-15 | 2021-04-16 | 英飞凌科技股份有限公司 | 用于确定磁体方位的电路和方法以及操纵杆 |
CN115086541A (zh) * | 2021-03-15 | 2022-09-20 | 北京字跳网络技术有限公司 | 一种拍摄位置确定方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140285819A1 (en) * | 2011-11-07 | 2014-09-25 | Samsung Electronics Co., Ltd. | Position compensation device using visible light communication and method thereof |
CN105871462A (zh) * | 2016-05-17 | 2016-08-17 | 华南理工大学 | 基于cdma调制的可见光通信定位方法及其定位系统 |
CN106100734A (zh) * | 2016-08-15 | 2016-11-09 | 北京理工大学 | 一种基于人工神经网络的高精度室内可见光定位方法 |
US9609726B2 (en) * | 2014-02-13 | 2017-03-28 | Electronics And Telecommunications Research Institute | Apparatus and method for providing indoor location information using lighting control network |
CN106643735A (zh) * | 2017-01-06 | 2017-05-10 | 中国人民解放军信息工程大学 | 一种室内定位方法、装置和移动终端 |
-
2018
- 2018-03-05 CN CN201810177834.8A patent/CN108519088A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20140285819A1 (en) * | 2011-11-07 | 2014-09-25 | Samsung Electronics Co., Ltd. | Position compensation device using visible light communication and method thereof |
US9609726B2 (en) * | 2014-02-13 | 2017-03-28 | Electronics And Telecommunications Research Institute | Apparatus and method for providing indoor location information using lighting control network |
CN105871462A (zh) * | 2016-05-17 | 2016-08-17 | 华南理工大学 | 基于cdma调制的可见光通信定位方法及其定位系统 |
CN106100734A (zh) * | 2016-08-15 | 2016-11-09 | 北京理工大学 | 一种基于人工神经网络的高精度室内可见光定位方法 |
CN106643735A (zh) * | 2017-01-06 | 2017-05-10 | 中国人民解放军信息工程大学 | 一种室内定位方法、装置和移动终端 |
Non-Patent Citations (1)
Title |
---|
MD. SHAREEF IFTHEKHAR,ETC.: "Neural Network-Based Indoor Positioning Using Virtual Projective Invariants", 《WIRELESS PERSONAL COMMUNICATIONS》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112665580A (zh) * | 2019-10-15 | 2021-04-16 | 英飞凌科技股份有限公司 | 用于确定磁体方位的电路和方法以及操纵杆 |
CN111458681A (zh) * | 2020-03-18 | 2020-07-28 | 华中科技大学 | 一种基于双阶段神经网络的可见光定位方法和系统 |
CN111458681B (zh) * | 2020-03-18 | 2022-04-26 | 华中科技大学 | 一种基于双阶段神经网络的可见光定位方法和系统 |
CN111780769A (zh) * | 2020-07-29 | 2020-10-16 | 深圳市南科信息科技有限公司 | 单灯可见光定位方法 |
CN115086541A (zh) * | 2021-03-15 | 2022-09-20 | 北京字跳网络技术有限公司 | 一种拍摄位置确定方法、装置、设备及介质 |
WO2022194145A1 (zh) * | 2021-03-15 | 2022-09-22 | 北京字跳网络技术有限公司 | 一种拍摄位置确定方法、装置、设备及介质 |
CN115086541B (zh) * | 2021-03-15 | 2023-12-22 | 北京字跳网络技术有限公司 | 一种拍摄位置确定方法、装置、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108519088A (zh) | 一种基于人工神经网络的可见光视觉定位方法 | |
CN104299261B (zh) | 人体三维成像方法及系统 | |
WO2019127445A1 (zh) | 三维建图方法、装置、系统、云端平台、电子设备和计算机程序产品 | |
CN111583136A (zh) | 一种救援场景下自主移动平台同时定位与建图方法 | |
CN111127540B (zh) | 一种三维虚拟空间自动测距方法及系统 | |
CN100417231C (zh) | 立体视觉半实物仿真系统及方法 | |
CN110189400B (zh) | 一种三维重建方法、三维重建系统、移动终端及存储装置 | |
CN104392457B (zh) | 倾斜影像的连接点自动匹配方法及装置 | |
CN110176032A (zh) | 一种三维重建方法及装置 | |
CN110337674A (zh) | 三维重建方法、装置、设备及存储介质 | |
CN106716497A (zh) | 在表面重构中使用自由形式变形 | |
CN111462241B (zh) | 一种基于单目视觉的目标定位方法 | |
CN110991227A (zh) | 一种基于深度类残差网络的三维物体识别和定位方法 | |
CN108955682A (zh) | 手机室内定位导航方法 | |
Ifthekhar et al. | Neural network based indoor positioning technique in optical camera communication system | |
CN107622525A (zh) | 三维模型获得方法、装置及系统 | |
CN116168221A (zh) | 基于Transformer的跨模态图像匹配定位方法及装置 | |
US8509522B2 (en) | Camera translation using rotation from device | |
CN111998823B (zh) | 基于双目异光源测距装置的目标测距方法 | |
CN106643735A (zh) | 一种室内定位方法、装置和移动终端 | |
CN110766752B (zh) | 一种带反光标志点的虚拟现实交互眼镜及空间定位方法 | |
CN100416466C (zh) | 单目视觉半实物仿真系统及方法 | |
CN116182894A (zh) | 一种单目视觉里程计方法、装置、系统及存储介质 | |
CN115359127A (zh) | 一种适用于多层介质环境下的偏振相机阵列标定方法 | |
CN107240149A (zh) | 基于图像处理的物体三维模型构建方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180911 |