CN113239922B - 一种虚拟现实空间定位特征点识别系统及识别方法 - Google Patents
一种虚拟现实空间定位特征点识别系统及识别方法 Download PDFInfo
- Publication number
- CN113239922B CN113239922B CN202110521666.1A CN202110521666A CN113239922B CN 113239922 B CN113239922 B CN 113239922B CN 202110521666 A CN202110521666 A CN 202110521666A CN 113239922 B CN113239922 B CN 113239922B
- Authority
- CN
- China
- Prior art keywords
- module
- image
- neural network
- virtual reality
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 49
- 238000003062 neural network model Methods 0.000 claims abstract description 42
- 238000012545 processing Methods 0.000 claims abstract description 38
- 238000012360 testing method Methods 0.000 claims abstract description 28
- 238000002372 labelling Methods 0.000 claims abstract description 22
- 238000013528 artificial neural network Methods 0.000 claims abstract description 21
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 19
- 210000002569 neuron Anatomy 0.000 claims abstract description 17
- 238000004364 calculation method Methods 0.000 claims abstract description 14
- 230000005540 biological transmission Effects 0.000 claims abstract description 13
- 230000008569 process Effects 0.000 claims abstract description 7
- 239000010410 layer Substances 0.000 claims description 45
- 239000011159 matrix material Substances 0.000 claims description 21
- 239000013598 vector Substances 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 6
- 239000011229 interlayer Substances 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 206010027146 Melanoderma Diseases 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 3
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000004044 response Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 2
- 230000007547 defect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000010998 test method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D30/00—Reducing energy consumption in communication networks
- Y02D30/70—Reducing energy consumption in communication networks in wireless communication networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Image Analysis (AREA)
Abstract
本发明属于特征识别技术领域,公开了一种虚拟现实空间定位特征点识别系统及识别方法,所述虚拟现实空间定位特征点识别系统包括:图像采集模块、图像传输模块、图像处理模块、神经网络模型构建模块、中央控制模块、模型训练模块、红外拍摄模块、红外图像处理模块、模型测试模块、标注与显示模块。本发明通过将神经网络的算法引入虚拟现实空间定位的方法,提供了一种确定光斑ID的方法,准确且高效;通过对训练图像和测试图像进行预处理,防止了图片的多样化对识别准确率产生影响;对图像的处理提升了计算速度,另一方面保证了识别的准确性。同时,本发明通过灰度判断神经元输入的值可以简化判断过程,增加识别效率,使ID识别更加全面。
Description
技术领域
本发明属于特征识别技术领域,尤其涉及一种虚拟现实空间定位特征点识别系统及识别方法。
背景技术
目前,空间定位一般采用光学或超声波的模式进行定位和测算,通过建立模型来推导待测物体的空间位置。一般的虚拟现实空间定位系统采用红外点和光感摄像头接收的方式来确定物体的空间位置,红外点在近眼显示装置的前端,在定位时,光感摄像头捕捉红外点的位置进而推算出使用者的物理坐标。如果知道至少三个光源和投影的对应关系,再调用PnP算法就可得到头盔的空间定位位置,而实现这一过程的关键就是确定投影对应的光源ID。目前的虚拟现实空间定位在确定投影对应光源ID时常常存在对应不准确和对应时间过长的缺点,影响了定位的准确性和效率。因此,亟需一种新的虚拟现实空间定位特征点识别系统。
通过上述分析,现有技术存在的问题及缺陷为:目前的虚拟现实空间定位在确定投影对应光源ID时常常存在对应不准确和对应时间过长的缺点,影响了定位的准确性和效率。
发明内容
针对现有技术存在的问题,本发明提供了一种虚拟现实空间定位特征点识别系统及识别方法。
本发明是这样实现的,一种虚拟现实空间定位特征点识别系统,所述虚拟现实空间定位特征点识别系统包括:
图像采集模块,与中央控制模块连接,用于通过摄像头进行指定区域图像的采集,得到区域图像;
图像传输模块,与中央控制模块连接,用于通过无线网络进行区域图像的传输,包括:
将无线网络接入设置有摄像头的移动终端,并通过接入的无线网络进行图像传输;其中,所述将无线网络接入设置有摄像头的移动终端前,进行无线网络可信度评价,包括:
对不同类型的网络连接数据,进行数据预处理和特征提取;所述对不同类型的网络连接数据,进行数据预处理和特征提取包括:
取n条网络连接记录作为训练集,第i条记录的连续属性值作为一个向量,Xi={xi1,xi2,...,xij},i=1..n,j=1..32,标准化计算公式为:
且/>
其中,n为训练集的记录条数,j为属性列,AVGj和STDj分别为一个训练集中,第j列属性的平均值和标准差,x’ij为每一属性的值;
通过属性计算公式将每一属性值归一化;
通过属性计算公式将x’ij归一化到[0,1]区间,x”ij作为最终样本属性的取值,具体公式为:
其中,minj为训练集中第j列属性的最小值,MAXj为训练集中第j列属性的最大值;
根据所提取的特征,通过广义回归神经网络结合模糊聚类算法进行迭代和训练得出的聚类结果,包括:
根据模糊聚类算法将数据进行分类,并计算每类的聚类中心;
FCM把n个向量xk分为c个模糊类,并求每类的聚类中心ci,从而使模糊目标函数最小;
模糊聚类的目标函数为:
其中,dij=||ci-xj||为样本向量距离中心点的欧式距离,ci是第i类的中心,m为样本个数,j为属性列;每一聚类中心的计算公式为:
通过隶属度函数计算隶属度值,构成模糊矩阵;
隶属度函数为:
从模糊矩阵中选择训练样本,作为广义神经网络的训练输入;
在模糊矩阵中选择距离中心值最小的m个样本作为训练样本,通过n*m组数据作为广义神经网络的训练输入;其中,n为根据模糊聚类算法将入侵数据分类的个数,m为1~5之间的数据;
根据广义神经网络的训练输入,预测输出入侵数据类别;所述广义神经网络由输入层、模式层、求和层和输出层四级结构组成;
将数据重新分为n类,找出最靠近每类中心值的样本作为训练样本;得出聚类结果;
根据所述聚类结果,通过设置可信度权重向量和网络连接可信度算法计算相应分类的可信度估值;
通过改进的关联属性判定算法计算网络入侵规则的可信度,作为入侵检测系统中规则库动态调整的依据;
依据调整后的可信度确定是否建立移动终端与互联网的连接;
图像处理模块,与中央控制模块连接,用于通过图像处理程序进行区域图像的接收,并对接收的区域图像进行处理,得到处理后的图像;
神经网络模型构建模块,与中央控制模块连接,用于通过神经网络模型构建程序进行神经网络模型的构建,得到特征点识别神经网络模型;
中央控制模块,与图像采集模块、图像传输模块、图像处理模块、神经网络模型构建模块连接,用于通过主控机对所述虚拟现实空间定位特征点识别系统的各连接模块的运行进行协调控制,保证各个模块的正常运行;
模型训练模块,与中央控制模块连接,用于通过模型训练程序进行特征点识别神经网络模型的训练,得到训练后的特征点识别神经网络模型;
红外拍摄模块,与中央控制模块连接,用于通过红外摄像头进行拍摄,得到红外图像;
红外图像处理模块,与中央控制模块连接,用于通过红外图像处理程序进行红外图像的处理,得到处理后的红外图像;
模型测试模块,与中央控制模块连接,用于通过模型测试程序将处理后的红外图像输入训练后的特征点识别神经网络模型,进行模型测试,得到模型测试结果;
标注与显示模块,与中央控制模块连接,用于通过标注与显示程序进行模型测试结果的显示,并对特征点进行标注。
进一步,图像传输模块中,所述将无线网络接入设置有摄像头的移动终端,包括:
设定设置有摄像头的移动终端为目标设备;
主设备处于扫描状态,以扫描从设备发送的从设备信息,或主设备发送主设备信息,并接收从设备回复的从设备信息;
在从设备信息与信息列表中的设备信息匹配时,向从设备发送关联请求;
接收到目标从设备响应关联请求时,与目标从设备建立连接。
进一步,图像处理模块中,所述通过图像处理程序进行区域图像的接收,并对接收的区域图像进行处理,得到处理后的图像,包括:
接收区域图像,将区域转换为32×32像素的黑白图像;
在转换得到的黑白图像上找到每个光斑的中心点;
在每个中心点上叠加一个小半径的黑色光斑,所述黑色光斑占用1个像素的大小。
进一步,神经网络模型构建模块中,所述通过神经网络模型构建程序进行神经网络模型的构建,得到特征点识别神经网络模型,包括:
根据最小子图赋予权重之后的输入矢量确定输入层神经元个数n1;
根据Kolomogorov定理来确定隐含层神经元个数n2,当输入层神经元个数为n1时,确定隐含层神经元个数n2=2n1+1;
根据STEP-NC制造特征确定神经网络的输出层神经元个数n3;
确定输入层和隐含层间连接权值矩阵wij[n1×n2],隐含层和输出层间连接权值矩阵wjk[n3×n2];
确定隐含层阈值矩阵aj[n2×1],输出层阈值矩阵bk[n3×1];
进行隐含层和输出层的输出;
根据网络预测Ok和期望输出yk差值计算得出误差。
进一步,模型测试模块中,所述进行模型测试,得到模型测试结果,包括:得到每个光斑对应的所述红外点光源的ID。
进一步,所述得到每个光斑对应的所述红外点光源的ID,包括:
结合上一帧已知的历史信息对上一帧图像的光斑点做一个微小的平移使上一帧图像的光斑点与当前帧图像的光斑点产生对应关系;
根据该对应关系和上一帧的历史信息判断当前帧图像上有对应关系的每个光斑点的对应ID。
进一步,标注与显示模块中,所述通过标注与显示程序对特征点进行标注,包括:
获取特征点标注指令,根据所述特征点标注指令对图片进行标注;
进行标注选择,同时对需要撤回的标注进行撤回处理;
在进行标注过程中,对标注进行移动,根据数据的真实值对标注进行校准。
本发明的另一目的在于提供一种存储在计算机可读介质上的计算机程序产品,包括计算机可读程序,供于电子装置上执行时,提供用户输入接口以应用所述的虚拟现实空间定位特征点识别系统。
本发明的另一目的在于提供一种计算机可读存储介质,储存有指令,当所述指令在计算机上运行时,使得计算机应用所述的虚拟现实空间定位特征点识别系统。
本发明的另一目的在于提供一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现所述的虚拟现实空间定位特征点识别系统。
结合上述的所有技术方案,本发明所具备的优点及积极效果为:本发明提供的虚拟现实空间定位特征点识别系统,通过将神经网络的算法引入虚拟现实空间定位的方法,提供了一种确定光斑ID的方法,准确且高效;通过对训练图像和测试图像进行预处理,防止了图片的多样化对识别准确率产生影响;对图像的处理提升了计算速度,另一方面保证了识别的准确性。通过灰度判断神经元输入的值可以简化判断过程,增加识别效率,使ID识别更加全面。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图做简单的介绍,显而易见地,下面所描述的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的虚拟现实空间定位特征点识别系统结构框图;
图中:1、图像采集模块;2、图像传输模块;3、图像处理模块;4、神经网络模型构建模块;5、中央控制模块;6、模型训练模块;7、红外拍摄模块;8、红外图像处理模块;9、模型测试模块;10、标注与显示模块。
图2是本发明实施例提供的虚拟现实空间定位特征点识别方法流程图。
图3是本发明实施例提供的将无线网络接入设置有摄像头的移动终端前,进行无线网络可信度评价的方法流程图。
图4是本发明实施例提供的对接收的区域图像进行处理,得到处理后的图像的方法流程图。
图5是本发明实施例提供的通过标注与显示程序对特征点进行标注的方法流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
针对现有技术存在的问题,本发明提供了一种虚拟现实空间定位特征点识别系统及识别方法,下面结合附图对本发明作详细的描述。
如图1所示,本发明实施例提供的虚拟现实空间定位特征点识别系统包括:
图像采集模块1,与中央控制模块5连接,用于通过摄像头进行指定区域图像的采集,得到区域图像;
图像传输模块2,与中央控制模块5连接,用于通过无线网络进行区域图像的传输;
图像处理模块3,与中央控制模块5连接,用于通过图像处理程序进行区域图像的接收,并对接收的区域图像进行处理,得到处理后的图像;
神经网络模型构建模块4,与中央控制模块5连接,用于通过神经网络模型构建程序进行神经网络模型的构建,得到特征点识别神经网络模型;
中央控制模块5,与图像采集模块1、图像传输模块2、图像处理模块3、神经网络模型构建模块4、模型训练模块6、红外拍摄模块7、红外图像处理模块8、模型测试模块9、标注与显示模块10连接,用于通过主控机对所述虚拟现实空间定位特征点识别系统的各连接模块的运行进行协调控制,保证各个模块的正常运行;
模型训练模块6,与中央控制模块5连接,用于通过模型训练程序进行特征点识别神经网络模型的训练,得到训练后的特征点识别神经网络模型;
红外拍摄模块7,与中央控制模块5连接,用于通过红外摄像头进行拍摄,得到红外图像;
红外图像处理模块8,与中央控制模块5连接,用于通过红外图像处理程序进行红外图像的处理,得到处理后的红外图像;
模型测试模块9,与中央控制模块5连接,用于通过模型测试程序将处理后的红外图像输入训练后的特征点识别神经网络模型,进行模型测试,得到模型测试结果;
标注与显示模块10,与中央控制模块5连接,用于通过标注与显示程序进行模型测试结果的显示,并对特征点进行标注。
如图2所示,本发明实施例提供的虚拟现实空间定位特征点识别方法包括以下步骤:
S101,通过图像采集模块利用摄像头进行指定区域图像的采集,得到区域图像;通过图像传输模块利用无线网络进行区域图像的传输;
S102,通过图像处理模块利用图像处理程序进行区域图像的接收,并对接收的区域图像进行处理,得到处理后的图像;
S103,通过神经网络模型构建模块利用神经网络模型构建程序进行神经网络模型的构建,得到特征点识别神经网络模型;
S104,通过中央控制模块利用主控机对所述虚拟现实空间定位特征点识别系统的各连接模块的运行进行协调控制,保证各个模块的正常运行;
S105,通过模型训练模块利用模型训练程序进行特征点识别神经网络模型的训练,得到训练后的特征点识别神经网络模型;
S106,通过红外拍摄模块利用红外摄像头进行拍摄,得到红外图像;通过红外图像处理模块利用红外图像处理程序进行红外图像的处理,得到处理后的红外图像;
S107,通过模型测试模块利用模型测试程序将处理后的红外图像输入训练后的特征点识别神经网络模型,进行模型测试,得到模型测试结果;
S108,通过标注与显示模块利用标注与显示程序进行模型测试结果的显示,并对特征点进行标注。
本发明实施例提供的通过无线网络进行区域图像的传输,包括:将无线网络接入设置有摄像头的移动终端,并通过接入的无线网络进行图像传输。
本发明实施例提供的进行模型测试,得到模型测试结果,包括:得到每个光斑对应的所述红外点光源的ID。
本发明实施例提供的得到每个光斑对应的所述红外点光源的ID,包括:结合上一帧已知的历史信息对上一帧图像的光斑点做一个微小的平移使上一帧图像的光斑点与当前帧图像的光斑点产生对应关系,根据该对应关系和上一帧的历史信息判断当前帧图像上有对应关系的每个光斑点的对应ID。
下面结合具体实施例对本发明作进一步描述。
实施例1
本发明实施例提供的虚拟现实空间定位特征点识别方法如图1所示,作为优选实施例,如图3所示,本发明实施例提供的将无线网络接入设置有摄像头的移动终端前,进行无线网络可信度评价的方法包括:
S201,对不同类型的网络连接数据,进行数据预处理和特征提取;
S202,根据所提取的特征,通过广义回归神经网络结合模糊聚类算法进行迭代和训练得出的聚类结果;
S203,根据所述聚类结果,通过设置可信度权重向量和网络连接可信度算法计算相应分类的可信度估值;
S204,通过改进的关联属性判定算法计算网络入侵规则的可信度,作为入侵检测系统中规则库动态调整的依据;
S205,依据调整后的可信度确定是否建立移动终端与互联网的连接。
本发明实施例提供的对不同类型的网络连接数据,进行数据预处理和特征提取包括:
取n条网络连接记录作为训练集,第i条记录的连续属性值作为一个向量,Xi={xi1,xi2,…,xij},i=1..n,j=1..32,标准化计算公式为:
且/>
其中,n为训练集的记录条数,j为属性列,AVGj和STDj分别为一个训练集中,第j列属性的平均值和标准差,x’ij为每一属性的值;
通过属性计算公式将每一属性值归一化;
通过属性计算公式将x’ij归一化到[0,1]区间,x”ij作为最终样本属性的取值,具体公式为:
其中,minj为训练集中第j列属性的最小值,MAXj为训练集中第j列属性的最大值。
本发明实施例提供的通过广义回归神经网络结合模糊聚类算法进行迭代和训练得出的聚类结果,包括:
根据模糊聚类算法将数据进行分类,并计算每类的聚类中心;
FCM把n个向量xk分为c个模糊类,并求每类的聚类中心ci,从而使模糊目标函数最小;
模糊聚类的目标函数为:
其中,dij=||ci-xj||为样本向量距离中心点的欧式距离,ci是第i类的中心,m为样本个数,j为属性列;每一聚类中心的计算公式为:
通过隶属度函数计算隶属度值,构成模糊矩阵;
隶属度函数为:
从模糊矩阵中选择训练样本,作为广义神经网络的训练输入;
在模糊矩阵中选择距离中心值最小的m个样本作为训练样本,通过n*m组数据作为广义神经网络的训练输入;其中,n为根据模糊聚类算法将入侵数据分类的个数,m为1~5之间的数据;
根据广义神经网络的训练输入,预测输出入侵数据类别;所述广义神经网络由输入层、模式层、求和层和输出层四级结构组成;
将数据重新分为n类,找出最靠近每类中心值的样本作为训练样本;得出聚类结果。
本发明实施例提供的将无线网络接入设置有摄像头的移动终端,包括:
设定设置有摄像头的移动终端为目标设备;
主设备处于扫描状态,以扫描从设备发送的从设备信息,或主设备发送主设备信息,并接收从设备回复的从设备信息;
在从设备信息与信息列表中的设备信息匹配时,向从设备发送关联请求;
接收到目标从设备响应关联请求时,与目标从设备建立连接。
实施例2
本发明实施例提供的虚拟现实空间定位特征点识别方法如图1所示,作为优选实施例,如图4所示,本发明实施例提供的对接收的区域图像进行处理,得到处理后的图像的方法包括:
S301,接收区域图像,将区域转换为32×32像素的黑白图像;
S302,在转换得到的黑白图像上找到每个光斑的中心点;
S303,在每个中心点上叠加一个小半径的黑色光斑,所述黑色光斑占用1个像素的大小。
本发明实施例提供的通过神经网络模型构建程序进行神经网络模型的构建,得到特征点识别神经网络模型,包括:
根据最小子图赋予权重之后的输入矢量确定输入层神经元个数n1;
根据Kolomogorov定理来确定隐含层神经元个数n2,当输入层神经元个数为n1时,确定隐含层神经元个数n2=2n1+1;
根据STEP-NC制造特征确定神经网络的输出层神经元个数n3;
确定输入层和隐含层间连接权值矩阵wij[n1×n2],隐含层和输出层间连接权值矩阵wjk[n3×n2];
确定隐含层阈值矩阵aj[n2×1],输出层阈值矩阵bk[n3×1];
进行隐含层和输出层的输出;
根据网络预测Ok和期望输出yk差值计算得出误差。
实施例3
本发明实施例提供的虚拟现实空间定位特征点识别方法如图1所示,作为优选实施例,如图5所示,本发明实施例提供的通过标注与显示程序对特征点进行标注的方法包括:
S401,获取特征点标注指令,根据所述特征点标注指令对图片进行标注;
S402,进行标注选择,同时对需要撤回的标注进行撤回处理;
S403,在进行标注过程中,对标注进行移动,根据数据的真实值对标注进行校准。
在本发明的描述中,除非另有说明,“多个”的含义是两个或两个以上;术语“上”、“下”、“左”、“右”、“内”、“外”、“前端”、“后端”、“头部”、“尾部”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”等仅用于描述目的,而不能理解为指示或暗示相对重要性。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用全部或部分地以计算机程序产品的形式实现,所述计算机程序产品包括一个或多个计算机指令。在计算机上加载或执行所述计算机程序指令时,全部或部分地产生按照本发明实施例所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL)或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输)。所述计算机可读取存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,都应涵盖在本发明的保护范围之内。
Claims (6)
1.一种虚拟现实空间定位特征点识别系统,其特征在于,所述虚拟现实空间定位特征点识别系统包括:
图像采集模块,与中央控制模块连接,用于通过摄像头进行指定区域图像的采集,得到区域图像;
图像传输模块,与中央控制模块连接,用于通过无线网络进行区域图像的传输,包括:
将无线网络接入设置有摄像头的移动终端,并通过接入的无线网络进行图像传输;其中,所述将无线网络接入设置有摄像头的移动终端前,进行无线网络可信度评价,包括:
对不同类型的网络连接数据,进行数据预处理和特征提取;所述对不同类型的网络连接数据,进行数据预处理和特征提取包括:
取n条网络连接记录作为训练集,第i条记录的连续属性值作为一个向量,Xi={xil,xi2,...xij},i=1..n,j=1..32,标准化计算公式为:
且/>
其中,n为训练集的记录条数,j为属性列,AVGj和STDj分别为一个训练集中,第j列属性的平均值和标准差,x’ij为每一属性的值;
通过属性计算公式将每一属性值归一化;
通过属性计算公式将x’ij归一化到[0,1]区间,x”ij作为最终样本属性的取值,具体公式为:
其中,minj为训练集中第j列属性的最小值,MAXj为训练集中第j列属性的最大值;
根据所提取的特征,通过广义回归神经网络结合模糊聚类算法进行迭代和训练得出的聚类结果,包括:
根据模糊聚类算法将数据进行分类,并计算每类的聚类中心;
FCM把n个向量xk分为c个模糊类,并求每类的聚类中心ci,从而使模糊目标函数最小;
模糊聚类的目标函数为:
其中,dij=||ci-xj||为样本向量距离中心点的欧式距离,ci是第i类的中心,m为样本个数,j为属性列;每一聚类中心的计算公式为:
通过隶属度函数计算隶属度值,构成模糊矩阵;
隶属度函数为:
从模糊矩阵中选择训练样本,作为广义神经网络的训练输入;
在模糊矩阵中选择距离中心值最小的m个样本作为训练样本,通过n*m组数据作为广义神经网络的训练输入;其中,n为根据模糊聚类算法将入侵数据分类的个数,m为1~5之间的数据;
根据广义神经网络的训练输入,预测输出入侵数据类别;所述广义神经网络由输入层、模式层、求和层和输出层四级结构组成;
将数据重新分为n类,找出最靠近每类中心值的样本作为训练样本;得出聚类结果;
根据所述聚类结果,通过设置可信度权重向量和网络连接可信度算法计算相应分类的可信度估值;
通过改进的关联属性判定算法计算网络入侵规则的可信度,作为入侵检测系统中规则库动态调整的依据;
依据调整后的可信度确定是否建立移动终端与互联网的连接;
图像处理模块,与中央控制模块连接,用于通过图像处理程序进行区域图像的接收,并对接收的区域图像进行处理,得到处理后的图像;
神经网络模型构建模块,与中央控制模块连接,用于通过神经网络模型构建程序进行神经网络模型的构建,得到特征点识别神经网络模型;所述通过神经网络模型构建程序进行神经网络模型的构建,得到特征点识别神经网络模型,包括:
根据最小子图赋予权重之后的输入矢量确定输入层神经元个数n1;
根据Kolomogorov定理来确定隐含层神经元个数n2,当输入层神经元个数为n1时,确定隐含层神经元个数n2=2n1+1;
根据STEP-NC制造特征确定神经网络的输出层神经元个数n3;
确定输入层和隐含层间连接权值矩阵wij[n1×n2],隐含层和输出层间连接权值矩阵wjk[n3×n2];
确定隐含层阈值矩阵aj[n2×1],输出层阈值矩阵bk[n3×1];
进行隐含层和输出层的输出;
根据网络预测Ok和期望输出yk差值计算得出误差;
中央控制模块,与图像采集模块、图像传输模块、图像处理模块、神经网络模型构建模块连接,用于通过主控机对所述虚拟现实空间定位特征点识别系统的各连接模块的运行进行协调控制,保证各个模块的正常运行;
模型训练模块,与中央控制模块连接,用于通过模型训练程序进行特征点识别神经网络模型的训练,得到训练后的特征点识别神经网络模型;
红外拍摄模块,与中央控制模块连接,用于通过红外摄像头进行拍摄,得到红外图像;
红外图像处理模块,与中央控制模块连接,用于通过红外图像处理程序进行红外图像的处理,得到处理后的红外图像;
模型测试模块,与中央控制模块连接,用于通过模型测试程序将处理后的红外图像输入训练后的特征点识别神经网络模型,进行模型测试,得到模型测试结果;
标注与显示模块,与中央控制模块连接,用于通过标注与显示程序进行模型测试结果的显示,并对特征点进行标注;所述通过标注与显示程序对特征点进行标注,包括:
获取特征点标注指令,根据所述特征点标注指令对图片进行标注;
进行标注选择,同时对需要撤回的标注进行撤回处理;
在进行标注过程中,对标注进行移动,根据数据的真实值对标注进行校准;
图像传输模块中,所述将无线网络接入设置有摄像头的移动终端,包括:
设定设置有摄像头的移动终端为目标设备;
主设备处于扫描状态,以扫描从设备发送的从设备信息,或主设备发送主设备信息,并接收从设备回复的从设备信息;
在从设备信息与信息列表中的设备信息匹配时,向从设备发送关联请求;
接收到目标从设备响应关联请求时,与目标从设备建立连接。
2.如权利要求1所述的虚拟现实空间定位特征点识别系统,其特征在于,图像处理模块中,所述通过图像处理程序进行区域图像的接收,并对接收的区域图像进行处理,得到处理后的图像,包括:
接收区域图像,将区域转换为32×32像素的黑白图像;
在转换得到的黑白图像上找到每个光斑的中心点;
在每个中心点上叠加一个小半径的黑色光斑,所述黑色光斑占用1个像素的大小。
3.如权利要求1所述的虚拟现实空间定位特征点识别系统,其特征在于,模型测试模块中,所述进行模型测试,得到模型测试结果,包括:得到每个光斑对应的红外点光源的ID。
4.如权利要求3所述的虚拟现实空间定位特征点识别系统,其特征在于,所述得到每个光斑对应的红外点光源的ID,包括:
结合上一帧已知的历史信息对上一帧图像的光斑点做一个微小的平移使上一帧图像的光斑点与当前帧图像的光斑点产生对应关系;
根据该对应关系和上一帧的历史信息判断当前帧图像上有对应关系的每个光斑点的对应ID。
5.一种计算机可读存储介质,储存有指令,当所述指令在计算机上运行时,使得计算机应用如权利要求1~4任意一项所述的虚拟现实空间定位特征点识别系统。
6.一种信息数据处理终端,其特征在于,所述信息数据处理终端用于实现如权利要求1~4任意一项所述的虚拟现实空间定位特征点识别系统。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110521666.1A CN113239922B (zh) | 2021-05-13 | 2021-05-13 | 一种虚拟现实空间定位特征点识别系统及识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110521666.1A CN113239922B (zh) | 2021-05-13 | 2021-05-13 | 一种虚拟现实空间定位特征点识别系统及识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113239922A CN113239922A (zh) | 2021-08-10 |
CN113239922B true CN113239922B (zh) | 2023-10-31 |
Family
ID=77133996
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110521666.1A Active CN113239922B (zh) | 2021-05-13 | 2021-05-13 | 一种虚拟现实空间定位特征点识别系统及识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113239922B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104539484A (zh) * | 2014-12-31 | 2015-04-22 | 深圳先进技术研究院 | 一种动态评估网络连接可信度的方法及系统 |
CN106774993A (zh) * | 2016-12-16 | 2017-05-31 | 深圳市虚拟现实技术有限公司 | 基于神经网络的特征点识别方法 |
US10366508B1 (en) * | 2016-08-29 | 2019-07-30 | Perceptin Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
CN110766024A (zh) * | 2019-10-08 | 2020-02-07 | 湖北工业大学 | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 |
CN111598038A (zh) * | 2020-05-22 | 2020-08-28 | 深圳市瑞立视多媒体科技有限公司 | 脸部特征点检测方法、装置、设备及存储介质 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
TWI754806B (zh) * | 2019-04-09 | 2022-02-11 | 栗永徽 | 利用深度學習定位虹膜之裝置與方法 |
-
2021
- 2021-05-13 CN CN202110521666.1A patent/CN113239922B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104539484A (zh) * | 2014-12-31 | 2015-04-22 | 深圳先进技术研究院 | 一种动态评估网络连接可信度的方法及系统 |
US10366508B1 (en) * | 2016-08-29 | 2019-07-30 | Perceptin Shenzhen Limited | Visual-inertial positional awareness for autonomous and non-autonomous device |
CN106774993A (zh) * | 2016-12-16 | 2017-05-31 | 深圳市虚拟现实技术有限公司 | 基于神经网络的特征点识别方法 |
CN110766024A (zh) * | 2019-10-08 | 2020-02-07 | 湖北工业大学 | 基于深度学习的视觉里程计特征点提取方法及视觉里程计 |
CN111598038A (zh) * | 2020-05-22 | 2020-08-28 | 深圳市瑞立视多媒体科技有限公司 | 脸部特征点检测方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
"视觉注意力检测技术研究综述";罗元等;《半导体光电》;第40卷(第1期);1-8 * |
Also Published As
Publication number | Publication date |
---|---|
CN113239922A (zh) | 2021-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021536057A (ja) | 医療画像に対する病変の検出及び位置決め方法、装置、デバイス、及び記憶媒体 | |
CN108171203B (zh) | 用于识别车辆的方法和装置 | |
CN109544548A (zh) | 餐盒的缺陷检测方法、装置、服务器、设备和存储介质 | |
CN111695622A (zh) | 变电作业场景的标识模型训练方法、标识方法及装置 | |
CN102365645A (zh) | 通过关联面部来组织数字图像 | |
CN110049121B (zh) | 一种基于增强现实技术的数据中心巡检系统 | |
CN112613569B (zh) | 图像识别方法、图像分类模型的训练方法及装置 | |
US20230177800A1 (en) | Handheld Object Recognition Method and Apparatus | |
CN112862757A (zh) | 一种基于计算机视觉技术的重量评估系统及实现方法 | |
CN115797736B (zh) | 目标检测模型的训练和目标检测方法、装置、设备和介质 | |
CN116434266B (zh) | 一种医疗检验单的数据信息自动提取分析方法 | |
CN113177468A (zh) | 人体行为检测方法、装置、电子设备及存储介质 | |
CN111242922A (zh) | 一种蛋白质图像分类方法、装置、设备及介质 | |
CN111124863B (zh) | 智能设备性能测试方法、装置及智能设备 | |
CN113312969A (zh) | 一种基于三维视觉的零部件识别与定位方法、系统 | |
CN104182747A (zh) | 基于多个立体相机的对象检测跟踪方法及装置 | |
CN111126268A (zh) | 关键点检测模型训练方法、装置、电子设备及存储介质 | |
CN113239922B (zh) | 一种虚拟现实空间定位特征点识别系统及识别方法 | |
CN115690514A (zh) | 图像识别方法及相关设备 | |
CN112052727B (zh) | 一种基于大数据的人像识别分析系统及方法 | |
CN112183603A (zh) | 痘痘类型识别模型训练方法及相关装置 | |
CN114374931A (zh) | 基于近邻成分分析的度量学习的指纹定位方法 | |
CN112200222A (zh) | 模型训练设备 | |
CN117523428B (zh) | 基于飞行器平台的地面目标检测方法和装置 | |
CN117329928B (zh) | 一种基于多元情报融合的无人机综合探测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |