CN117194938B - 一种基于智能咬嘴的指令识别方法、装置和存储介质 - Google Patents
一种基于智能咬嘴的指令识别方法、装置和存储介质 Download PDFInfo
- Publication number
- CN117194938B CN117194938B CN202311465940.3A CN202311465940A CN117194938B CN 117194938 B CN117194938 B CN 117194938B CN 202311465940 A CN202311465940 A CN 202311465940A CN 117194938 B CN117194938 B CN 117194938B
- Authority
- CN
- China
- Prior art keywords
- data
- mouthpiece
- intelligent
- diver
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 69
- 238000003860 storage Methods 0.000 title claims abstract description 10
- 239000013598 vector Substances 0.000 claims abstract description 92
- 238000012549 training Methods 0.000 claims abstract description 74
- 230000009471 action Effects 0.000 claims abstract description 56
- 230000009467 reduction Effects 0.000 claims abstract description 26
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000007781 pre-processing Methods 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 6
- 238000002372 labelling Methods 0.000 claims abstract description 4
- 230000000669 biting effect Effects 0.000 claims description 71
- 230000006870 function Effects 0.000 claims description 67
- 238000004891 communication Methods 0.000 claims description 60
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 55
- QVGXLLKOCUKJST-UHFFFAOYSA-N atomic oxygen Chemical compound [O] QVGXLLKOCUKJST-UHFFFAOYSA-N 0.000 claims description 37
- 239000001301 oxygen Substances 0.000 claims description 37
- 229910052760 oxygen Inorganic materials 0.000 claims description 37
- 238000004422 calculation algorithm Methods 0.000 claims description 29
- 238000011176 pooling Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 23
- 238000012544 monitoring process Methods 0.000 claims description 22
- 238000013528 artificial neural network Methods 0.000 claims description 20
- 230000004913 activation Effects 0.000 claims description 18
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 230000029058 respiratory gaseous exchange Effects 0.000 claims description 15
- 239000007789 gas Substances 0.000 claims description 12
- 238000003062 neural network model Methods 0.000 claims description 12
- 230000014509 gene expression Effects 0.000 claims description 10
- 238000004458 analytical method Methods 0.000 claims description 8
- 238000009826 distribution Methods 0.000 claims description 8
- 238000000513 principal component analysis Methods 0.000 claims description 8
- 238000011049 filling Methods 0.000 claims description 7
- 238000002156 mixing Methods 0.000 claims description 7
- 230000005236 sound signal Effects 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 5
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000001746 injection moulding Methods 0.000 claims description 3
- 238000012217 deletion Methods 0.000 claims description 2
- 230000037430 deletion Effects 0.000 claims description 2
- 210000000214 mouth Anatomy 0.000 abstract description 12
- 238000010606 normalization Methods 0.000 description 10
- 230000000694 effects Effects 0.000 description 9
- 230000004927 fusion Effects 0.000 description 9
- 230000007613 environmental effect Effects 0.000 description 8
- 238000007500 overflow downdraw method Methods 0.000 description 6
- 238000012706 support-vector machine Methods 0.000 description 6
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 210000003128 head Anatomy 0.000 description 4
- 238000007637 random forest analysis Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012067 mathematical method Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 208000027418 Wounds and injury Diseases 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 230000000087 stabilizing effect Effects 0.000 description 2
- 230000001131 transforming effect Effects 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 239000003643 water by type Substances 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 239000013013 elastic material Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000007769 metal material Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 230000004202 respiratory function Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于智能咬嘴的指令识别方法、装置和存储介质,属于口腔内智能咬嘴技术领域,指令识别方法为:采集潜水员咬合控制开关的咬合动作数据和水下环境的物理参数数据作为输入数据;对采集得到的输入数据进行预处理、特征提取、数据组合和降维处理得到经过处理的输入数据;将经过处理的输入数据进行标注得到训练数据;根据训练数据的特征向量选择模型,将训练数据的特征向量的熵作为正则化项加入到模型的损失函数中;使用训练数据对模型进行训练,并不断优化损失函数;将训练好的模型部署到智能咬嘴中,智能咬嘴根据输入数据,结合场景混杂度识别潜水员发出的指令;本发明能够有效实现对智能咬嘴发出指令的识别。
Description
技术领域
本发明属于口腔内智能咬嘴技术领域,具体涉及一种基于智能咬嘴的指令识别方法、装置和存储介质。
背景技术
在水下作业/潜水时,潜水员需要使用咬嘴进行呼吸。然而普通的咬嘴只可以进行呼吸,不能对其潜水员的一些状态、信息交流起到作用。传统的咬嘴设计通常只关注牙齿的形状和位置,忽略了潜水员咬合时的力量和角度等参数。这种设计可能导致潜水员在深海作业时无法准确地咬合物体,影响作业效率,还可能增加潜水员受伤的风险。这些问题限制了普通咬嘴在深海作业中的应用范围和效果。因此,研发一种更加智能、多功能、可靠、方便的智能咬嘴及其指令识别方案是非常必要的。
发明内容
有鉴于此,本发明提供了一种基于智能咬嘴的指令识别方法、装置和存储介质,能够有效实现对智能咬嘴发出指令的识别。
本发明是通过下述技术方案实现的:
一种基于智能咬嘴的指令识别方法,所述智能咬嘴包括咬嘴主体和安装在咬嘴主体的齿咬上的至少两个控制开关,所述控制开关采用压力传感器,所述智能咬嘴还具有氧气浓度传感器、温度传感器和流速计;
所述指令识别方法为:
步骤1,采集潜水员咬合所述控制开关的咬合动作数据和水下环境的物理参数数据作为输入数据;所述咬合动作数据包括咬合的力度、角度和频率,所述水下环境的物理参数数据包括水温、水压、水流及氧气浓度;
步骤2,对采集得到的所述输入数据进行预处理、特征提取、数据组合和降维处理得到经过处理的所述输入数据;
步骤3,将所述经过处理的输入数据进行标注得到训练数据;根据所述训练数据的特征向量选择模型,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中;使用所述训练数据对模型进行训练,并不断优化所述损失函数;
步骤4,将训练好的模型部署到智能咬嘴中,所述智能咬嘴根据输入数据,结合场景混杂度识别潜水员发出的指令。
进一步的,在步骤2中,对采集得到的所述输入数据进行预处理包括:对所述咬合动作数据和所述物理参数数据进行标准化处理、缺失值填充和删除离群点;
对采集得到的所述输入数据进行数据组合包括:分别建模所述咬合动作数据和所述物理参数的数据向量,融合模型预测结果;
对采集得到的所述输入数据进行降维处理为:使用主成分分析或线性判别分析方法进行降维处理;
在步骤3中,将所述经过处理的输入数据进行标注得到训练数据包括:分别为咬合动作数据和所述物理参数的数据向量按照潜水者的实际意图进行标注。
进一步的,步骤3中,根据所述训练数据的特征向量选择神经网络模型,所述神经网络模型表示为,其中,/>表示神经网络模型的输出,即样本的标签;/>表示输入的特征向量,即样本的特征向量,W1和W2分别表示第一层和第二层的权重矩阵,b1和b2分别表示所述神经网络模型第一层和第二层的偏置,g表示第一层的激活函数,/>表示第二层的激活函数;
将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中时,所述正则化项采用所述训练数据的特征向量的交叉熵的形式,采用所述交叉熵构建模型的损失函数,所述交叉熵的公式如下:
式中,为真实标签的概率分布,/>为模型的预测概率分布;
则所述交叉熵对应的损失函数表示为:
其中,log表示自然对数,N表示样本数,表示第i个样本的输入特征向量,/>表示第i个样本的输入特征向量对应的标签;该损失函数用来评估神经网络输出与标签之间的差异,并利用反向传播算法更新网络参数,使得损失函数最小化。
进一步的,步骤4中,所述智能咬嘴根据输入数据识别潜水员发出的指令还能够通过水下摄像头辅助识别潜水员发出指令,利用水下摄像头收集潜水员在不同情况下的表情及动作视频图像的特征向量,结合所述智能咬嘴根据咬合动作数据的特征向量,分别使用不同的人工智能网络进行特征识别,融合两者之间的识别结果。
进一步的,分别使用不同的人工智能网络进行特征识别,融合两者之间的识别结果的过程为:使用第一卷积神经网络提取所述视频图像的特征向量,使用第二卷积神经网络提取所述咬合动作数据的特征向量;其中,将二者进行卷积乘法操作,捕获局部匹配关系,对卷积结果应用池化函数Pool,整合局部信息;另外使用最大池化提取视频图像的特征中最显著特征;对池化结果乘上权重w1和w2,调节重要性,再进行加权求和,融合图像和动作信息;最终使用ReLU激活函数,得到最终判断分数S;S的表达公式为:
其中,、/>、/>分别表示不同的神经网络,/>表示最大池化操作,/>表示池化操作,/>表示激活函数,/>表示视频图像的特征向量,/>表示咬合动作数据的特征向量;此时,将潜水员在不同情况下的表情及动作视频图像的特征向量,结合所述智能咬嘴根据咬合动作数据的特征向量作为训练数据,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中。
进一步的,步骤4中,所述结合场景混杂度识别潜水员发出的指令为:根据平静水域场景或急流水域场景分别识别潜水员发出的指令,收集不同场景下的流速和识别结果;其中,潜水员发出的指令包括:深度控制指令、氧气控制指令、灯光控制指令或摄像头控制指令;
识别潜水员发出的指令的算法流程为:
步骤4-1. 收集不同场景下的历史环境数据和识别结果;
步骤4-2. 分析不同场景下识别结果的统计规律,建立场景-识别结果的对应规则;
步骤4-3. 实时监测环境数据,判断当前场景;
步骤4-4. 查询当前场景下的识别结果对应规则;
步骤4-5. 将实时识别结果与查询到的对应规则进行匹配;
步骤4-6. 如果匹配成功,则执行识别结果;如果匹配失败,则判断为误判,不执行该识别结果;
步骤4-7. 如果连续多次识别结果不符合对应规则,则判断模型出现偏差,触发模型在线校准流程;
步骤4-8. 不断收集新数据,更新和优化场景-识别结果的对应规则。
进一步的,所述智能咬嘴与水下通信主机和耳机组成水下通信装置;所述水下通信主机分别通过通信线缆与智能咬嘴的控制开关、耳机连接;
所述智能咬嘴的咬嘴主体包括:装配部和延伸于装配部的保持部;
所述保持部为圆弧状结构,位于圆弧状结构包络范围内的空间为出气腔;
所述装配部的中心设有与所述出气腔连通的装配通道,保持部具有连通装配通道的出气腔;用于连接气瓶的二级头被固定于装配部的装配通道上,以使得保持部的出气腔与气瓶连通;潜水员通过牙齿咬住保持部的方式将咬嘴主体保持于口中,获取气瓶中的氧气;
所述控制开关设置于咬嘴主体的保持部上,控制开关用于检测潜水员的状态;所述控制开关通过嵌件注塑的方式被嵌入咬嘴主体的保持部内;
当潜水员连续两次咬合控制开关时,控制开关给水下通信主机发送咬合信号,水下通信主机对该咬合信号进行解析后,通过耳机播报该咬合信号对应的语音菜单播报命令,潜水员在耳机中听到该语音菜单播报命令,潜水员听到所需要发送的命令时,再次咬合控制开关;命令通过水下通信主机把命令发送到岸上基地;
潜水员平时不发送命令时,即不咬合控制开关时,水下通信装置一直处于接收状态,接收岸上基地的指令;
其中,所述保持部包括连接于装配部的圆弧状的外延部和自外延部朝向出气腔内延伸的两个齿咬部;潜水员通过咬住齿咬部的方式将咬嘴主体置于口中;且所述控制开关设置于齿咬部,每个齿咬部上均至少设置一个控制开关。
进一步的,所述智能咬嘴还包括氧气浓度传感器、温度传感器和流速计;所述氧气浓度传感器、温度传感器和流速计分别通过电缆与水下通信主机电性连接,氧气浓度传感器用于监测水下的氧气浓度,并传输给水下通信主机;温度传感器用于监测水下的温度,并传输给水下通信主机;流速计于监测水流速,并传输给水下通信主机;
所述智能咬嘴还包括呼吸传感器、水下声音传感器和水下摄像头;所述呼吸传感器、水下声音传感器和水下摄像头分别通过电缆与水下通信主机电性连接;呼吸传感器用于监测潜水员的呼吸的深度和频率数据,并传输给水下通信主机;水下声音传感器用于监测周围的水声信号,并传输给水下通信主机;水下摄像头用于监测周围环境的可视信息并传输给水下通信主机。
一种基于智能咬嘴的指令识别装置,所述智能咬嘴包括咬嘴主体和安装在咬嘴主体的齿咬上的至少两个控制开关,所述控制开关采用压力传感器,所述智能咬嘴还具有氧气浓度传感器、温度传感器和流速计;
所述指令识别装置包括:数据采集模块、数据处理模块、模型训练模块及指令识别模块;
数据采集模块用于采集潜水员咬合所述控制开关的咬合动作数据和水下环境的物理参数数据作为输入数据;所述咬合动作数据包括咬合的力度、角度和频率,所述水下环境的物理参数数据包括水温、水压、水流及氧气浓度;
数据处理模块用于对采集得到的所述输入数据进行预处理、特征提取、数据组合和降维处理得到经过处理的所述输入数据;
模型训练模块用于将所述经过处理的输入数据进行标注得到训练数据;根据所述训练数据的特征向量选择模型,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中;使用所述训练数据对模型进行训练,并不断优化所述损失函数;
指令识别模块用于将训练好的模型部署到智能咬嘴中,所述智能咬嘴根据输入数据,结合场景混杂度识别潜水员发出的指令。
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,能够实现所述基于智能咬嘴的指令识别方法。
有益效果:
(1)本发明提供的一种基于智能咬嘴的指令识别方法,具有如下优点:①提取多种特征,从咬合动作和环境数据中提取时间域特征、频域特征和数值特征等;②多模态数据融合,组合多源数据的特征向量,充分挖掘数据之间的互补性;利用多源数据,同时采集咬合动作数据和环境物理参数,信息更全面;③使用熵正则项,可以避免过拟合,学习到更通用的模型;④部署方便,训练好的模型可以直接部署到智能咬嘴上进行实时识别;⑤数据预处理,通过数据清洗、标准化等步骤,可以提高数据质量和模型效果;⑥动静合一,结合咬合动作和环境变化,识别出潜水员更多的潜在需求;⑦模型可扩展性好,随着新数据和算法不断迭代,识别效果将不断提升;⑧识别广度大,随着训练样本增加,可以识别更多种类的潜水员指令。
(2)本发明的智能咬嘴根据输入数据识别潜水员发出的指令还可通过其他水下设备辅助识别潜水员发出指令;所述其他水下设备包括:呼吸传感器、水下声音传感器及水下摄像头,这些传感器、流速计和摄像头采集到的数据可以结合在一起,进行多模态数据融合,提高模型的鲁棒性和泛化能力,从而更好地实现智能咬嘴的功能。
(3)本发明使用第一卷积神经网络提取所述视频图像的特征向量,使用第二卷积神经网络提取所述咬合动作数据的特征向量;其中,将二者进行卷积乘法操作,捕获局部匹配关系,对卷积结果应用池化函数Pool,整合局部信息;另外使用最大池化提取视频图像的特征中最显著特征;对池化结果乘上权重w1和w2,调节重要性,再进行加权求和,融合图像和动作信息;最终使用ReLU激活函数,得到最终判断分数S;该方式融合了卷积操作、池化、权重和ReLU等数学方法;它们互相协同,实现了更加严密的视频图像和咬合动作数据融合;通过调整卷积参数、池化方式、权重比例等,能够适应不同任务,整体过程抽象且语义清晰,有利于模型分析和解释。
(4)本发明的识别潜水员发出的指令的算法通过建立场景对应规则,并与实时识别结果匹配来判断结果的准确性,从而提高系统的稳定性。当识别结果连续多次不符合对应规则时,会触发模型校准机制,使模型保持最佳状态。该算法简单实用,但场景判断的准确性直接影响算法的效果。
(5)本发明的所述控制开关设置于咬嘴主体的保持部上,当潜水员连续两次咬合控制开关时,控制开关给水下通信主机发送咬合信号,水下通信主机对该咬合信息进行解析后,通过耳机播报该咬合信息对应的语音菜单播报命令,潜水员可在耳机中听到该语音菜单播报命令,潜水员听到所需要发送的命令时,再次咬合控制开关;命令通过水下通信主机把命令发送到岸上基地;该智能咬嘴在具有普通呼吸功能的基础上,能够监测潜水员咬合时的力量和角度等参数,并将该咬合时的数据进行转化后,还能兼顾潜水员之间的信息交流,方式简单可靠。
(6)本发明的智能咬嘴还包括氧气浓度传感器、温度传感器、流速计、呼吸传感器、水下声音传感器和水下摄像头;使得该智能咬嘴还能检测潜水员的身体状态和环境信息,减小潜水员受伤的风险。
附图说明
图1为本发明的水下通信装置的三维图;
图2为本发明的水下通信装置的主视图;
图3为本发明的智能咬嘴的三维图;
图4为图3的I处的局部放大图;
图5为本发明的智能咬嘴的结构组成图;
图6为本发明的控制开关的示意图;
图7为图6的俯视图;
图8为本发明的指令识别方法的具体流程图;
图9为本发明的指令识别装置的功能组成图;
图10为本发明的智能咬嘴的分体式结构图;
其中,1-水下通信主机,2-智能咬嘴,3-耳机,4-快拆扣,5-通信线缆,21-咬嘴主体,22-控制开关,11-装配部,12-保持部,110-装配通道,111-限位槽,120-出气腔,121-外延部,122-齿咬部,50-柔性连接部,61-U形弹片的一个支臂,62-U形弹片的另一个支臂,63-两个支臂的连接部。
具体实施方式
下面结合附图并举实施例,对本发明进行详细描述。
实施例1:
本实施例提供了一种智能咬嘴,所述智能咬嘴与水下通信主机1和耳机3组成水下通信装置,如附图1和图2所示;
参见附图3-图5,所述智能咬嘴2包括:咬嘴主体21和至少两个控制开关22;
所述咬嘴主体21包括:装配部11和延伸于装配部11的保持部12;
所述保持部12为圆弧状结构,位于圆弧状结构包络范围内的空间为出气腔120;
所述装配部11的中心设有与所述出气腔120连通的装配通道110,保持部12具有连通装配通道110的出气腔120;用于连接气瓶的二级头被固定于装配部11的装配通道110上,以使得保持部12的出气腔120与气瓶连通;潜水员通过牙齿咬住保持部12的方式将咬嘴主体21保持于口中,可获取气瓶中的氧气;
其中,所述咬嘴主体21的装配部11的外表面上设有限位槽111,当二级头被保持于咬嘴主体21的装配部11的装配通道110后,将绑带等限位件安装于限位槽111,通过束紧限位件,以使得二级头和智能咬嘴2稳定结合;
所述控制开关22设置于咬嘴主体21的保持部12上,控制开关22用于检测潜水员的状态。
其中,所述控制开关22通过嵌件注塑的方式被嵌入咬嘴主体21的保持部12内;
所述保持部12包括连接于装配部11的圆弧状的外延部121和自外延部121朝向出气腔120内延伸的两个齿咬部122;潜水员通过咬住齿咬部122的方式将咬嘴主体21置于口中;且所述控制开关22设置于齿咬部122,每个齿咬部122上均至少设置一个控制开关22;
参见附图6-图7,所述控制开关22为传感器,可采用压力传感器;
所述水下通信主机1分别通过通信线缆5与智能咬嘴2的控制开关22、耳机3连接;其中,通信线缆5通过快拆扣4与水下通信主机1连接;
当潜水员连续两次咬合控制开关22时,控制开关22给水下通信主机1发送咬合信号,水下通信主机1对该咬合信号进行解析后,通过耳机3播报该咬合信号对应的语音菜单播报命令,潜水员可在耳机3中听到该语音菜单播报命令,潜水员听到所需要发送的命令时,再次咬合控制开关22;命令通过水下通信主机1把命令发送到岸上基地;
潜水员平时不发送命令时,即不咬合控制开关22时,水下通信装置一直处于接收状态,接收岸上基地的指令。
所述智能咬嘴2还包括氧气浓度传感器、温度传感器和流速计;所述氧气浓度传感器、温度传感器和流速计分别通过电缆与水下通信主机1电性连接,氧气浓度传感器用于监测水下的氧气浓度,并传输给水下通信主机1;温度传感器用于监测水下的温度,并传输给水下通信主机1;流速计于监测水流速,并传输给水下通信主机1。
所述智能咬嘴2还包括呼吸传感器、水下声音传感器和水下摄像头;所述呼吸传感器、水下声音传感器和水下摄像头分别通过电缆与水下通信主机1电性连接;呼吸传感器用于监测潜水员的呼吸的深度和频率等数据,并传输给水下通信主机1;水下声音传感器用于监测周围的水声信号,并传输给水下通信主机1;水下摄像头用于监测周围环境的可视信息并传输给水下通信主机1。
实施例2:
本实施例提供了一种基于智能咬嘴的指令识别方法,参见附图8,基于实施例1的基础上,即所述智能咬嘴包括咬嘴主体和安装在咬嘴主体的齿咬上的至少两个控制开关,所述控制开关采用压力传感器,所述智能咬嘴还具有氧气浓度传感器、温度传感器和流速计;
该方法的具体步骤如下:
步骤1,采集潜水员咬合所述控制开关22的咬合动作数据和水下环境的物理参数数据作为输入数据;所述咬合动作数据包括咬合的力度、角度和频率,所述水下环境的物理参数数据包括水温、水压、水流及氧气浓度。
步骤2,对采集得到的所述输入数据进行预处理、特征提取、数据组合和降维处理得到经过处理的所述输入数据;
其中,对采集得到的所述输入数据进行预处理包括:对所述咬合动作数据和所述物理参数数据进行标准化处理、缺失值填充和删除离群点,具体过程如下:
假设收集到的咬合动作数据集为D1,其中每个样例xi描述n个特征:
D1 = {xi | xi = (xi1,xi2,...,xin); i= 1,...m};
其中,m是样本数量;
水下物理参数数据集D2类似,每个样例aj描述p个特征:
D2 = {aj | aj = (aj1,aj2,...,ajp); j= 1,...l};
其中,l是样本数量;
则对应的预处理函数可以表示为:
φ:D1→D1'
φ(xi) = normalization(xi)//标准化处理
φ(xi) = imputation(xi)//缺失值填充
φ(xi) = outlier_removal(xi)//删除离群点
ψ:D2→D2'
ψ(aj) = normalization(aj)//标准化处理
φ(aj) = imputation(aj)//缺失值填充
φ(aj) = outlier_removal(aj)//删除离群点
//对D2采用相应的预处理操作
经过这样的预处理后,标准化用z-score算法,缺失值可使用平均值或中位数填充,离群点则可使用IQR法则删除;
对采集得到的所述输入数据进行数据组合包括:分别建模所述咬合动作数据和所述物理参数的数据向量,融合模型预测结果;具体过程如下:
数据组合方式可选择:
1)直接拼接:最简单直接的方式,将两个特征向量简单粗暴的横向拼接,但可能会产生高维度问题。
2)独立模型:分别建模两个特征向量,最后融合模型预测结果,避免了拼接导致的高维问题。
3)交叉特征:引入二者间的交叉特征,直接反映二者相关性,再进行降维。
对采集得到的所述输入数据进行降维处理为:使用主成分分析(PCA)、线性判别分析(LDA)或其他方法进行降维处理:
1)PCA:主成分分析,通过变换到非相关主成分 subspace 降维,效果一般。
2)LDA:线性判别分析,考虑类条件下的非齐性,可以更有效降低维度。
3)t-SNE:非线性降维方法,能更好保留数据间的局部结构信息。
4)UMAP:具有非线性降维和嵌入学习的优点。
5)Autoencoder:通过编码-解码框架,自动学习一种高效的降维表示。
降维方法可优先使用LDA、t-SNE等感知非线性局部结构的降维方法,最好联合多种降维方法,互相补充;
综上,需要根据具体任务和数据来选择最适合的数据组合方式,评估多种降维算法效果,考虑联合使用多个降维方法通过不断测试迭代来获得最佳方案。
步骤3,将所述经过处理的输入数据进行标注得到训练数据;根据所述训练数据的特征向量选择模型,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中;使用所述训练数据对模型进行训练,并不断优化所述损失函数;
(1)将所述经过处理的输入数据进行标注得到训练数据包括:分别为咬合动作数据和所述物理参数的数据向量按照潜水者的实际意图进行标注。
对所述输入数据进行标注的方式为:为每一个咬合动作打上相应的标签,如“开关机”、“向上”、“向下”等,同时将水下环境的物理参数数据也进行标注;
(2)所述训练数据的特征向量的熵为:
将咬合动作和水下物理量等因素纳入人工智能模型中,可以采用复杂的数学模型,如神经网络模型、支持向量机模型等;本实施例根据所述训练数据的特征向量选择神经网络模型,其可表示为:
公式(1)
其中,表示神经网络模型的输出,即样本的标签;/>表示输入的特征向量,即样本的特征向量,W1和W2分别表示第一层和第二层的权重矩阵,b1和b2分别表示所述神经网络模型第一层和第二层的偏置,g表示第一层的激活函数,/>表示第二层的激活函数;
在样本和模型的选择过程中,加入熵的概念,以提高模型的鲁棒性和泛化能力;将训练数据的特征向量的熵作为正则化项加入到模型的损失函数中;如对于模型的损失函数L,所述熵正则化项为:
公式(2)
式中,为输入的第i个变量,/>为变量的数量;
损失函数公式(3)
是构建机器学习模型的参数,N表示样本数,/>表示第i个样本的输入特征向量,表示第i个样本的输入特征向量对应的标签;α是熵正则化系数;/>是logistic函数,表示正样本的概率,/>为构建模型的输入参数;
并且,所述熵正则化项还可采用所述训练数据的特征向量的交叉熵的形式,采用所述交叉熵构建模型的损失函数,所述交叉熵的公式如下:
公式(4)
式中,为真实标签的概率分布,/>为模型的预测概率分布;交叉熵越小,模型的预测结果越接近真实标签。
则所述交叉熵对应的损失函数可以表示为:
公式(5)
式中,log表示自然对数;该损失函数可以用来评估神经网络输出与标签之间的差异,并利用反向传播算法更新神经网络参数,使得损失函数最小化;
利用反向传播算法计算每个参数的梯度,梯度越大表示对应的参数对模型的影响越大,需要更多地调整,调整的具体方式为:
1)更新模型参数:通过梯度下降等优化算法,根据参数的梯度和学习率,调整模型的参数,使得损失函数值更小,模型的性能更好。
2)重复训练:对所有的训练数据进行迭代训练,直到模型的性能收敛或达到预设的训练轮数。
3)模型评估:使用独立的验证集或测试集对训练好的模型进行评估,通常采用精度、召回率、F1分数等指标来衡量模型的性能表现。
步骤4,将训练好的模型部署到智能咬嘴2中,所述智能咬嘴2根据输入数据,结合场景混杂度识别潜水员发出的指令,还可通过其他水下设备辅助识别潜水员发出指令;其中,所述场景混杂度用来识别不同流速的水域,结合所述场景混杂度,识别的指令可能是深度控制、氧气控制、灯光控制、摄像头控制之一或其他命令;
所述其他水下设备包括:呼吸传感器、水下声音传感器及水下摄像头;这些传感器、流速计和摄像头采集到的数据可以结合在一起,进行多模态数据融合,提高模型的鲁棒性和泛化能力,从而更好地实现智能咬嘴2的功能。
例如,在监测潜水员咬合动作的力度和频率时,可以结合对控制开关的咬合动作数据和水下摄像头的数据,通过多模态数据融合的方法来提高咬合动作的准确性和稳定性。下面以控制开关和水下摄像头结合为例,获取控制开关的咬合动作数据,包括咬合的力度、角度和频率等信息;同时,利用水下摄像头收集潜水员在不同情况下的表情及动作视频图像的特征向量,结合所述智能咬嘴根据咬合动作数据的特征向量,分别使用不同的人工智能网络进行特征识别,融合两者之间的识别结果。
其中,得到潜水员在不同情况下的表情及动作视频图像的特征向量的过程为:使用水下摄像头获取潜水员咬合动作的视频数据;对咬合动作数据进行预处理,例如去除噪声、滤波等操作,得到处理后的咬合动作传感器数据;对水下摄像头的视频数据进行处理,例如去除水下干扰、稳定图像、提取关键帧等操作,得到处理后的视频数据;对处理后的咬合动作传感器数据和视频数据进行特征提取,得到咬合动作的特征向量和视频图像的特征向量。
分别使用不同的人工智能网络进行特征识别,融合两者之间的识别结果的过程为:使用第一卷积神经网络提取所述视频图像的特征向量,使用第二卷积神经网络提取所述咬合动作数据的特征向量;其中,将二者进行卷积乘法操作,捕获局部匹配关系,对卷积结果应用池化函数Pool,整合局部信息;另外使用最大池化提取视频图像的特征中最显著特征;对池化结果乘上权重w1和w2,调节重要性,再进行加权求和,融合图像和动作信息;最终使用ReLU激活函数,得到最终判断分数S;具体表示如下:
使用第一卷积神经网络(CNN1)对视频数据进行特征识别,例如检测潜水员面部并裁剪ROI(面部区域),大概定位眼睛、鼻子和嘴巴位置,进一步检测眼睛是否睁大、嘴型是否张开等细节特征;是否伸舌等;使用第二卷积神经网络(CNN2)对控制开关的咬合动作数据进行特征识别,并通过以下公式实现组合判断:
公式(6)
公式(6)将第一卷积神经网络和第二卷积神经网络进行卷积乘法操纵,捕获局部匹配关系,对卷积结果应用池化函数Pool,整合局部信息;另外使用最大池化提取由第三卷积网络(CNN3)对视频数据的特征中最显著特征的提取结果;对池化结果乘上权重w1和w2,调节重要性,再进行加权求和,融合图像和动作信息;最终使用ReLU激活函数,得到最终判断分数S;
其中,、/>、/>分别表示不同的神经网络,/>表示最大池化操作,/>表示池化操作,/>表示激活函数,/>表示视频图像的特征向量,/>表示咬合动作的特征向量。此时,将潜水员在不同情况下的表情及动作的视频图像的特征向量,结合所述智能咬嘴2根据咬合动作的特征向量作为训练数据,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中;
因此,公式(6)融合了卷积操作、池化、权重和ReLU等数学方法;它们互相协同,实现了更加严密的视频图像和咬合动作数据融合;通过调整卷积参数、池化方式、权重比例等,能够适应不同任务,整体过程抽象且语义清晰,有利于模型分析和解释。将两个特征向量进行融合,得到融合后的特征向量。可以使用加权平均法、逐层融合法等方法进行融合。
对融合后的特征向量进行分类或回归,得到咬合动作的结果。还可以使用支持向量机(SVM)、随机森林(Random Forest)、神经网络等方法进行分类或回归。利用多模态数据融合的方法,可以提高咬合动作的准确性和稳定性,使智能咬嘴2的表现更加优秀。
所述结合场景混杂度识别潜水员发出的指令为:根据平静水域场景或急流水域场景分别识别潜水员发出的指令,潜水员发出的指令包括:深度控制指令、氧气控制指令、灯光控制指令或摄像头控制指令。
所述识别潜水员发出的指令时,在平静水域和急流水域场景下,潜水员发出的指令存在一定规律:
1) 在平静水域,潜水员较少发出与移动控制相关的指令,更多发出与观察相关的指令,如“照亮前方”、“缩小视野”等;
2) 在急流水域,潜水员更多发出与移动控制相关的指令,较少发出与观察相关的指令,如“向上移动”、“向右移动”等。
基于此,可以建立场景-识别结果的对应规则,用以验证识别结果的准确性;所述场景-识别结果的对应规则的算法流程为:
步骤4-1. 收集不同场景(平静水域、急流水域等)下的历史环境数据(流速、光照等)和识别结果;
步骤4-2. 分析不同场景下识别结果的统计规律,建立场景-识别结果的对应规则;如平静水域对应观察类指令,急流水域对应移动控制类指令;
步骤4-3. 实时监测环境数据,判断当前场景,如根据流速判断为平静水域或急流水域;
步骤4-4. 查询当前场景下的识别结果对应规则;
步骤4-5. 将实时识别结果与查询到的对应规则进行匹配;
步骤4-6. 如果匹配成功,则执行识别结果;如果匹配失败,则判断为误判,不执行该识别结果;
步骤4-7. 如果连续多次识别结果不符合对应规则,则判断模型可能出现偏差,触发模型在线校准流程。
步骤4-8. 不断收集新数据,更新和优化场景-识别结果的对应规则。
综上,该算法通过建立场景对应规则,并与实时识别结果匹配来判断结果的准确性,从而提高系统的稳定性。当识别结果连续多次不符合对应规则时,会触发模型校准机制,使模型保持最佳状态。该算法简单实用,但场景判断的准确性直接影响算法的效果。
实施例3:
本实施例提供了一种基于智能咬嘴的指令识别装置,参见附图9,该装置集成于水下通信主机1内,包括:数据采集模块、数据处理模块、模型训练模块及指令识别模块;
所述数据采集模块用于采集潜水员咬合所述控制开关22的咬合动作数据和水下环境的物理参数数据作为输入数据;所述咬合动作数据包括咬合的力度、角度和频率,所述水下环境的物理参数数据包括水温、水压、水流及氧气浓度;
所述数据处理模块用于对采集得到的所述输入数据进行预处理、特征提取、数据组合和降维处理得到经过处理的所述输入数据;
其中,所述数据采集和预处理的具体过程如下:
假设收集到的咬合动作数据集为D1, 其中每个样例xi描述n个特征:
D1 = {xi | xi = (xi1,xi2,...,xin); i= 1,...m};
其中,m是样本数量;
水下物理参数数据集D2类似,每个样例aj描述p个特征:
D2 = {aj | aj = (aj1,aj2,...,ajp); j= 1,...l};
其中,l是样本数量;
则对应的预处理函数可以表示为:
φ:D1→D1'
φ(xi) = normalization(xi)//标准化处理
φ(xi) = imputation(xi)//缺失值填充
φ(xi) = outlier_removal(xi)//删除离群点
ψ:D2→D2'
ψ(aj) = normalization(aj)//标准化处理
φ(aj) = imputation(aj)//缺失值填充
φ(aj) = outlier_removal(aj)//删除离群点
//对D2采用相应的预处理操作
经过这样的预处理后,标准化用z-score算法,缺失值可使用平均值或中位数填充,离群点则可使用IQR法则删除;
所述数据组合和降维处理的具体过程如下:
数据组合方式可选择:
1)直接拼接:最简单直接的方式,将两个特征向量简单粗暴的横向拼接,但可能会产生高维度问题。
2)独立模型:分别建模两个特征向量,最后融合模型预测结果,避免了拼接导致的高维问题。
3)交叉特征:引入二者间的交叉特征,直接反映二者相关性,再进行降维。
降维处理可选择:
1)PCA:主成分分析,通过变换到非相关主成分 subspace 降维,效果一般。
2)LDA:线性判别分析,考虑类条件下的非齐性,可以更有效降低维度。
3)t-SNE:非线性降维方法,能更好保留数据间的局部结构信息。
4)UMAP:具有非线性降维和嵌入学习的优点。
5)Autoencoder:通过编码-解码框架,自动学习一种高效的降维表示。
降维方法可优先使用LDA、t-SNE等感知非线性局部结构的降维方法,最好联合多种降维方法,互相补充;
综上,需要根据具体任务和数据来选择最适合的数据组合方式,评估多种降维算法效果,考虑联合使用多个降维方法通过不断测试迭代来获得最佳方案。
所述模型训练模块用于将所述经过处理的输入数据进行标注得到训练数据;根据所述训练数据的特征向量选择模型,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中;使用所述训练数据对模型进行训练,并不断优化所述损失函数;
(1)对所述输入数据进行标注的方式为:为每一个咬合动作打上相应的标签,如“开关机”、“向上”、“向下”等,同时将水下环境的物理参数数据也进行标注;
(2)所述训练数据的特征向量的熵为:
将咬合动作和水下物理量等因素纳入人工智能模型中,可以采用复杂的数学模型,如神经网络、支持向量机等;下面以神经网络为例,可以将神经网络的输出表示为:
公式(1)
其中,表示神经网络模型的输出,即样本的标签;/>表示输入的特征向量,即样本的特征向量,W1和W2分别表示第一层和第二层的权重矩阵,b1和b2分别表示第一层和第二层的偏置向量,g表示第一层的激活函数,/>表示第二层的激活函数;
在样本和模型的选择过程中,加入熵的概念,以提高模型的鲁棒性和泛化能力;将训练数据的特征向量的熵作为正则化项加入到模型的损失函数中;如对于模型的损失函数L,所述熵正则化项为:
公式(2)
式中,为输入的第i个变量,/>为变量的数量;
损失函数公式(3)
是构建机器学习模型的参数,N表示样本数,/>表示第i个样本的输入特征向量,/>表示第i个样本的输入特征向量对应的标签;α是熵正则化系数;/>是logistic函数,表示正样本的概率,/>为构建模型的输入参数;
并且,所述熵正则化项还可采用所述训练数据的特征向量的交叉熵的形式,采用所述交叉熵构建模型的损失函数,所述交叉熵的公式如下:
公式(4)
式中,为真实标签的概率分布,/>为模型的预测概率分布;交叉熵越小,模型的预测结果越接近真实标签。
所述交叉熵对应的损失函数可以表示为:
公式(5)
式中,log表示自然对数;该损失函数可以用来评估神经网络输出与标签之间的差异,并利用反向传播算法更新神经网络参数,使得损失函数最小化;
利用反向传播算法计算每个参数的梯度,梯度越大表示对应的参数对模型的影响越大,需要更多地调整,调整的具体方式为:
1)更新模型参数:通过梯度下降等优化算法,根据参数的梯度和学习率,调整模型的参数,使得损失函数值更小,模型的性能更好。
2)重复训练:对所有的训练数据进行迭代训练,直到模型的性能收敛或达到预设的训练轮数。
3)模型评估:使用独立的验证集或测试集对训练好的模型进行评估,通常采用精度、召回率、F1分数等指标来衡量模型的性能表现。
所述指令识别模块用于将训练好的模型部署到智能咬嘴2中,所述智能咬嘴2根据输入数据,结合场景混杂度识别潜水员发出的指令,还可通过其他水下设备辅助识别潜水员发出指令;其中,所述场景混杂度用来识别不同流速的水域,结合所述场景混杂度,识别的指令可能是深度控制、氧气控制、灯光控制、摄像头控制之一或其他命令。
所述其他水下设备包括:氧气浓度传感器、温度传感器、流速计、呼吸传感器、水下声音传感器及水下摄像头;这些传感器、流速计和摄像头采集到的数据可以结合在一起,进行多模态数据融合,提高模型的鲁棒性和泛化能力,从而更好地实现智能咬嘴2的功能。
例如,在监测潜水员咬合动作的力度和频率时,可以结合对控制开关的咬合动作数据和水下摄像头的数据,通过多模态数据融合的方法来提高咬合动作的准确性和稳定性。下面以控制开关和水下摄像头结合为例,获取控制开关的咬合动作数据,包括咬合的力度、角度和频率等信息;同时,使用水下摄像头获取潜水员咬合动作的视频数据;对咬合动作数据进行预处理,例如去除噪声、滤波等操作,得到处理后的咬合动作传感器数据;对水下摄像头的视频数据进行处理,例如去除水下干扰、稳定图像、提取关键帧等操作,得到处理后的视频数据;对处理后的咬合动作传感器数据和视频数据进行特征提取,得到咬合动作的特征向量和视频图像的特征向量。
具体地,本实施例中可以使用第一卷积神经网络(CNN1)对视频数据进行特征识别,例如检测潜水员面部并裁剪ROI(面部区域),大概定位眼睛、鼻子和嘴巴位置,进一步检测眼睛是否睁大、嘴型是否张开等细节特征;是否伸舌等。使用第二卷积神经网络(CNN2)对控制开关的咬合动作数据进行特征识别,并通过以下公式实现组合判断:
公式(6)
将二者进行卷积乘法操纵,捕获局部匹配关系,对卷积结果应用池化函数Pool,整合局部信息;另外使用最大池化提取由第三卷积网络(CNN3)对视频数据的特征中最显著特征的提取结果;对池化结果乘上权重w1和w2,调节重要性,再进行加权求和,融合图像和动作信息;最终使用ReLU激活函数,得到最终判断分数S;
其中、/>、/>分别表示不同的神经网络,/>表示最大池化操作,/>表示池化操作,/>表示激活函数,/>表示视频图像的特征向量,/>表示咬合动作的特征向量。此时,将潜水员在不同情况下的表情及动作的视频图像的特征向量,结合所述智能咬嘴2根据咬合动作的特征向量作为训练数据,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中;
因此,公式(6)融合了卷积操作、池化、权重和ReLU等数学方法;它们互相协同,实现了更加严密的视频图像和咬合动作数据融合;通过调整卷积参数、池化方式、权重比例等,能够适应不同任务,整体过程抽象且语义清晰,有利于模型分析和解释。将两个特征向量进行融合,得到融合后的特征向量。可以使用加权平均法、逐层融合法等方法进行融合。
对融合后的特征向量进行分类或回归,得到咬合动作的结果。还可以使用支持向量机(SVM)、随机森林(Random Forest)、神经网络等方法进行分类或回归。利用多模态数据融合的方法,可以提高咬合动作的准确性和稳定性,使智能咬嘴2的表现更加优秀。
所述识别潜水员发出的指令时,在平静水域和急流水域场景下,潜水员发出的指令存在一定规律:
1) 在平静水域,潜水员较少发出与移动控制相关的指令,更多发出与观察相关的指令,如“照亮前方”、“缩小视野”等;
2) 在急流水域,潜水员更多发出与移动控制相关的指令,较少发出与观察相关的指令,如“向上移动”、“向右移动”等。
基于此,可以建立场景-识别结果的对应规则,用以验证识别结果的准确性;所述场景-识别结果的对应规则的算法流程为:
步骤4-1. 收集不同场景(平静水域、急流水域等)下的历史环境数据(流速、光照等)和识别结果;
步骤4-2. 分析不同场景下识别结果的统计规律,建立场景-识别结果的对应规则;如平静水域对应观察类指令,急流水域对应移动控制类指令;
步骤4-3. 实时监测环境数据,判断当前场景,如根据流速判断为平静水域或急流水域;
步骤4-4. 查询当前场景下的识别结果对应规则;
步骤4-5. 将实时识别结果与查询到的对应规则进行匹配;
步骤4-6. 如果匹配成功,则执行识别结果;如果匹配失败,则判断为误判,不执行该识别结果;
步骤4-7. 如果连续多次识别结果不符合对应规则,则判断模型可能出现偏差,触发模型在线校准流程。
步骤4-8. 不断收集新数据,更新和优化场景-识别结果的对应规则。
综上,该算法通过建立场景对应规则,并与实时识别结果匹配来判断结果的准确性,从而提高系统的稳定性。当识别结果连续多次不符合对应规则时,会触发模型校准机制,使模型保持最佳状态。该算法简单实用,但场景判断的准确性直接影响算法的效果。
实施例4:
本实施例提供了一种计算机可读存储介质,用于存储计算机程序;该计算机可读存储介质可应用于本实施例中的指令识别装置,并且该计算机程序使得计算机执行本实施例的各个方法中由指令识别装置实现的相应流程,为了简洁,在此不再赘述。
实施例5:
本实施例提供了一种智能咬嘴的具体结构,参见附图10,智能咬嘴的咬嘴主体21采用上下分体式结构,包括上颌咬嘴、下颌咬嘴、柔性连接部50和弹性组件;
所述上颌咬嘴和下颌咬嘴均采用可热成形的弹性材料制成;
所述上颌咬嘴和下颌咬嘴上下相对,且上颌咬嘴和下颌咬嘴之间通过两个柔性连接部50连接为一体;所述柔性连接部50采用相对于上颌咬嘴和下颌咬嘴主体更柔软且更具有弹性变形能力的材料。
所述弹性组件内置于上颌咬嘴和下颌咬嘴之间,用于对上颌咬嘴施加向上的弹性力,使上颌咬嘴抵靠在潜水员的上颌牙齿上,并对下颌咬嘴施加向下的弹性力,使下颌咬嘴抵靠在潜水员的下颌牙齿上。
一个实施方案中,所述弹性组件包括U形弹片,U形弹片采用金属材料制成,该U形弹片的一个支臂61镶嵌在上颌咬嘴中,U形弹片的另一个支臂62镶嵌在下颌咬嘴中,两个支臂的连接部63固定安装在上颌咬嘴上或下颌咬嘴上或上颌咬嘴与下颌咬嘴之间。
具体的:所述U形弹片的个数为两个,分别为第一U形弹片和第二U形弹片,第一U形弹片的一个支臂镶嵌在上颌咬嘴的一个上腿部中,第一U形弹片的另一个支臂镶嵌在下颌咬嘴的一个下腿部中;第二U形弹片的一个支臂镶嵌在上颌咬嘴的另一个上腿部中,第二U形弹片的另一个支臂镶嵌在下颌咬嘴的另一个下腿部中;且第一U形弹片的两个支臂之间的连接部与第二U形弹片的两个支臂之间的连接部连接为一体。
另一个实施方案中,所述弹性组件包括镶嵌在上颌咬嘴中的上刚性臂、镶嵌在下颌咬嘴中的下刚性臂以及两端分别与上刚性臂、下刚性臂连接的拉簧,所述拉簧固定安装在上颌咬嘴上或下颌咬嘴上或上颌咬嘴与下颌咬嘴之间;在所述拉簧的弹性拉力作用下,上颌咬嘴的上腿部与下颌咬嘴的下腿部之间的间隔增大。
具体的:所述上刚性臂的个数为两个,分别为第一上刚性臂和第二上刚性臂,第一上刚性臂镶嵌在上颌咬嘴的一个上腿部中,第二上刚性臂镶嵌在上颌咬嘴的另一个上腿部中;所述下刚性臂的个数为两个,分别为第一下刚性臂和第二下刚性臂,第一下刚性臂镶嵌在下颌咬嘴的一个下腿部中,第二下刚性臂镶嵌在下颌咬嘴的另一个下腿部中;拉簧的个数为两个,分别为第一拉簧和第二拉簧;第一上刚性臂与第一下刚性臂之间连接有第一拉簧,第二上刚性臂与第二下刚性臂之间连接有第二拉簧;
所述弹性组件还包括弹力调节旋钮,用于调节拉簧的弹性参数,以调节上颌咬嘴及下颌咬嘴抵靠在潜水员牙齿上压力大小。
综上所述,以上仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于智能咬嘴的指令识别方法,所述智能咬嘴包括咬嘴主体和安装在咬嘴主体的齿咬上的至少两个控制开关,所述控制开关采用压力传感器,所述智能咬嘴还具有氧气浓度传感器、温度传感器和流速计;
其特征在于,所述指令识别方法为:
步骤1,采集潜水员咬合所述控制开关的咬合动作数据和水下环境的物理参数数据作为输入数据;所述咬合动作数据包括咬合的力度、角度和频率,所述水下环境的物理参数数据包括水温、水压、水流及氧气浓度;
步骤2,对采集得到的所述输入数据进行预处理、特征提取、数据组合和降维处理得到经过处理的所述输入数据;
步骤3,将所述经过处理的输入数据进行标注得到训练数据;根据所述训练数据的特征向量选择模型,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中;使用所述训练数据对模型进行训练,并不断优化所述损失函数;
步骤4,将训练好的模型部署到智能咬嘴中,所述智能咬嘴根据输入数据,结合场景混杂度识别潜水员发出的指令;
所述结合场景混杂度识别潜水员发出的指令为:根据平静水域场景或急流水域场景分别识别潜水员发出的指令,收集不同场景下的流速和识别结果;其中,潜水员发出的指令包括:深度控制指令、氧气控制指令、灯光控制指令或摄像头控制指令;
识别潜水员发出的指令的算法流程为:
步骤4-1. 收集不同场景下的历史环境数据和识别结果;
步骤4-2. 分析不同场景下识别结果的统计规律,建立场景-识别结果的对应规则;
步骤4-3. 实时监测环境数据,判断当前场景;
步骤4-4. 查询当前场景下的识别结果对应规则;
步骤4-5. 将实时识别结果与查询到的对应规则进行匹配;
步骤4-6. 如果匹配成功,则执行识别结果;如果匹配失败,则判断为误判,不执行该识别结果;
步骤4-7. 如果连续多次识别结果不符合对应规则,则判断模型出现偏差,触发模型在线校准流程;
步骤4-8. 不断收集新数据,更新和优化场景-识别结果的对应规则。
2.如权利要求1所述的一种基于智能咬嘴的指令识别方法,其特征在于,在步骤2中,对采集得到的所述输入数据进行预处理包括:对所述咬合动作数据和所述物理参数数据进行标准化处理、缺失值填充和删除离群点;
对采集得到的所述输入数据进行数据组合包括:分别建模所述咬合动作数据和所述物理参数的数据向量,融合模型预测结果;
对采集得到的所述输入数据进行降维处理为:使用主成分分析或线性判别分析方法进行降维处理;
在步骤3中,将所述经过处理的输入数据进行标注得到训练数据包括:分别为咬合动作数据和所述物理参数的数据向量按照潜水者的实际意图进行标注。
3.如权利要求2所述的一种基于智能咬嘴的指令识别方法,其特征在于,步骤3中,根据所述训练数据的特征向量选择神经网络模型,所述神经网络模型表示为,其中,/>表示神经网络模型的输出,即样本的标签;/>表示输入的特征向量,即样本的特征向量,W1和W2分别表示第一层和第二层的权重矩阵,b1和b2分别表示所述神经网络模型第一层和第二层的偏置,g表示第一层的激活函数,/>表示第二层的激活函数;
将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中时,所述正则化项采用所述训练数据的特征向量的交叉熵的形式,采用所述交叉熵构建模型的损失函数,所述交叉熵的公式如下:
式中,为真实标签的概率分布,/>为模型的预测概率分布;
则所述交叉熵对应的损失函数表示为:
其中,log表示自然对数,N表示样本数,表示第i个样本的输入特征向量,/>表示第i个样本的输入特征向量对应的标签;该损失函数用来评估神经网络输出与标签之间的差异,并利用反向传播算法更新网络参数,使得损失函数最小化。
4.如权利要求3所述的一种基于智能咬嘴的指令识别方法,其特征在于,步骤4中,所述智能咬嘴根据输入数据识别潜水员发出的指令还能够通过水下摄像头辅助识别潜水员发出指令,利用水下摄像头收集潜水员在不同情况下的表情及动作视频图像的特征向量,结合所述智能咬嘴根据咬合动作数据的特征向量,分别使用不同的人工智能网络进行特征识别,融合两者之间的识别结果。
5.如权利要求4所述的一种基于智能咬嘴的指令识别方法,其特征在于,分别使用不同的人工智能网络进行特征识别,融合两者之间的识别结果的过程为:使用第一卷积神经网络提取所述视频图像的特征向量,使用第二卷积神经网络提取所述咬合动作数据的特征向量;其中,将二者进行卷积乘法操作,捕获局部匹配关系,对卷积结果应用池化函数Pool,整合局部信息;另外使用最大池化提取视频图像的特征中最显著特征;对池化结果乘上权重w1和w2,调节重要性,再进行加权求和,融合图像和动作信息;最终使用ReLU激活函数,得到最终判断分数S;S的表达公式为:
其中,、/>、/>分别表示不同的神经网络,/>表示最大池化操作,表示池化操作,/>表示激活函数,/>表示视频图像的特征向量,/>表示咬合动作数据的特征向量;此时,将潜水员在不同情况下的表情及动作视频图像的特征向量,结合所述智能咬嘴根据咬合动作数据的特征向量作为训练数据,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中。
6.如权利要求1-5任一项所述的一种基于智能咬嘴的指令识别方法,其特征在于,所述智能咬嘴与水下通信主机和耳机组成水下通信装置;所述水下通信主机分别通过通信线缆与智能咬嘴的控制开关、耳机连接;
所述智能咬嘴的咬嘴主体包括:装配部和延伸于装配部的保持部;
所述保持部为圆弧状结构,位于圆弧状结构包络范围内的空间为出气腔;
所述装配部的中心设有与所述出气腔连通的装配通道,保持部具有连通装配通道的出气腔;用于连接气瓶的二级头被固定于装配部的装配通道上,以使得保持部的出气腔与气瓶连通;潜水员通过牙齿咬住保持部的方式将咬嘴主体保持于口中,获取气瓶中的氧气;
所述控制开关设置于咬嘴主体的保持部上,控制开关用于检测潜水员的状态;所述控制开关通过嵌件注塑的方式被嵌入咬嘴主体的保持部内;
当潜水员连续两次咬合控制开关时,控制开关给水下通信主机发送咬合信号,水下通信主机对该咬合信号进行解析后,通过耳机播报该咬合信号对应的语音菜单播报命令,潜水员在耳机中听到该语音菜单播报命令,潜水员听到所需要发送的命令时,再次咬合控制开关;命令通过水下通信主机把命令发送到岸上基地;
潜水员平时不发送命令时,即不咬合控制开关时,水下通信装置一直处于接收状态,接收岸上基地的指令;
其中,所述保持部包括连接于装配部的圆弧状的外延部和自外延部朝向出气腔内延伸的两个齿咬部;潜水员通过咬住齿咬部的方式将咬嘴主体置于口中;且所述控制开关设置于齿咬部,每个齿咬部上均至少设置一个控制开关。
7.如权利要求6所述的一种基于智能咬嘴的指令识别方法,其特征在于,所述智能咬嘴还包括氧气浓度传感器、温度传感器和流速计;所述氧气浓度传感器、温度传感器和流速计分别通过电缆与水下通信主机电性连接,氧气浓度传感器用于监测水下的氧气浓度,并传输给水下通信主机;温度传感器用于监测水下的温度,并传输给水下通信主机;流速计于监测水流速,并传输给水下通信主机;
所述智能咬嘴还包括呼吸传感器、水下声音传感器和水下摄像头;所述呼吸传感器、水下声音传感器和水下摄像头分别通过电缆与水下通信主机电性连接;呼吸传感器用于监测潜水员的呼吸的深度和频率数据,并传输给水下通信主机;水下声音传感器用于监测周围的水声信号,并传输给水下通信主机;水下摄像头用于监测周围环境的可视信息并传输给水下通信主机。
8.一种基于智能咬嘴的指令识别装置,所述智能咬嘴包括咬嘴主体和安装在咬嘴主体的齿咬上的至少两个控制开关,所述控制开关采用压力传感器,所述智能咬嘴还具有氧气浓度传感器、温度传感器和流速计;
其特征在于,所述指令识别装置包括:数据采集模块、数据处理模块、模型训练模块及指令识别模块;
数据采集模块用于采集潜水员咬合所述控制开关的咬合动作数据和水下环境的物理参数数据作为输入数据;所述咬合动作数据包括咬合的力度、角度和频率,所述水下环境的物理参数数据包括水温、水压、水流及氧气浓度;
数据处理模块用于对采集得到的所述输入数据进行预处理、特征提取、数据组合和降维处理得到经过处理的所述输入数据;
模型训练模块用于将所述经过处理的输入数据进行标注得到训练数据;根据所述训练数据的特征向量选择模型,将所述训练数据的特征向量的熵作为正则化项加入到所述模型的损失函数中;使用所述训练数据对模型进行训练,并不断优化所述损失函数;
指令识别模块用于将训练好的模型部署到智能咬嘴中,所述智能咬嘴根据输入数据,结合场景混杂度识别潜水员发出的指令;
所述结合场景混杂度识别潜水员发出的指令为:根据平静水域场景或急流水域场景分别识别潜水员发出的指令,收集不同场景下的流速和识别结果;其中,潜水员发出的指令包括:深度控制指令、氧气控制指令、灯光控制指令或摄像头控制指令;
识别潜水员发出的指令的算法流程为:
步骤4-1. 收集不同场景下的历史环境数据和识别结果;
步骤4-2. 分析不同场景下识别结果的统计规律,建立场景-识别结果的对应规则;
步骤4-3. 实时监测环境数据,判断当前场景;
步骤4-4. 查询当前场景下的识别结果对应规则;
步骤4-5. 将实时识别结果与查询到的对应规则进行匹配;
步骤4-6. 如果匹配成功,则执行识别结果;如果匹配失败,则判断为误判,不执行该识别结果;
步骤4-7. 如果连续多次识别结果不符合对应规则,则判断模型出现偏差,触发模型在线校准流程;
步骤4-8. 不断收集新数据,更新和优化场景-识别结果的对应规则。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时,能够实现如权利要求1至7任一项所述的基于智能咬嘴的指令识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311465940.3A CN117194938B (zh) | 2023-11-07 | 2023-11-07 | 一种基于智能咬嘴的指令识别方法、装置和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311465940.3A CN117194938B (zh) | 2023-11-07 | 2023-11-07 | 一种基于智能咬嘴的指令识别方法、装置和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117194938A CN117194938A (zh) | 2023-12-08 |
CN117194938B true CN117194938B (zh) | 2024-02-02 |
Family
ID=88998288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311465940.3A Active CN117194938B (zh) | 2023-11-07 | 2023-11-07 | 一种基于智能咬嘴的指令识别方法、装置和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117194938B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108725717A (zh) * | 2018-06-05 | 2018-11-02 | 深圳沃海森科技有限公司 | 可穿戴呼吸救生器 |
CN109069781A (zh) * | 2016-02-24 | 2018-12-21 | J·C·科尔伯恩 | 低压表面供应空气系统及方法 |
CN114049584A (zh) * | 2021-10-09 | 2022-02-15 | 百果园技术(新加坡)有限公司 | 一种模型训练和场景识别方法、装置、设备及介质 |
CN116757534A (zh) * | 2023-06-15 | 2023-09-15 | 中国标准化研究院 | 一种基于神经训练网络的智能冰箱可靠性分析方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150277759A1 (en) * | 2008-09-12 | 2015-10-01 | Youhanna Al-Tawil | Mouth Piece for Manipulating an External Object, and Method for Moving a Cursor on a Display |
WO2012149227A2 (en) * | 2011-04-26 | 2012-11-01 | Incube Labs, Llc | Mouthpiece for measurement of biometric data of a diver and underwater communication |
EP2928569A4 (en) * | 2012-10-11 | 2016-09-21 | Bezalel Arkush | BREATHING AND BREATHING TREATMENT PROCESS AND SYSTEM |
-
2023
- 2023-11-07 CN CN202311465940.3A patent/CN117194938B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109069781A (zh) * | 2016-02-24 | 2018-12-21 | J·C·科尔伯恩 | 低压表面供应空气系统及方法 |
CN108725717A (zh) * | 2018-06-05 | 2018-11-02 | 深圳沃海森科技有限公司 | 可穿戴呼吸救生器 |
CN114049584A (zh) * | 2021-10-09 | 2022-02-15 | 百果园技术(新加坡)有限公司 | 一种模型训练和场景识别方法、装置、设备及介质 |
CN116757534A (zh) * | 2023-06-15 | 2023-09-15 | 中国标准化研究院 | 一种基于神经训练网络的智能冰箱可靠性分析方法 |
Also Published As
Publication number | Publication date |
---|---|
CN117194938A (zh) | 2023-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI430185B (zh) | 臉部表情辨識系統及其辨識方法及其電腦程式產品 | |
CN107077626B (zh) | 动物用非侵入式多模态生物特征辨识系统 | |
CN105739688A (zh) | 一种基于情感体系的人机交互方法、装置和交互系统 | |
CN109034092A (zh) | 用于监控系统的异常事件检测方法 | |
CN111832400A (zh) | 一种基于概率神经网络的口罩佩戴情况的监测系统及方法 | |
CN114399799A (zh) | 一种基于YOLOv5网络的口罩佩戴检测方法 | |
Guy et al. | Learning visual voice activity detection with an automatically annotated dataset | |
CN117194938B (zh) | 一种基于智能咬嘴的指令识别方法、装置和存储介质 | |
CN116561649B (zh) | 基于多源传感器数据的潜水员运动状态识别方法和系统 | |
KR101936947B1 (ko) | 비디오 인식을 위한 영상 세그먼트 프레임별 특징점의 시간 정보 인코딩 방법 | |
JP2012103859A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
CN116543419B (zh) | 基于嵌入式平台的酒店卫勤人员穿戴检测方法及系统 | |
CN110675312B (zh) | 图像数据处理方法、装置、计算机设备以及存储介质 | |
CN116977862A (zh) | 一种植物生长阶段视频检测方法 | |
CN116630602A (zh) | 一种基于改进YOLOv5算法的机械臂抓取目标物体检测方法 | |
CN114246767B (zh) | 基于云端计算的盲人智能导航眼镜系统及装置 | |
KR102337008B1 (ko) | 컨볼루션 뉴럴 네트워크를 이용한 신생아 고통 감지 방법 | |
CN115240647A (zh) | 声音事件检测方法、装置、电子设备及存储介质 | |
CN110555401B (zh) | 一种基于表情识别的自适应情感表达系统及方法 | |
CN112990067A (zh) | 一种面向独居人群的机器人智能情绪识别治愈方法 | |
CN115601714B (zh) | 基于多模态数据分析的校园暴力行为识别方法 | |
Ramanathan et al. | Mutually reinforcing motion-pose framework for pose invariant action recognition | |
CN110555342A (zh) | 一种图像识别方法、装置和图像设备 | |
CN116758589B (zh) | 一种处理姿态和视角矫正的牛脸识别方法 | |
CN117352151B (zh) | 智能陪护管理系统及其方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |