CN113178207B - 基于词库学习的饱和潜水氦语音解读方法 - Google Patents

基于词库学习的饱和潜水氦语音解读方法 Download PDF

Info

Publication number
CN113178207B
CN113178207B CN202110450616.9A CN202110450616A CN113178207B CN 113178207 B CN113178207 B CN 113178207B CN 202110450616 A CN202110450616 A CN 202110450616A CN 113178207 B CN113178207 B CN 113178207B
Authority
CN
China
Prior art keywords
helium
network
signal
voice
interpretation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110450616.9A
Other languages
English (en)
Other versions
CN113178207A (zh
Inventor
张士兵
李明
李冬梅
包志华
吴建绒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202110450616.9A priority Critical patent/CN113178207B/zh
Publication of CN113178207A publication Critical patent/CN113178207A/zh
Priority to AU2021232744A priority patent/AU2021232744B2/en
Priority to PCT/CN2021/116054 priority patent/WO2022227365A1/zh
Application granted granted Critical
Publication of CN113178207B publication Critical patent/CN113178207B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Quality & Reliability (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及一种基于词库学习的饱和潜水氦语音解读方法,在一个包括潜水员、校正网络和解读网络的系统中,建立饱和潜水作业常用工作语言词库,由潜水员分别不同环境下朗读,生成校正网络的监督信号和矢量信号,校正网络对不同潜水员在不同潜水深度的氦语音进行学习得到网络校正参数,并对潜水员的氦语音进行校正得到校正语音;解读网络对校正语音进行学习并完成氦语音的解读。本发明通过设置潜水员在不同环境下个体语音信号特征和工作语言词库特征,将机器学习引入到氦语音解读中,解决了饱和潜水氦语音的解读问题,减少了网络对学习样本数的要求,提高了氦语音解读器在不同潜水深度的自适应性,尤其适合于不同潜水深度环境下的氦语音的完备解读。

Description

基于词库学习的饱和潜水氦语音解读方法
技术领域
本发明涉及氦语音解读技术,更为具体地说涉及一种基于词库学习的饱和潜水氦语音解读方法。
背景技术
21世纪是海洋经济时代,我们将要从海洋中获取人类所需的50%以上的清洁能源和生产资料。饱和潜水在航海作业、海洋开发、军事海洋、海上救援等领域有着及其重要的应用价值,是海洋经济发展不可或缺的组成部分。
由于深海作业环境和作业内容的特殊性,海洋中的许多工作还不能由载人深海潜水器或水下机器人去完成,需要潜水员直接下水、暴露在深海高压环境下应用饱和潜水技术进行作业。为了满足潜水员在深海高压环境下的生理需求,目前潜水员基本上都采用氦氧混合气体作为潜水员饱和潜水作业时的呼吸气体。当潜水作业深度超过50米时,潜水员的语音通话失真明显;当潜水作业深度超过100米时,潜水员的语音通话开始严重失真,正常的语音变成奇异的“鸭叫”-氦语音,很难听懂潜水员的语音通话,造成潜水舱内外和潜水员之间联系困难,直接影响到潜水员的深海作业,甚至威胁到潜水员的生命。因此,迫切需要解决深海饱和潜水员的语音通信问题-氦语音解读问题。
目前,国内外现有的饱和潜水氦语音解读器都是通过潜水舱中的氦语音解读器,人工调整解读器的频域或时延特性对氦语音进行解读的,无法自适应饱和潜水作业深度,并且解读效果不理想,当潜水深度大于200米以后,氦语音解读器解读质量迅速下降,特别当潜水员的潜水深度在变化时,无法有效解读潜水员的氦语音。基于人工智能的饱和潜水氦语音解读技术目前国内外都处于刚刚起步阶段,鲜见实用的技术方案。如何充分利用人工智能机器学习的能力,结合饱和潜水场景潜水员和工作语言的特殊性,有效解读氦语音,是一个尚未解决的技术难题。
发明内容
本发明的目的在于解决上述难题。考虑到饱和潜水场景下,潜水员的人群是特定的,在潜水作业时潜水员的工作语言是有限的,本发明充分利用了潜水员个体语音信号特征和工作语言词库词汇信息,提出一种基于词库学习的氦语音解读方法。在该方法中,首先根据饱和潜水作业规范要求建立潜水员常用工作语言词库,由潜水员分别在正常大气压环境下和饱和潜水作业对应环境下朗读工作语言词库,生成校正网络机器学习的监督信号和矢量信号,校正网络采用监督学习算法对不同潜水员在不同潜水深度的氦语音进行学习得到校正网络参数集;其次,潜水员在潜水作业时将其氦语音信号与校正网络的矢量信号进行拟合,选择拟合度最高的矢量信号所对应的网络参数作为校正网络的参数,对潜水员的氦语音进行校正得到校正语音信号;然后,将校正得到的语音信号与常用工作语言词库进行拟合,并按拟合度高低进行筛选,生成解读网络机器学习的监督信号和矢量信号,解读网络采用监督学习算法对校正语音信号进行进一步学习;最后,解读网络对校正语音信号进行解读,完成氦语音的完备解读。该方法充分利用了对潜水员在不同环境下个体语音信号特征和工作语言词库词汇信息,采用机器学习算法校正和解读氦语音,大大提高了氦语音解读的准确性。
上述目的通过下述技术方案予以实现:本发明一种基于词库学习的饱和潜水氦语音解读方法,所述方法包括至少1个潜水员、1个氦语音校正网络和1个氦语音解读网络,潜水员的氦语音信号为S,所述氦语音解读技术包括如下步骤:
第一阶段-——校正网络学习:
步骤1、词库信号构建——根据饱和潜水作业规范要求,构建潜水员饱和潜水作业常用工作语言文词库K;
步骤2、监督信号生成——在正常大气压环境下,潜水员i朗读词库K中的文字获得监督信号X i ,从而生成校正网络机器学习监督信号集X={ X i },i=1,2,…,II为潜水员的人数;
步骤3、矢量信号生成——潜水员i分别在饱和潜水深度h 1h 2h 3,…h l ,…,h L 对应的环境下朗读词库K中的文字获得矢量信号Y i.l l=1,2,…,L,从而生成校正网络机器学习的矢量信号集Y={Y i.l }, l为饱和潜水深度的序号;
步骤4、校正网络学习——以矢量信号Y i.l 作为输入信号,以监督信号X i 作为期望输出信号,校正网络进行监督学习,形成与矢量信号Y i.l 相对应的校正网络参数集C={C i.l };
第二阶段-——氦语音解读:
步骤5、校正网络参数选取——将潜水员饱和潜水作业时的工作语音S(氦语音)与矢量信号集Y中所有矢量信号Y i.l 进行拟合,选择一个拟合度最高的矢量信号Y n.m 所对应的参数C n,m 作为校正网络的网络参数,其中,n∈[1,2,…,I],m∈[1,2,…,L];
步骤6、氦语音校正——将氦语音信号S作为校正网络(此时,校正网络的网络参数为C n,m )的输入信号,对氦语音信号S进行校正,生成校正语音信号T;
步骤7、解读网络学习——将校正语音信号T中的语音与校正网络机器学习监督信号集X中监督信号按文字进行逐一比较,计算他们之间的拟合度,在监督信号集X中选取拟合度最高的文字对应的语音与校正语音信号T文字对应的语音相匹配成组,并将这些匹配成组的语音按拟合度高低顺序排序,选取拟合度前p%的组合,所述组合中校正语音信号T的语音作为解读网络机器学习的矢量信号U,所述组合中监督信号集X的文字对应的语音作为解读网络机器学习的监督信号V,解读网络进行监督学习;
步骤8、氦语音解读——以校正语音信号T作为解读网络的输入信号,完成氦语音S的解读。
本发明还具有如下特征:
1、所述步骤1中,所构建的潜水员饱和潜水作业常用工作语言文词库K是根据氦语音解读器使用单位饱和潜水作业规范要求进行设置的,不同的使用单位,常用工作语言文词库K会有所不同;
2、所述步骤2中,每一个潜水员都有一个监督信号,不同的潜水员,由于他们的发音不一样,其监督信号也不一样;
3、所述步骤3中,氦语音测试点深度h 1h 2h 3,…,h L 要求均匀覆盖打捞潜水作业的预设深度,但也可以非均匀覆盖打捞潜水作业的预设深度;
4、所述步骤3中,测试点的个数由预设打捞潜水作业深度和测试点间隔决定的,测试点间隔越细,氦语音解读越完备,但生成矢量信号的时间越长,氦语音解读复杂性越高;
5、所述步骤3中,每一个潜水员在每一个测试点(不同潜水深度)都有一个对应的矢量信号;
6、所述步骤4中,所采用的学习算法可以是任何一种形式的监督学习算法,也可以是任何一种形式半监督学习算法;
7、所述步骤4中,校正网络结构是与步骤4所选用的学习算法相对应的;
8、所述步骤5中,所采用的拟合度评价指标是氦语音S与矢量信号Y i.l 之间的欧氏距离,但也可以是均值、方差等其它评价指标;
9、所述步骤7中,所采用的拟合度评价指标是校正语音信号T与词库K中的词汇之间的欧氏距离,但也可以是均值、方差等其它评价指标;
10、所述步骤7中,词组筛选比例p与词库K设置的大小有关,词库K越大,潜水员工作时的通话词汇落在词库K中的概率越大,p也越大,氦语音解读也越完备;通常,词库K中的词汇在100个~300个之间,则p的大小选取在85~98之间;
11、所述步骤7中,所采用的学习算法可以是任何一种形式的监督学习算法,例如K-近邻算法、决策树等,也可以是任何一种形式半监督学习算法,例如自训练算法、半监督支持向量机等;12、所述步骤7中,校正网络结构是与步骤7所选用的学习算法相对应的;
13、所述步骤6中,如果潜水员的语音失真不是很严重,校正语音信号T可以直接作为氦语音解读信号输出;
14、所述步骤1-步骤8中,步骤1-步骤4是潜水员在潜水舱中(潜水作业前期准备工作时)完成的,步骤5-步骤8是是潜水员在深海潜水作业时完成的;
15、所述步骤2中,校正网络的监督信号可以采用文字标签,此时潜水员不需要朗读词库K中的文字,直接采用词库K作为监督信号X;对应的,所述步骤6中所产生的校正语音信号T也是文字的,所述步骤8中所产生的氦语音解读信号也是文字的。
本发明方法在于氦语音的解读中,利用了潜水员在不同环境下个体语音信号特征和工作语言词库词汇信息以及人工智能网络的机器学习能力,从而产生以下的有益效果:
(1)通过学习潜水员工作语言词库词汇信息,减少了网络对机器学习样本数的要求,使得潜水员能够在潜水舱的潜水作业前期准备工作阶段完成校正网络的学习;
(2)通过学习潜水员在不同环境下个体语音信号特征,提高了机器学习网络的学习效率,消除了环境噪声对氦语音解读的影响,使得氦语音解读器在解读不同潜水深度的氦语音时具有自适应性;
(3)校正网络和解读网络相结合,提高了氦语音解读的准确性。
附图说明
图1是氦语音解读流程图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步说明。
在包括潜水员、氦语音校正网络和氦语音解读网络的系统中,首先根据饱和潜水作业规范要求建立潜水员常用工作语言词库,由潜水员分别在正常大气压环境下和饱和潜水作业对应环境下朗读工作语言词库,生成校正网络机器学习的监督信号和矢量信号,校正网络采用监督学习算法对不同潜水员在不同潜水深度的氦语音进行学习得到校正网络参数集;其次,潜水员在潜水作业时将其氦语音信号与校正网络的矢量信号进行拟合,选择拟合度最高的矢量信号所对应的网络参数作为校正网络的参数,对潜水员的氦语音进行校正得到校正语音信号;然后,将校正得到的语音信号与常用工作语言词库进行拟合,并按拟合度高低进行筛选,生成解读网络机器学习的监督信号和矢量信号,解读网络采用监督学习算法对校正语音信号进行进一步学习;最后,解读网络对校正语音信号进行解读,完成氦语音的完备解读。
第一阶段-——校正网络学习。
步骤1、词库信号构建——根据饱和潜水作业规范要求,构建潜水员饱和潜水作业常用工作语言文词库K。
在本例中,根据XX打捞局的饱和潜水作业规范要求,构建了由“潜水、夹板、温度、压力”等150个词汇组成的常用工作语言文词库K。
步骤2、监督信号生成——在正常大气压环境下,潜水员i朗读词库K中的文字获得监督信号X i ,从而生成校正网络机器学习监督信号集X={ X i },i=1,2,…,II为潜水员的人数。
在本例中,由2个潜水员分别朗读了词库K中的文字,生成校正网络机器学习监督信号(语音信号)集X1和X2(语音信号)。
步骤3、矢量信号生成——潜水员i分别在饱和潜水深度h 1h 2h 3,…h l ,…,h L 对应的环境下朗读词库K中的文字获得矢量信号Y i.l l=1,2,…,L,从而生成校正网络机器学习的矢量信号集Y={Y i.l }, l为饱和潜水深度的序号;。
在本例中,饱和潜水作业深度范围为200米~250米,测试点间隔为10米,2个潜水员在潜水舱饱和潜水深度200米、210米、220米、230米、240米和250米对应的环境下,分别朗读词库K中的文字,生成校正网络机器学习矢量信号(语音信号)Y1.1、Y1.2、Y1.3、Y1.4、Y1.5、Y1.6、Y2.1、Y2.2、Y2.3、Y2.4、Y2.5和Y2.6
步骤4、校正网络学习——以矢量信号Y i.l 作为输入信号,以监督信号X i 作为期望输出信号,校正网络进行监督学习,形成与矢量信号Y i.l 相对应的校正网络参数集C={C i.l }。
在本例中,校正网络采用K-近邻算法进行监督学习。监督学习后,校正网络对应于不同的矢量信号Y1.1、Y1.2、Y1.3、Y1.4、Y1.5、Y1.6、Y2.1、Y2.2、Y2.3、Y2.4、Y2.5和Y2.6和监督信号X1和X2,生成了对应的校正网络参数C1.1、C1.2、C1.3、C1.4、C1.5、C1.6、C2.1、C2.2、C2.3、C2.4、C2.5和C2.6;当校正网络的输入矢量信号为Y1.1、Y1.2、Y1.3、Y1.4、Y1.5、Y1.6时,其监督信号为X1;当校正网络的输入矢量信号为Y2.1、Y2.2、Y2.3、Y2.4、Y2.5、Y2.6时,其监督信号为X2
第二阶段-——氦语音解读。
步骤5、校正网络参数选取——将潜水员正常饱和潜水作业时的工作语音S(氦语音)与矢量信号集Y中所有矢量信号Y i.l 进行拟合,选择一个拟合度最高的矢量信号Y n.m 所对应的网络参数C n,m 作为校正网络的网络参数,其中,n∈[1,2,…,I],m∈[1,2,…,L]。
在本例中,潜水员1在工作,因此将潜水员1的工作语音信号-氦语音S与所有矢量信号Y1.1、Y1.2、Y1.3、Y1.4、Y1.5、Y1.6、Y2.1、Y2.2、Y2.3、Y2.4、Y2.5和Y2.6分别进行拟合,选择了拟合度最高的矢量信号Y1.3所对应的网络参数C1.3作为校正网络的网络参数,拟合时采用欧氏距离作为评价指标。
步骤6、氦语音校正——将氦语音信号S作为校正网络(此时,校正网络的网络参数为C n,m )的输入信号,对氦语音信号S进行校正,产生校正语音信号T。
在本例中,校正网络对氦语音信号S进行校正时所采用的校正网络参数为C1.3,产生的校正语音信号为T。
步骤7、解读网络学习——将校正语音信号T中的语音与校正网络机器学习监督信号集X中监督信号按文字进行逐一比较,计算他们之间的拟合度,在监督信号集X中选取拟合度最高的文字对应的语音与校正语音信号T文字对应的语音相匹配成组,并将这些匹配成组的语音按拟合度高低顺序排序,选取拟合度前p%的组合,所述组合中校正语音信号T的语音作为解读网络机器学习的矢量信号U,所述组合中监督信号集X的文字对应的语音作为解读网络机器学习的监督信号V,解读网络进行监督学习。
在本例中,采用欧氏距离将校正语音信号T与监督信号集X中监督信号按文字进行逐一比较,在监督信号集X中选取拟合度最高的文字对应的语音与校正语音信号T文字对应的语音相匹配成组,并将这些匹配成组的语音按拟合度高低顺序排序,选取拟合度前90%匹配组所对应的校正语音信号T中语音信号作为解读网络机器学习的矢量信号U,其对应的监督信号集X中的语音信号作为解读网络机器学习的监督信号V,解读网络进行监督学习,解读网络采用K-近邻算法进行监督学习。
步骤8、氦语音解读——以校正语音信号T作为解读网络的输入信号,完成氦语音S的解读。
除上述实施例外,本发明还可以有其他实施方式。凡采用等同替换或等效变换形成的技术方案,均落在本发明要求的保护范围。

Claims (8)

1.一种基于词库学习的饱和潜水氦语音解读方法,包括至少1个潜水员、1个氦语音校正网络和1个氦语音解读网络,潜水员的氦语音信号为S,所述氦语音解读方法包括如下步骤:
第一阶段——校正网络学习
步骤1、词库信号构建——根据饱和潜水作业规范要求,构建潜水员饱和潜水作业常用工作语言词库K;
步骤2、监督信号生成——在正常大气压环境下,潜水员i朗读词库K中的文字获得监督信号X i ,从而生成校正网络机器学习监督信号集X={X i },i=1,2,…,II为潜水员的人数;
步骤3、矢量信号生成——潜水员i分别在饱和潜水深度h 1h 2h 3,…h l ,…,h L 对应的环境下朗读词库K中的文字获得矢量信号Y i.l l=1,2,…,L,从而生成校正网络机器学习的矢量信号集Y={Y i.l }, l为饱和潜水深度的序号;
步骤4、校正网络学习——以矢量信号Y i.l 作为输入信号,以监督信号X i 作为期望输出信号,校正网络进行监督学习,形成与矢量信号Y i.l 相对应的校正网络参数集C={C i.l };
第二阶段——氦语音解读
步骤5、校正网络参数选取——将潜水员饱和潜水作业时的氦语音信号S与矢量信号集Y中所有矢量信号Y i.l 进行拟合,选择一个拟合度最高的矢量信号Y n.m 所对应的参数C n,m 作为校正网络的网络参数,其中,n∈[1,2,…,I],m∈[1,2,…,L];
步骤6、氦语音校正——将氦语音信号S作为校正网络的输入信号,对氦语音信号S进行校正,生成校正语音信号T;
步骤7、解读网络学习——将校正语音信号T中的语音与校正网络机器学习监督信号集X中监督信号按文字进行逐一比较,计算他们之间的拟合度,在监督信号集X中选取拟合度最高的文字对应的语音与校正语音信号T文字对应的语音相匹配成组,并将这些匹配成组的语音按拟合度由高到低排序,选取拟合度前p%的组合,所述组合中校正语音信号T的语音作为解读网络机器学习的矢量信号U,所述组合中监督信号集X的文字对应的语音作为解读网络机器学习的监督信号V,解读网络进行监督学习;
步骤8、氦语音解读——以校正语音信号T作为解读网络的输入信号,完成氦语音S的解读。
2.根据权利要求1所述的基于词库学习的饱和潜水氦语音解读方法,其特征在于:步骤5和步骤7中,所述拟合度的评价指标为欧氏距离或方差,欧氏距离越小拟合度越高,方差越小拟合度越高。
3.根据权利要求1所述的基于词库学习的饱和潜水氦语音解读方法,其特征在于:根据氦语音解读器使用单位饱和潜水作业规范要求进行潜水员饱和潜水作业常用工作语言词库K的设置。
4.根据权利要求1所述的基于词库学习的饱和潜水氦语音解读方法,其特征在于:氦语音测试点深度h 1h 2h 3,…,h L 均匀覆盖打捞潜水作业的预设深度。
5.根据权利要求4所述的基于词库学习的饱和潜水氦语音解读方法,其特征在于:测试点的个数根据预设打捞潜水作业深度和测试点间隔确定。
6.根据权利要求1所述的基于词库学习的饱和潜水氦语音解读方法,其特征在于:词库K中的词汇在100个~300个之间,则p的大小选取在85~98之间。
7.根据权利要求1所述的基于词库学习的饱和潜水氦语音解读方法,其特征在于:步骤4和步骤7中采用的学习方法为K-近邻算法、决策树算法;或者自训练算法、半监督支持向量机算法。
8.根据权利要求1所述的基于词库学习的饱和潜水氦语音解读方法,其特征在于:步骤1-步骤4是潜水员在潜水舱中完成的,步骤5-步骤8是是潜水员在深海潜水作业时完成的。
CN202110450616.9A 2021-04-26 2021-04-26 基于词库学习的饱和潜水氦语音解读方法 Active CN113178207B (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202110450616.9A CN113178207B (zh) 2021-04-26 2021-04-26 基于词库学习的饱和潜水氦语音解读方法
AU2021232744A AU2021232744B2 (en) 2021-04-26 2021-09-01 Lexicon learning-based heliumspeech unscrambling method in saturation diving
PCT/CN2021/116054 WO2022227365A1 (zh) 2021-04-26 2021-09-01 基于词库学习的饱和潜水氦语音解读方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110450616.9A CN113178207B (zh) 2021-04-26 2021-04-26 基于词库学习的饱和潜水氦语音解读方法

Publications (2)

Publication Number Publication Date
CN113178207A CN113178207A (zh) 2021-07-27
CN113178207B true CN113178207B (zh) 2021-10-08

Family

ID=76926012

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110450616.9A Active CN113178207B (zh) 2021-04-26 2021-04-26 基于词库学习的饱和潜水氦语音解读方法

Country Status (2)

Country Link
CN (1) CN113178207B (zh)
WO (1) WO2022227365A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113178207B (zh) * 2021-04-26 2021-10-08 南通大学 基于词库学习的饱和潜水氦语音解读方法
CN114120976A (zh) * 2021-11-16 2022-03-01 南通大学 基于多目标优化的饱和潜水氦语音解读方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4079197A (en) * 1975-11-19 1978-03-14 Zurcher Jean Frederic Voice transcoder in helium atmosphere
JPH036964A (ja) * 1989-06-02 1991-01-14 Fuosutekusu Kk 水中通話装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB1187536A (en) * 1968-08-28 1970-04-08 Standard Telephones Cables Ltd Processor for Helium Speech
US3813687A (en) * 1972-11-29 1974-05-28 Us Navy Instant replay helium speech unscrambler using slowed tape for correction
US3863026A (en) * 1973-08-15 1975-01-28 Us Navy Helium speech decoder
US3965298A (en) * 1975-05-05 1976-06-22 Long Enterprises Deep sea diving speech converter
JPH11327598A (ja) * 1998-05-20 1999-11-26 Oki Electric Ind Co Ltd ヘリウム音声修復装置
JP2010134260A (ja) * 2008-12-05 2010-06-17 Sanyo Electric Co Ltd 電子機器及び音声処理方法
JP5597575B2 (ja) * 2011-02-23 2014-10-01 国立大学法人 琉球大学 通信装置
NO333567B1 (no) * 2011-05-16 2013-07-08 Kongsberg Seatex As Fremgangsmate og system for maritim, hoyhastighets bredbandskommunikasjonsnettverk-oppbygging
US9564146B2 (en) * 2014-08-01 2017-02-07 Bongiovi Acoustics Llc System and method for digital signal processing in deep diving environment
CN111976924A (zh) * 2020-08-12 2020-11-24 厦门大学 一种用于潜水全面罩的实时信息交流装置
CN113178207B (zh) * 2021-04-26 2021-10-08 南通大学 基于词库学习的饱和潜水氦语音解读方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4079197A (en) * 1975-11-19 1978-03-14 Zurcher Jean Frederic Voice transcoder in helium atmosphere
JPH036964A (ja) * 1989-06-02 1991-01-14 Fuosutekusu Kk 水中通話装置

Also Published As

Publication number Publication date
WO2022227365A1 (zh) 2022-11-03
CN113178207A (zh) 2021-07-27

Similar Documents

Publication Publication Date Title
CN113178207B (zh) 基于词库学习的饱和潜水氦语音解读方法
Jain et al. Improved Accented Speech Recognition Using Accent Embeddings and Multi-task Learning.
EP0241768B1 (en) Synthesizing word baseforms used in speech recognition
JP4885160B2 (ja) 英語変異発音を識別するモジュールの構築方法、および、当該モジュールの構築を実現するプログラムを記憶したコンピュータが読み取り可能な記録媒体
CN110875035A (zh) 新型多任务联合的语音识别训练架构和方法
CN110459208A (zh) 一种基于知识迁移的序列到序列语音识别模型训练方法
CN113327595B (zh) 发音偏误检测方法、装置及存储介质
CN114783418B (zh) 基于稀疏自注意力机制的端到端语音识别方法及系统
CN112349288A (zh) 基于拼音约束联合学习的汉语语音识别方法
WO2023087779A1 (zh) 基于多目标优化的饱和潜水氦语音解读方法及系统
CN112183582A (zh) 一种多特征融合的水下目标识别方法
CN115455946A (zh) 语音识别纠错方法、装置、电子设备和存储介质
Ashihara et al. SpeechGLUE: How well can self-supervised speech models capture linguistic knowledge?
CN112908293A (zh) 一种基于语义注意力机制的多音字发音纠错方法及装置
Bobrow et al. A limited speech recognition system
CN112233655A (zh) 一种提高语音命令词识别性能的神经网络训练方法
AU2021232744B2 (en) Lexicon learning-based heliumspeech unscrambling method in saturation diving
Atal Automatic speech recognition: A communication perspective
JPH01204099A (ja) 音声認識装置
CN115497466A (zh) 一种基于机器学习的饱和潜水氦语音解读方法
CN114065773A (zh) 多轮问答系统历史上下文语义表示方法
Li et al. Isolated Words Recognition Algorithm Based on Deep Learning in Heliumspeech Unscrambling
CN111063335A (zh) 一种基于神经网络的端到端声调识别方法
CN118136022A (zh) 一种智能语音识别系统及方法
CN116052662A (zh) 一种基于听不见的通用对抗命令攻击方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant