CN116416969A - 一种基于大数据的多语言实时翻译方法、系统和介质 - Google Patents

一种基于大数据的多语言实时翻译方法、系统和介质 Download PDF

Info

Publication number
CN116416969A
CN116416969A CN202310683476.9A CN202310683476A CN116416969A CN 116416969 A CN116416969 A CN 116416969A CN 202310683476 A CN202310683476 A CN 202310683476A CN 116416969 A CN116416969 A CN 116416969A
Authority
CN
China
Prior art keywords
voice information
information
language
preset
vocabulary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310683476.9A
Other languages
English (en)
Inventor
郑洪明
臧永昌
孙天鹤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Jiangyuan Technology Group Co ltd
Original Assignee
Shenzhen Jiangyuan Technology Group Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Jiangyuan Technology Group Co ltd filed Critical Shenzhen Jiangyuan Technology Group Co ltd
Priority to CN202310683476.9A priority Critical patent/CN116416969A/zh
Publication of CN116416969A publication Critical patent/CN116416969A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开的一种基于大数据的多语言实时翻译方法、系统和介质,其中方法包括:获取固定词汇,将固定词汇与预设词汇进行相似度对比,得到与固定词汇对应的目标语言信息;将目标语言信息与对应的语音设备进行绑定并标记;获取第一语音设备的第一语音信息;将第一语音信息输入预设的特征库中处理得到目标语音信息;将目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对目标语音信息进行正式播放。本发明基于大数据自动识别不同的语言并实时翻译,将不同的语言与对应的语音设备进行绑定,再将接收到的语言转换为与语音设备所对应的语言,经过去噪和调整语音强度后进行正式播放,实现了多语言实时智能识别和翻译。

Description

一种基于大数据的多语言实时翻译方法、系统和介质
技术领域
本发明涉及大数据和语言翻译技术领域,更具体的,涉及一种基于大数据的多语言实时翻译方法、系统和介质。
背景技术
随着全球化程度的日益加深,越来越多的国际合作共事与交流。为了更方便快捷且顺畅沟通,翻译机的应用越来越广泛,重要性也越来越高。但是目前的翻译机一般要先选定好要翻译的具体语言类型,只能支持对应语言的翻译。无法做到对话实时翻译,同时,翻译内容不能完全贴合其实际含义。
针对上述问题,亟待一种解决问题的设计方案。
发明内容
本发明的目的是提供一种基于大数据的多语言实时翻译方法、系统和介质,基于大数据自动识别不同的语言并实时翻译,将不同的语言与对应的语音设备进行绑定,再将接收到的语言转换为与语音设备所对应的语言,经过去噪和调整语音强度后进行正式播放,实现了多人间的实时智能识别和翻译。
本发明第一方面提供了一种基于大数据的多语言实时翻译方法,包括以下步骤:
获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息;
将所述目标语言信息与对应的语音设备进行绑定并标记;
获取第一语音设备的第一语音信息;
将所述第一语音信息输入预设的特征库中处理得到目标语音信息;
将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放。
本方案中,还包括:
根据所述目标语言信息查询获得对应的方言语言库;
将所述第一语音信息输入所述方言语言库进行相似度对比,若所述第一语音信息满足相似度阈值要求,则得到对应的方言模型;
将所述方言模型与所述第一语音设备进行绑定并标记。
本方案中,所述获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息,包括:
获取固定词汇,并对所述固定词汇进行提取得到第一固定词汇和第二固定词汇;
将所述第一固定词汇与第一预设词汇进行相似度阈值对比获得第一对比结果,若第一对比结果满足相似度阈值要求,则得到与所述固定词汇对应的目标语言信息;
若所述第一对比结果不满足,则将所述第二固定词汇与第二预设词汇进行相似度阈值对比获得第二对比结果,若第二对比结果满足相似度阈值要求,则得到与所述固定词汇对应的目标语言信息。
本方案中,所述将所述第一语音信息输入预设的特征库中处理得到目标语音信息,包括:
根据所述第一语音信息进行提取得到语言学特征因子和声学特征因子;
将所述语言学特征因子输入预设的语言学特征库中进行匹配得到对应语言学特征标准词汇;
将所述声学特征因子输入预设的声学特征库中进行匹配得到对应声学特征标准声音;
将所述语言学特征标准词汇结合所述声学特征标准声音进行融合得到目标语音信息。
本方案中,所述将所述第一语音信息输入预设的特征库中处理得到目标语音信息,还包括:
将所述目标语音信息输入语义神经网络模型中进行处理得到对应的语义信息;
根据所述语义信息提取第一语义和第二语义,将所述第一语义和第二语义在所述语音设备的关联显示设备进行展示。
本方案中,所述将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放,包括:
根据所述目标语音信息提取语音强度数据;
根据所述语音强度数据处理得到强度间隔比例;
将所述语音强度数据与预设的语音强度阈值进行阈值对比,并获得阈值对比结果;
若所述阈值对比结果不满足预设阈值对比要求,则按预设的强度间隔比例进行调整;
若所述阈值对比结果满足预设阈值对比要求,则对所述目标语音信息进行正式播放。
本方案中,还包括:
将所述目标语音信息转换为文本信息;
将所述文本信息按照时间进行排序,生成对话记录。
本发明第二方面还提供一种基于大数据的多语言实时翻译系统,包括存储器和处理器,所述存储器中包括基于大数据的多语言实时翻译方法程序,所述基于大数据的多语言实时翻译方法程序被所述处理器执行时实现如下步骤:
获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息;
将所述目标语言信息与对应的语音设备进行绑定并标记;
获取第一语音设备的第一语音信息;
将所述第一语音信息输入预设的特征库中处理得到目标语音信息;
将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放。
本方案中,还包括:
根据所述目标语言信息查询获得对应的方言语言库;
将所述第一语音信息输入所述方言语言库进行相似度对比,若所述第一语音信息满足相似度阈值要求,则得到对应的方言模型;
将所述方言模型与所述第一语音设备进行绑定并标记。
本发明第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质中包括基于大数据的多语言实时翻译方法程序,所述基于大数据的多语言实时翻译方法程序被处理器执行时,实现如上述任一项所述的基于大数据的多语言实时翻译方法的步骤。
本发明公开的一种基于大数据的多语言实时翻译方法、系统和介质,获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息;将所述目标语言信息与对应的语音设备进行绑定并标记;获取第一语音设备的第一语音信息;将所述第一语音信息输入预设的特征库中处理得到目标语音信息;将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放。本发明基于大数据自动识别不同的语言并实时翻译,将不同的语言与对应的语音设备进行绑定,再将接收到的语言转换为与语音设备所对应的语言,经过去噪和调整语音强度后进行正式播放,实现了多人间的实时智能识别和翻译。
附图说明
图1示出了本发明基于大数据的多语言实时翻译方法的流程图;
图2示出了本发明基于大数据的多语言实时翻译方法的另一种流程图;
图3示出了本发明基于大数据的多语言实时翻译方法的得到目标语音信息的流程图;
图4示出了本发明基于大数据的多语言实时翻译系统的结构框图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了本申请一种基于大数据的多语言实时翻译方法的流程图。
如图1所示,本申请公开了一种基于大数据的多语言实时翻译方法,包括以下步骤:
S101,获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息;
S102,将所述目标语言信息与对应的语音设备进行绑定并标记;
S103,获取第一语音设备的第一语音信息;
S104,将所述第一语音信息输入预设的特征库中处理得到目标语音信息;
S105,将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放。
需要说明的是,首先获取固定词汇,所述固定词汇包含第一固定词汇和第二固定词汇,将第一固定词汇和第二固定词汇分别与第一预设词汇和第二预设词汇进行相似度阈值对比,第一预设词汇可以为对应语言的“你好”;第二预设词汇可以为对应语言的“测试”,相似度阈值可以为86%,例如,第一固定词汇与第一预设词汇相似度对比结果为83%,不满足相似度阈值要求,则需要进行第二固定词汇与第二预设词汇相似度对比,如第二次相似度对比结果为88%,则得到与固定词汇对应的目标语音信息,同时,需要将目标语言信息与对应的语音设备进行绑定并标记编号。完成语言识别和设备绑定后,可以开始会议或对话,获取第一语音设备的第一语音信息,根据第一语音信息可以提取得到语言学特征因子和声学特征因子,分别将语言学特征因子和声学特征因子对应输入预设的语言学特征库和声学特征库中进行匹配,得到对应语言学特征的标准词汇和声学特征的标准声音,将语言学特征标准词汇与声学特征标准声音相融合得到目标语音信息,再将所述目标语音信息输入训练好的语义神经网络模型中进行查询匹配,可以得到对应的语义信息,包括第一语义和第二语义,所述语义信息是指非字面意思,如网络流行语和语言深层含义等,将出现频率最高的语义以第一语义和第二语义的形式展示在语音设备所关联的显示设备上,让语音设备的使用者更好的理解语音信息的含义。在完成语音信息的翻译后,还会从目标语音信息中提取语音强度数据,根据语音强度数据可以设定强度间隔的比例,比如0.5%,再将语音强度数据与预设的语音强度阈值进行阈值对比,预设的语音强度阈值可以为89%,如提取的语音强度数据为88%,则按预设的强度间隔比例对所述语音强度数据进行调整,满足预设阈值对比要求后再进行正式语音播放。
图2示出了本申请一种基于大数据的多语言实时翻译方法的另一种流程图。
如图2所示,根据本发明实施例,还包括:
S201,根据所述目标语言信息查询获得对应的方言语言库;
S202,将所述第一语音信息输入所述方言语言库进行相似度对比,若所述第一语音信息满足相似度阈值要求,则得到对应的方言模型;
S203,将所述方言模型与所述第一语音设备进行绑定并标记。
需要说明的是,各个语言体系因地域原因都包含有多种方言,各地方言之间千差万别,严重的口音影响翻译效果,通过建立方言语言库,将各个语言体系中的每一种方言都建立对应的方言模型,根据目标语言信息查询可以获得对应的方言语言库,将第一语音信息输入所述方言语言库中进行相似度对比,若满足相似度阈值要求则得到对应的方言模型,相似度阈值可以为97%,若第一语音信息与方言语言库中的方言模型相似度对比达到98%,则得到对应的方言模型,将所述方言模型与第一语音设备进行绑定并标记。
图3示出了本申请一种基于大数据的多语言实时翻译方法的得到目标语音信息的流程图。
如图3所示,根据本发明实施例,所述获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息,包括:
S301,获取固定词汇,并对所述固定词汇进行提取得到第一固定词汇和第二固定词汇;
S302,将所述第一固定词汇与第一预设词汇进行相似度阈值对比获得第一对比结果,若第一对比结果满足相似度阈值要求,则得到与所述固定词汇对应的目标语言信息;
S303,若所述第一对比结果不满足,则将所述第二固定词汇与第二预设词汇进行相似度阈值对比获得第二对比结果,若第二对比结果满足相似度阈值要求,则得到与所述固定词汇对应的目标语言信息。
需要说明的是,首先获取固定词汇,所述固定词汇包含第一固定词汇和第二固定词汇,将第一固定词汇和第二固定词汇分别与第一预设词汇和第二预设词汇进行相似度阈值对比,第一预设词汇可以为对应语言的“你好”;第二预设词汇可以为对应语言的“测试”,相似度阈值可以为86%,例如,第一固定词汇与第一预设词汇相似度对比结果为83%,不满足相似度阈值要求,则需要进行第二固定词汇与第二预设词汇相似度对比,如第二次相似度对比结果为88%,则得到与固定词汇对应的目标语音信息。
根据本发明实施例,所述将所述第一语音信息输入预设的特征库中处理得到目标语音信息,包括:
根据所述第一语音信息进行提取得到语言学特征因子和声学特征因子;
将所述语言学特征因子输入预设的语言学特征库中进行匹配得到对应语言学特征标准词汇;
将所述声学特征因子输入预设的声学特征库中进行匹配得到对应声学特征标准声音;
将所述语言学特征标准词汇结合所述声学特征标准声音进行融合得到目标语音信息。
需要说明的是,根据第一语音信息提取得到语言学特征因子和声学特征因子,所述语言学特征因子包括语言的语法、词性和词形组合等,将语言学特征因子输入预设的语言学特征库中进行匹配可以得到对应语言学特征的标准词汇;所述声学特征因子包括音色、频率和音高等,将声学特征因子输入预设的声学库中进行匹配可以得到对应声学特征的标准声音,最后将语言学特征标准词汇结合声学特征标准声音,将二者进行融合得到目标语音信息。
根据本发明实施例,所述将所述第一语音信息输入预设的特征库中处理得到目标语音信息,还包括:
将所述目标语音信息输入语义神经网络模型中进行处理得到对应的语义信息;
根据所述语义信息提取第一语义和第二语义,将所述第一语义和第二语义在所述语音设备的关联显示设备进行展示。
需要说明的是,将所述目标语音信息输入训练好的语义神经网络模型中进行查询匹配,可以得到对应的语义信息,包括第一语义和第二语义,所述语义信息是指非字面意思,如网络流行语和语言深层含义等,将出现频率最高的语义以第一语义和第二语义的形式展示在语音设备所关联的显示设备上,让语音设备的使用者更好的理解所接收到的语音信息的含义。
根据本发明实施例,所述将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放,包括:
根据所述目标语音信息提取语音强度数据;
根据所述语音强度数据处理得到强度间隔比例;
将所述语音强度数据与预设的语音强度阈值进行阈值对比,并获得阈值对比结果;
若所述阈值对比结果不满足预设阈值对比要求,则按预设的强度间隔比例进行调整;
若所述阈值对比结果满足预设阈值对比要求,则对所述目标语音信息进行正式播放。
需要说明的是,在完成语音信息的翻译后,还会从目标语音信息中提取语音强度数据,根据语音强度数据可以设定强度间隔的比例,比如可以为0.5%,再将语音强度数据与预设的语音强度阈值进行阈值对比,预设的语音强度阈值可以为89%,如提取的语音强度数据为88%,则按预设的强度间隔比例对所述语音强度数据进行调整,满足预设阈值对比要求后再进行正式语音播放。
根据本发明实施例,还包括:
将所述目标语音信息转换为文本信息;
将所述文本信息按照时间进行排序,生成对话记录。
需要说明的是,可以将所述目标语音信息进一步转换为文本信息,再将这些文本信息按照时间顺序进行排序,最后生成文本方式的对话记录。
值得一提的是,还包括:
获取用户信息;
根据所述用户信息提取安全等级信息;
根据所述安全等级信息对会议进行对应的限制。
需要说明的是,在对会议对话内容进行翻译时,用户可以根据会议内容及自身需求通过设定不同的安全等级来对会议对话内容进行限制性保护,比如在与语音设备相关联的终端设备上选择会议类型,可以为“高”、“中”和“标准”三个安全等级,“高”代表完全的自主控制权,限制与会人员等;“中”代表允许拥有一定账户级别的人员自行加入会议;“标准”代表开放式会议。
值得一提的是,还包括:
根据所述目标语音信息提取噪声信息;
将所述噪声信息输入预设的降噪单元进行降噪处理。
需要说明的是,根据目标语音信息提取对应的噪声信息,包括波形及对应的语谱图,通过预设的降噪单元对噪声信息进行降噪处理,主要针对缓变噪声进行降噪,保障通话的准确性。
值得一提的是,还包括:
将所述目标语音信息进行编号暂存并在所述语音设备的关联显示设备进行展示;
根据所述编号提取对应的目标语音信息进行回放。
需要说明的是,可以将翻译好的目标语音信息进行编号暂存,用户可以在语音设备的关联显示设备上看到对应的编号,选择对应编号可对之前的语音进行回放。
值得一提的是,还包括:
根据所述用户信息提取人脸图像信息;
根据所述人脸图像信息获取用户历史使用记录;
根据所述用户历史使用记录得到对应的目标语言信息。
需要说明的是,通过与语音设备对应的图像采集装置可以提取到用户的人脸图像信息,通过人脸图像信息可以查询到用户对应的使用记录,通过历史使用记录可以快速得到当前用户的语言信息,确定了语言的语种。
图4示出了本发明一种基于大数据的多语言实时翻译系统的结构框图。
如图4所示,本发明公开了一种基于大数据的多语言实时翻译系统4,包括存储器41和处理器42,所述存储器中包括基于大数据的多语言实时翻译方法程序,所述基于大数据的多语言实时翻译方法程序被所述处理器执行时实现如下步骤:
获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息;
将所述目标语言信息与对应的语音设备进行绑定并标记;
获取第一语音设备的第一语音信息;
将所述第一语音信息输入预设的特征库中处理得到目标语音信息;
将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放。
需要说明的是,首先获取固定词汇,所述固定词汇包含第一固定词汇和第二固定词汇,将第一固定词汇和第二固定词汇分别与第一预设词汇和第二预设词汇进行相似度阈值对比,第一预设词汇可以为对应语言的“你好”;第二预设词汇可以为对应语言的“测试”,相似度阈值可以为86%,例如,第一固定词汇与第一预设词汇相似度对比结果为83%,不满足相似度阈值要求,则需要进行第二固定词汇与第二预设词汇相似度对比,如第二次相似度对比结果为88%,则得到与固定词汇对应的目标语音信息,同时,需要将目标语言信息与对应的语音设备进行绑定并标记编号。完成语言识别和设备绑定后,可以开始会议或对话,获取第一语音设备的第一语音信息,根据第一语音信息可以提取得到语言学特征因子和声学特征因子,分别将语言学特征因子和声学特征因子对应输入预设的语言学特征库和声学特征库中进行匹配,得到对应语言学特征的标准词汇和声学特征的标准声音,将语言学特征标准词汇与声学特征标准声音相融合得到目标语音信息,再将所述目标语音信息输入训练好的语义神经网络模型中进行查询匹配,可以得到对应的语义信息,包括第一语义和第二语义,所述语义信息是指非字面意思,如网络流行语和语言深层含义等,将出现频率最高的语义以第一语义和第二语义的形式展示在语音设备所关联的显示设备上,让语音设备的使用者更好的理解语音信息的含义。在完成语音信息的翻译后,还会从目标语音信息中提取语音强度数据,根据语音强度数据可以设定强度间隔的比例,比如0.5%,再将语音强度数据与预设的语音强度阈值进行阈值对比,预设的语音强度阈值可以为89%,如提取的语音强度数据为88%,则按预设的强度间隔比例对所述语音强度数据进行调整,满足预设阈值对比要求后再进行正式语音播放。
根据本发明实施例,还包括:
根据所述目标语言信息查询获得对应的方言语言库;
将所述第一语音信息输入所述方言语言库进行相似度对比,若所述第一语音信息满足相似度阈值要求,则得到对应的方言模型;
将所述方言模型与所述第一语音设备进行绑定并标记。
需要说明的是,各个语言体系因地域原因都包含有多种方言,各地方言之间千差万别,严重的口音影响翻译效果,通过建立方言语言库,将各个语言体系中的每一种方言都建立对应的方言模型,根据目标语言信息查询可以获得对应的方言语言库,将第一语音信息输入所述方言语言库中进行相似度对比,若满足相似度阈值要求则得到对应的方言模型,相似度阈值可以为97%,若第一语音信息与方言语言库中的方言模型相似度对比达到98%,则得到对应的方言模型,将所述方言模型与第一语音设备进行绑定并标记。
根据本发明实施例,所述获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息,包括:
获取固定词汇,并对所述固定词汇进行提取得到第一固定词汇和第二固定词汇;
将所述第一固定词汇与第一预设词汇进行相似度阈值对比获得第一对比结果,若第一对比结果满足相似度阈值要求,则得到与所述固定词汇对应的目标语言信息;
若所述第一对比结果不满足,则将所述第二固定词汇与第二预设词汇进行相似度阈值对比获得第二对比结果,若第二对比结果满足相似度阈值要求,则得到与所述固定词汇对应的目标语言信息。
需要说明的是,首先获取固定词汇,所述固定词汇包含第一固定词汇和第二固定词汇,将第一固定词汇和第二固定词汇分别与第一预设词汇和第二预设词汇进行相似度阈值对比,第一预设词汇可以为对应语言的“你好”;第二预设词汇可以为对应语言的“测试”,相似度阈值可以为86%,例如,第一固定词汇与第一预设词汇相似度对比结果为83%,不满足相似度阈值要求,则需要进行第二固定词汇与第二预设词汇相似度对比,如第二次相似度对比结果为88%,则得到与固定词汇对应的目标语音信息。
根据本发明实施例,所述将所述第一语音信息输入预设的特征库中处理得到目标语音信息,包括:
根据所述第一语音信息进行提取得到语言学特征因子和声学特征因子;
将所述语言学特征因子输入预设的语言学特征库中进行匹配得到对应语言学特征标准词汇;
将所述声学特征因子输入预设的声学特征库中进行匹配得到对应声学特征标准声音;
将所述语言学特征标准词汇结合所述声学特征标准声音进行融合得到目标语音信息。
需要说明的是,根据第一语音信息提取得到语言学特征因子和声学特征因子,所述语言学特征因子包括语言的语法、词性和词形组合等,将语言学特征因子输入预设的语言学特征库中进行匹配可以得到对应语言学特征的标准词汇;所述声学特征因子包括音色、频率和音高等,将声学特征因子输入预设的声学库中进行匹配可以得到对应声学特征的标准声音,最后将语言学特征标准词汇结合声学特征标准声音,将二者进行融合得到目标语音信息。
根据本发明实施例,所述将所述第一语音信息输入预设的特征库中处理得到目标语音信息,还包括:
将所述目标语音信息输入语义神经网络模型中进行处理得到对应的语义信息;
根据所述语义信息提取第一语义和第二语义,将所述第一语义和第二语义在所述语音设备的关联显示设备进行展示。
需要说明的是,将所述目标语音信息输入训练好的语义神经网络模型中进行查询匹配,可以得到对应的语义信息,包括第一语义和第二语义,所述语义信息是指非字面意思,如网络流行语和语言深层含义等,将出现频率最高的语义以第一语义和第二语义的形式展示在语音设备所关联的显示设备上,让语音设备的使用者更好的理解所接收到的语音信息的含义。
根据本发明实施例,所述将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放,包括:
根据所述目标语音信息提取语音强度数据;
根据所述语音强度数据处理得到强度间隔比例;
将所述语音强度数据与预设的语音强度阈值进行阈值对比,并获得阈值对比结果;
若所述阈值对比结果不满足预设阈值对比要求,则按预设的强度间隔比例进行调整;
若所述阈值对比结果满足预设阈值对比要求,则对所述目标语音信息进行正式播放。
需要说明的是,在完成语音信息的翻译后,还会从目标语音信息中提取语音强度数据,根据语音强度数据可以设定强度间隔的比例,比如可以为0.5%,再将语音强度数据与预设的语音强度阈值进行阈值对比,预设的语音强度阈值可以为89%,如提取的语音强度数据为88%,则按预设的强度间隔比例对所述语音强度数据进行调整,满足预设阈值对比要求后再进行正式语音播放。
根据本发明实施例,还包括:
将所述目标语音信息转换为文本信息;
将所述文本信息按照时间进行排序,生成对话记录。
需要说明的是,可以将所述目标语音信息进一步转换为文本信息,再将这些文本信息按照时间顺序进行排序,最后生成文本方式的对话记录。
值得一提的是,还包括:
获取用户信息;
根据所述用户信息提取安全等级信息;
根据所述安全等级信息对会议进行对应的限制。
需要说明的是,在对会议对话内容进行翻译时,用户可以根据会议内容及自身需求通过设定不同的安全等级来对会议对话内容进行限制性保护,比如在与语音设备相关联的终端设备上选择会议类型,可以为“高”、“中”和“标准”三个安全等级,“高”代表完全的自主控制权,限制与会人员等;“中”代表允许拥有一定账户级别的人员自行加入会议;“标准”代表开放式会议。
值得一提的是,还包括:
根据所述目标语音信息提取噪声信息;
将所述噪声信息输入预设的降噪单元进行降噪处理。
需要说明的是,根据目标语音信息提取对应的噪声信息,包括波形及对应的语谱图,通过预设的降噪单元对噪声信息进行降噪处理,主要针对缓变噪声进行降噪,保障通话的准确性。
值得一提的是,还包括:
将所述目标语音信息进行编号暂存并在所述语音设备的关联显示设备进行展示;
根据所述编号提取对应的目标语音信息进行回放。
需要说明的是,可以将翻译好的目标语音信息进行编号暂存,用户可以在语音设备的关联显示设备上看到对应的编号,选择对应编号可对之前的语音进行回放。
值得一提的是,还包括:
根据所述用户信息提取人脸图像信息;
根据所述人脸图像信息获取用户历史使用记录;
根据所述用户历史使用记录得到对应的目标语言信息。
需要说明的是,通过与语音设备对应的图像采集装置可以提取到用户的人脸图像信息,通过人脸图像信息可以查询到用户对应的使用记录,通过历史使用记录可以快速得到当前用户的语言信息,确定了语言的语种。
本发明第三方面提供了一种计算机可读存储介质,所述计算机可读存储介质中包括一种基于大数据的多语言实时翻译方法程序,所述基于大数据的多语言实时翻译方法程序被处理器执行时,实现如上述任一项所述的基于大数据的多语言实时翻译方法的步骤。
本发明公开的一种基于大数据的多语言实时翻译方法、系统和可读存储介质,获取固定词汇并在固定词汇库中进行查询,得到与固定词汇对应的目标语言信息;将目标语言信息与对应的语音设备进行绑定并标记;获取第一语音设备的第一语音信息;将第一语音信息输入预设的特征库中处理得到目标语音信息;将目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对目标语音信息进行正式播放。本发明基于大数据自动识别不同的语言并实时翻译,将不同的语言与对应的语音设备进行绑定,再将接收到的语言转换为与语音设备所对应的语言,经过去噪和调整语音强度后进行正式播放,实现了多人间的实时智能识别和翻译。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述的程序可以存储于计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质包括:移动存储设备、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
或者,本发明上述集成的单元如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机、服务器、或者网络设备等)执行本发明各个实施例所述方法的全部或部分。而前述的存储介质包括:移动存储设备、ROM、RAM、磁碟或者光盘等各种可以存储程序代码的介质。

Claims (10)

1.一种基于大数据的多语言实时翻译方法,其特征在于,包括以下步骤:
获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息;
将所述目标语言信息与对应的语音设备进行绑定并标记;
获取第一语音设备的第一语音信息;
将所述第一语音信息输入预设的特征库中处理得到目标语音信息;
将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放。
2.根据权利要求1所述的基于大数据的多语言实时翻译方法,其特征在于,还包括:
根据所述目标语言信息查询获得对应的方言语言库;
将所述第一语音信息输入所述方言语言库进行相似度对比,若所述第一语音信息满足相似度阈值要求,则得到对应的方言模型;
将所述方言模型与所述第一语音设备进行绑定并标记。
3.根据权利要求1所述的基于大数据的多语言实时翻译方法,其特征在于,所述获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息,包括:
获取固定词汇,并对所述固定词汇进行提取得到第一固定词汇和第二固定词汇;
将所述第一固定词汇与第一预设词汇进行相似度阈值对比获得第一对比结果,若第一对比结果满足相似度阈值要求,则得到与所述固定词汇对应的目标语言信息;
若所述第一对比结果不满足,则将所述第二固定词汇与第二预设词汇进行相似度阈值对比获得第二对比结果,若第二对比结果满足相似度阈值要求,则得到与所述固定词汇对应的目标语言信息。
4.根据权利要求1所述的基于大数据的多语言实时翻译方法,其特征在于,所述将所述第一语音信息输入预设的特征库中处理得到目标语音信息,包括:
根据所述第一语音信息进行提取得到语言学特征因子和声学特征因子;
将所述语言学特征因子输入预设的语言学特征库中进行匹配得到对应语言学特征标准词汇;
将所述声学特征因子输入预设的声学特征库中进行匹配得到对应声学特征标准声音;
将所述语言学特征标准词汇结合所述声学特征标准声音进行融合得到目标语音信息。
5.根据权利要求4所述的基于大数据的多语言实时翻译方法,其特征在于,所述将所述第一语音信息输入预设的特征库中处理得到目标语音信息,还包括:
将所述目标语音信息输入语义神经网络模型中进行处理得到对应的语义信息;
根据所述语义信息提取第一语义和第二语义,将所述第一语义和第二语义在所述语音设备的关联显示设备进行展示。
6.根据权利要求5所述的基于大数据的多语言实时翻译方法,其特征在于,所述将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放,包括:
根据所述目标语音信息提取语音强度数据;
根据所述语音强度数据处理得到强度间隔比例;
将所述语音强度数据与预设的语音强度阈值进行阈值对比,并获得阈值对比结果;
若所述阈值对比结果不满足预设阈值对比要求,则按预设的强度间隔比例进行调整;
若所述阈值对比结果满足预设阈值对比要求,则对所述目标语音信息进行正式播放。
7.根据权利要求6所述的基于大数据的多语言实时翻译方法,其特征在于,还包括:
将所述目标语音信息转换为文本信息;
将所述文本信息按照时间进行排序,生成对话记录。
8.一种基于大数据的多语言实时翻译系统,其特征在于,包括存储器和处理器,所述存储器中包括基于大数据的多语言实时翻译方法程序,所述基于大数据的多语言实时翻译方法程序被所述处理器执行时实现如下步骤:
获取固定词汇,将所述固定词汇与预设词汇进行相似度对比,得到与所述固定词汇对应的目标语言信息;
将所述目标语言信息与对应的语音设备进行绑定并标记;
获取第一语音设备的第一语音信息;
将所述第一语音信息输入预设的特征库中处理得到目标语音信息;
将所述目标语音信息进行试播放,并判断是否满足预设阈值要求,若满足则对所述目标语音信息进行正式播放。
9.根据权利要求8所述的基于大数据的多语言实时翻译系统,其特征在于,还包括:
根据所述目标语言信息查询获得对应的方言语言库;
将所述第一语音信息输入所述方言语言库进行相似度对比,若所述第一语音信息满足相似度阈值要求,则得到对应的方言模型;
将所述方言模型与所述第一语音设备进行绑定并标记。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中包括基于大数据的多语言实时翻译方法程序,所述基于大数据的多语言实时翻译方法程序被处理器执行时,实现如权利要求1至7中任一项所述的基于大数据的多语言实时翻译方法的步骤。
CN202310683476.9A 2023-06-09 2023-06-09 一种基于大数据的多语言实时翻译方法、系统和介质 Pending CN116416969A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310683476.9A CN116416969A (zh) 2023-06-09 2023-06-09 一种基于大数据的多语言实时翻译方法、系统和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310683476.9A CN116416969A (zh) 2023-06-09 2023-06-09 一种基于大数据的多语言实时翻译方法、系统和介质

Publications (1)

Publication Number Publication Date
CN116416969A true CN116416969A (zh) 2023-07-11

Family

ID=87049605

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310683476.9A Pending CN116416969A (zh) 2023-06-09 2023-06-09 一种基于大数据的多语言实时翻译方法、系统和介质

Country Status (1)

Country Link
CN (1) CN116416969A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108874787A (zh) * 2018-06-12 2018-11-23 深圳市合言信息科技有限公司 一种分析语音意图并进行深度翻译解说的方法
CN109088995A (zh) * 2018-10-17 2018-12-25 永德利硅橡胶科技(深圳)有限公司 支持全球语言翻译的方法及手机
CN111814494A (zh) * 2020-06-12 2020-10-23 深圳市沃特沃德股份有限公司 语言翻译方法、装置和计算机设备
CN113011200A (zh) * 2021-03-01 2021-06-22 中国工商银行股份有限公司 多语种信息展示方法、装置、电子设备以及存储介质
CN113436606A (zh) * 2021-05-31 2021-09-24 引智科技(深圳)有限公司 一种原声语音翻译方法
CN115983203A (zh) * 2022-12-27 2023-04-18 科大讯飞(上海)科技有限公司 语音翻译方法、装置、设备及可读存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108874787A (zh) * 2018-06-12 2018-11-23 深圳市合言信息科技有限公司 一种分析语音意图并进行深度翻译解说的方法
CN109088995A (zh) * 2018-10-17 2018-12-25 永德利硅橡胶科技(深圳)有限公司 支持全球语言翻译的方法及手机
CN111814494A (zh) * 2020-06-12 2020-10-23 深圳市沃特沃德股份有限公司 语言翻译方法、装置和计算机设备
CN113011200A (zh) * 2021-03-01 2021-06-22 中国工商银行股份有限公司 多语种信息展示方法、装置、电子设备以及存储介质
CN113436606A (zh) * 2021-05-31 2021-09-24 引智科技(深圳)有限公司 一种原声语音翻译方法
CN115983203A (zh) * 2022-12-27 2023-04-18 科大讯飞(上海)科技有限公司 语音翻译方法、装置、设备及可读存储介质

Similar Documents

Publication Publication Date Title
CN108159702B (zh) 基于多人语音游戏处理方法和装置
KR20190039079A (ko) 대화 시스템 및 그것을 위한 컴퓨터 프로그램
CN111241357A (zh) 对话训练方法、装置、系统及存储介质
WO2008084476A2 (en) Vowel recognition system and method in speech to text applications
CN110704590B (zh) 扩充训练样本的方法和装置
CN111986675A (zh) 语音对话方法、设备及计算机可读存储介质
CN110704618B (zh) 确定对话数据对应的标准问题的方法及装置
CN109003600B (zh) 消息处理方法及装置
CN113345473A (zh) 语音端点检测方法、装置、电子设备和存储介质
CN111883137A (zh) 基于语音识别的文本处理方法及装置
CN115171731A (zh) 一种情绪类别确定方法、装置、设备及可读存储介质
CN116821290A (zh) 面向多任务对话的大语言模型训练方法和交互方法
CN110706710A (zh) 一种语音识别方法、装置、电子设备及存储介质
CN113643684B (zh) 语音合成方法、装置、电子设备及存储介质
CN107886940B (zh) 语音翻译处理方法及装置
CN112614510B (zh) 一种音频质量评估方法及装置
CN114283820A (zh) 多角色语音的交互方法、电子设备和存储介质
CN114125506B (zh) 语音审核方法及装置
KR20090076318A (ko) 실시간 대화 서비스 시스템 및 그 방법
KR20210123545A (ko) 사용자 피드백 기반 대화 서비스 제공 방법 및 장치
CN116403583A (zh) 语音数据处理方法和装置、非易失性存储介质及车辆
CN117012177A (zh) 语音合成方法、电子设备和存储介质
CN116416969A (zh) 一种基于大数据的多语言实时翻译方法、系统和介质
CN116386604A (zh) 基于用户情绪状态的自适应外呼对话策略配置方法及装置
CN111128127A (zh) 一种语音识别处理方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination