CN111985252B - 对话翻译方法及装置、存储介质和电子设备 - Google Patents
对话翻译方法及装置、存储介质和电子设备 Download PDFInfo
- Publication number
- CN111985252B CN111985252B CN202010849563.3A CN202010849563A CN111985252B CN 111985252 B CN111985252 B CN 111985252B CN 202010849563 A CN202010849563 A CN 202010849563A CN 111985252 B CN111985252 B CN 111985252B
- Authority
- CN
- China
- Prior art keywords
- wearable device
- voice
- translation
- data
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013519 translation Methods 0.000 title claims abstract description 336
- 238000000034 method Methods 0.000 title claims abstract description 68
- 238000004891 communication Methods 0.000 claims abstract description 88
- 230000004044 response Effects 0.000 claims description 51
- 238000012360 testing method Methods 0.000 claims description 30
- 238000004590 computer program Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 24
- 230000001976 improved effect Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 15
- 230000002452 interceptive effect Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000007726 management method Methods 0.000 description 8
- 230000003993 interaction Effects 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000010295 mobile communication Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002035 prolonged effect Effects 0.000 description 3
- 239000004984 smart glass Substances 0.000 description 3
- 230000008093 supporting effect Effects 0.000 description 3
- 230000006978 adaptation Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000835 fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Telephone Function (AREA)
Abstract
本公开提供一种对话翻译方法及装置、存储介质和电子设备,涉及计算机技术领域。该方法包括:在检测到移动终端与第一可穿戴设备通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式;响应于第一语音采集方式,采集当前场景中的语音数据,并获取语音数据对应的翻译数据,以将翻译数据发送到第一可穿戴设备;响应于第二语音采集方式,接收与移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取语音数据对应的翻译数据,以将翻译数据发送到第一可穿戴设备。本公开能够使用户能够根据当前对话场景更加灵活地选择对话翻译的模式,在降低相关设备的功耗的同时,提高对话翻译的效率以及准确率。
Description
技术领域
本公开涉及计算机技术领域,具体涉及一种对话翻译方法、对话翻译装置、计算机可读存储介质和电子设备。
背景技术
伴随着互联网技术的飞速发展,国际间的交流越来越频繁。在相关对话场景中使用的语言类型较多时,人们经常通过翻译工具辅助对话。
目前,相关技术方案中,人们通过各自佩戴的智能可穿戴设备进行对话翻译,但是在长时间的对话翻译场景中,智能可穿戴设备的功耗较大,难以持续工作,并且智能可穿戴设备之间在嘈杂的环境中识别语音时,可能导致识别准确率较低,适用范围较小。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本公开的目的在于提供一种对话翻译方法、对话翻译装置、计算机可读存储介质和电子设备,进而至少在一定程度上克服相关对话场景下,通过可穿戴设备翻译对话时耗电量较高、翻译准确率较低、适用范围小的问题。
根据本公开的第一方面,提供一种对话翻译方法,应用于移动终端,包括:
在检测到所述移动终端与第一可穿戴设备之间建立通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式;
响应于所述第一语音采集方式,采集当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备;
响应于所述第二语音采集方式,接收与所述移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
根据本公开的第二方面,提供一种对话翻译方法,应用于第一可穿戴设备,包括:
在与移动终端的通信连接后,接收所述移动终端发送的控制指令;
在所述控制指令触发第一语音采集方式时,接收所述移动终端采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据;
在所述控制指令触发第二语音采集方式时,接收所述移动终端根据与所述移动终端通信连接的第二可穿戴设备采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据。
根据本公开的第三方面,提供一种对话翻译装置,包括:
通信连接响应模块,用于在检测到所述移动终端与第一可穿戴设备之间建立通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式;
第一语音采集方式响应模块,用于响应于所述第一语音采集方式,采集当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备;
第二语音采集方式响应模块,用于响应于所述第二语音采集方式,接收与所述移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
根据本公开的第四方面,提供一种对话翻译装置,包括:
通信连接建立模块,用于在与移动终端的通信连接后,接收所述移动终端发送的控制指令;
第一语音采集方式触发模块,用于在所述控制指令触发第一语音采集方式时,接收所述移动终端采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据;
第二语音采集方式触发模块,用于在所述控制指令触发第二语音采集方式时,接收所述移动终端根据与所述移动终端通信连接的第二可穿戴设备采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据。
根据本公开的第五方面,提供一种计算机可读介质,其上存储有计算机程序,计算机程序被处理器执行时实现第一方面或者第二方面的方法。
根据本公开的第六方面,提供一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行时,使得一个或多个处理器实现第一方面或者第二方面的方法。
本公开的一种实施例所提供的对话翻译方法,在检测到移动终端与第一可穿戴设备之间建立通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式;响应于第一语音采集方式,采集当前场景中的语音数据,并获取语音数据对应的翻译数据,以将翻译数据发送到第一可穿戴设备;响应于第二语音采集方式,接收与移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取语音数据对应的翻译数据,以将翻译数据发送到第一可穿戴设备。一方面,移动终端或者用户可以结合当前的对话场景生成控制指令,并基于控制指令控制启动第一语音采集方式或第二语音采集方式,能够灵活地根据当前对话场景选择合适的语音采集方式,提升翻译的适用范围;另一方面,在通信连接时,通过不同的语音采集方式使移动终端以及可穿戴设备协作进行对话翻译,灵活地根据移动终端或者可穿戴设备的当前功耗情况进行分配切换,有效降低移动终端或者可穿戴设备的功耗,延长对话翻译的工作时间;再一方面,结合当前的对话场景生成控制指令,并基于控制指令控制启动第一语音采集方式或第二语音采集方式,能够在不同的对话场景中灵活切换到当前对话场景最合适的语音采集方式,保证语音采集的识别准确度,避免采集过多噪音,提升翻译的效率以及准确度,提升用户体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。在附图中:
图1示出了可以应用本公开实施例的一种示例性系统架构的示意图;
图2示出了可以应用本公开实施例的一种电子设备的示意图;
图3示意性示出本公开实施例的一种对话翻译方法的流程图;
图4示意性示出本公开实施例的一种基于第一识别语言获取语音数据的流程图;
图5示意性示出本公开实施例的一种基于第二识别语言获取语音数据的流程图;
图6示意性示出本公开实施例的一种基于翻译语言对语音数据进行翻译的流程图;
图7示意性示出本公开实施例的一种基于语音识别距离采集语音数据的流程图;
图8示意性示出本公开实施例的一种通过信噪比数据确定语音数据的传播距离的流程图;
图9示意性示出本公开实施例的一种提高语音数据准确率的流程图;
图10示意性示出本公开实施例的一种提供语音采集方式选项的交互界面示意图;
图11示意性示出本公开实施例的一种触发第一语音采集方式的应用场景示意图;
图12示意性示出本公开实施例的一种触发第一语音采集方式的数据流程图;
图13示意性示出本公开实施例的一种触发第二语音采集方式的应用场景示意图;
图14示意性示出本公开实施例的一种触发第二语音采集方式的数据流程图;
图15示意性示出本公开实施例的另一种对话翻译方法的流程图;
图16示意性示出本公开实施例的一种对话翻译装置的结构示意图;
图17示意性示出本公开实施例的另一种对话翻译装置的结构示意图。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
此外,附图仅为本公开的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
图1示出了可以应用本公开实施例的一种对话翻译方法及装置的示例性应用环境的系统架构的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一个或多个,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。终端设备101、102、103可以是各种具有图像处理功能的电子设备,包括但不限于台式计算机、便携式计算机、智能手机和平板电脑等等。应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
本公开实施例所提供的对话翻译方法一般由终端设备101、102、103中执行,相应地,对话翻译装置一般设置于终端设备101、102、103中。但本领域技术人员容易理解的是,本公开实施例所提供的对话翻译方法也可以由服务器105执行,相应的,对话翻译装置也可以设置于服务器105中,本示例性实施例中对此不做特殊限定。
本公开的示例性实施方式提供一种用于实现对话翻译方法的电子设备,其可以是图1中的终端设备101、102、103或服务器105。该电子设备至少包括处理器和存储器,存储器用于存储处理器的可执行指令,处理器配置为经由执行可执行指令来执行对话翻译方法。
下面以图2中的移动终端200为例,对电子设备的构造进行示例性说明。本领域技术人员应当理解,除了特别用于移动目的的部件之外,图2中的构造也能够应用于固定类型的设备。在另一些实施方式中,移动终端200可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件、软件或软件和硬件的组合实现。各部件间的接口连接关系只是示意性示出,并不构成对移动终端200的结构限定。在另一些实施方式中,移动终端200也可以采用与图2不同的接口连接方式,或多种接口连接方式的组合。
如图2所示,移动终端200具体可以包括:处理器210、内部存储器221、外部存储器接口222、通用串行总线(Universal Serial Bus,USB)接口230、充电管理模块240、电源管理模块241、电池242、天线1、天线2、移动通信模块250、无线通信模块260、音频模块270、扬声器271、受话器272、麦克风273、耳机接口274、传感器模块280、显示屏290、摄像模组291、指示器292、马达293、按键294以及用户标识模块(subscriber identification module,SIM)卡接口295等。其中传感器模块280可以包括深度传感器2801、压力传感器2802、陀螺仪传感器2803等。
处理器210可以包括一个或多个处理单元,例如:处理器210可以包括应用处理器(Application Processor,AP)、调制解调处理器、图形处理器(Graphics ProcessingUnit,GPU)、图像信号处理器(Image Signal Processor,ISP)、控制器、视频编解码器、数字信号处理器(Digital Signal Processor,DSP)、基带处理器和/或神经网络处理器(Neural-Network Processing Unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
NPU为神经网络(Neural-Network,NN)计算处理器,通过借鉴生物神经网络结构,例如借鉴人脑神经元之间传递模式,对输入信息快速处理,还可以不断的自学习。通过NPU可以实现移动终端200的智能认知等应用,例如:图像识别,人脸识别,语音识别,文本理解等。
处理器210中设置有存储器。存储器可以存储用于实现六个模块化功能的指令:检测指令、连接指令、信息管理指令、分析指令、数据传输指令和通知指令,并由处理器210来控制执行。
充电管理模块240用于从充电器接收充电输入。电源管理模块241用于连接电池242、充电管理模块240与处理器210。电源管理模块241接收电池242和/或充电管理模块240的输入,为处理器210、内部存储器221、显示屏290、摄像模组291和无线通信模块260等供电。
移动终端200的无线通信功能可以通过天线1、天线2、移动通信模块250、无线通信模块260、调制解调处理器以及基带处理器等实现。其中,天线1和天线2用于发射和接收电磁波信号;移动通信模块250可以提供应用在移动终端200上的包括2G/3G/4G/5G等无线通信的解决方案;调制解调处理器可以包括调制器和解调器;无线通信模块260可以提供应用在移动终端200上的包括无线局域网(Wireless Local Area Networks,WLAN)(如无线保真(Wireless Fidelity,Wi-Fi)网络)、蓝牙(Bluetooth,BT)等无线通信的解决方案。在一些实施例中,移动终端200的天线1和移动通信模块250耦合,天线2和无线通信模块260耦合,使得移动终端200可以通过无线通信技术与网络以及其他设备通信。
移动终端200通过GPU、显示屏290及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏290和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器210可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
移动终端200可以通过ISP、摄像模组291、视频编解码器、GPU、显示屏290及应用处理器等实现拍摄功能。其中,ISP用于处理摄像模组291反馈的数据;摄像模组291用于捕获静态图像或视频;数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号;视频编解码器用于对数字视频压缩或解压缩,移动终端200还可以支持一种或多种视频编解码器。
外部存储器接口222可以用于连接外部存储卡,例如Micro SD卡,实现扩展移动终端200的存储能力。外部存储卡通过外部存储器接口222与处理器210通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器221可以用于存储计算机可执行程序代码,可执行程序代码包括指令。内部存储器221可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储移动终端200使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器221可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(Universal Flash Storage,UFS)等。处理器210通过运行存储在内部存储器221的指令和/或存储在设置于处理器中的存储器的指令,执行移动终端200的各种功能应用以及数据处理。
移动终端200可以通过音频模块270、扬声器271、受话器272、麦克风273、耳机接口274及应用处理器等实现音频功能。例如音乐播放、录音等。
深度传感器2801用于获取景物的深度信息。在一些实施例中,深度传感器可以设置于摄像模组291。
压力传感器2802用于感受压力信号,可以将压力信号转换成电信号。在一些实施例中,压力传感器2802可以设置于显示屏290。压力传感器2802的种类很多,如电阻式压力传感器,电感式压力传感器,电容式压力传感器等。
陀螺仪传感器2803可以用于确定移动终端200的运动姿态。在一些实施方式中,可以通过陀螺仪传感器2803确定移动终端200围绕三个轴(即,x,y和z轴)的角速度。陀螺仪传感器2803可以用于拍摄防抖、导航、体感游戏场景等。
此外,还可以根据实际需要在传感器模块280中设置其他功能的传感器,例如气压传感器、磁传感器、加速度传感器、距离传感器、接近光传感器、指纹传感器、温度传感器、触摸传感器、环境光传感器、骨传导传感器等。
移动终端200中还可包括其它提供辅助功能的设备。例如,按键294包括开机键,音量键等,用户可以通过按键输入,产生与移动终端200的用户设置以及功能控制有关的键信号输入。再如,指示器292、马达293、SIM卡接口295等。
以下对本公开实施例的技术方案进行详细阐述:
发明人发现,相关的技术方案中,通过智能可穿戴设备上的麦克风获取对话方的语音数据,并将语音数据的翻译结果显示在智能可穿戴设备上,但是由于两个人或者多个人在对话时,每个人对应的智能可穿戴设备的距离一般都比较远,当周围环境比较嘈杂时,语音翻译的准确度会下降;同时,由于智能可穿戴设备的便携性,导致电池容量较小,如果语音采集过程以及翻译过程均在智能可穿戴设备的话,会导致智能可穿戴设备的功耗较高,无法进行较长时间的对话翻译,降低用户的使用体验。
基于上述一个或多个问题,本示例实施方式首先提供了一种对话翻译方法。该对话翻译方法可以应用于上述终端设备101、102、103中的一个或多个,也可以应用于上述服务器105,本示例性实施例中对此不做特殊限定,下面以移动终端执行该方法为例进行说明。
参考图3所示,该对话翻译方法可以包括以下步骤S310至步骤S330:
步骤S310、在检测到所述移动终端与第一可穿戴设备之间建立通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式;
步骤S320、响应于所述第一语音采集方式,采集当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备;
步骤S330、响应于所述第二语音采集方式,接收与所述移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
在本示例实施方式所提供的对话翻译方法中,一方面,移动终端或者用户可以结合当前的对话场景生成控制指令,并基于控制指令控制启动第一语音采集方式或第二语音采集方式,能够灵活地根据当前对话场景选择合适的语音采集方式,提升翻译的适用范围;另一方面,在通信连接时,通过不同的语音采集方式使移动终端以及可穿戴设备协作进行对话翻译,灵活地根据移动终端或者可穿戴设备的当前功耗情况进行分配切换,有效降低移动终端或者可穿戴设备的功耗,延长对话翻译的工作时间;再一方面,结合当前的对话场景生成控制指令,并基于控制指令控制启动第一语音采集方式或第二语音采集方式,能够在不同的对话场景中灵活切换到当前对话场景最合适的语音采集方式,保证语音采集的识别准确度,避免采集过多噪音,提升翻译的效率以及准确度,提升用户体验。
下面,对于本示例实施方式的上述步骤进行更加详细的说明。
在步骤S310中,在检测到所述移动终端与第一可穿戴设备之间建立通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式。
在一示例性实施例中,移动终端可以是指具有强续航能力且能够与云端服务器进行网络通信的终端设备,例如,移动终端可以是支持语音翻译功能的智能手机,也可以是支持语音翻译功能且可便携移动的口袋翻译机,当然,还可以是其他具有强续航能力且能够与云端服务器进行网络通信的终端设备,本示例实施例对此不做特殊限定。
第一可穿戴设备可以是指支持对话翻译功能且能够与移动终端通信连接、具有可穿戴性的终端设备,例如,第一可穿戴设备可以是支持对话翻译功能(如采集语音、显示或播放翻译数据、或者与云端服务器进行网络通信等功能)的智能眼镜,也可以是支持对话翻译功能的智能手环,当然,还可以是其他支持对话翻译功能且能够与移动终端通信连接、具有可穿戴性的终端设备,本示例实施例对此不做特殊限定。第一可穿戴设备具体可以是指对话场景中用于展示翻译数据的可穿戴设备,第二可穿戴设备具体可以是指对话场景中用于采集语音数据的可穿戴设备。
通信连接可以是连接移动终端与第一可穿戴设备并进行数据传输的通信方式,例如,通信连接可以是蓝牙通信连接,也可以是WiFi通信连接,还可以是基于2G/3G/4G/5G移动网络的通信连接,当然还可以是其他能够实现连接移动终端与第一可穿戴设备并进行数据传输的通信方式,例如,通信连接还可以是通过支持Micro-USB、Type-C、雷电3(Thunderbolt 3)等接口协议进行有线连接的通信方式,本示例实施例对此不做特殊限定。
在移动终端与第一可穿戴设备建立通信连接时,可以在移动终端提供具有第一语音采集方式以及第二语音采集方式的交互对话框以供用户通过提供的交互控件进行选择,在接收到用户的选择之后生成控制指令,用于控制移动终端与第一可穿戴设备执行第一语音采集方式或者第二语音采集方式,也可以是移动终端根据当前场景中的语音数据或者噪音数据,自动生成控制指令,并根据控制指令控制移动终端与第一可穿戴设备执行第一语音采集方式或者第二语音采集方式,当然,还可以是其他能够与用户进行交互的方式,例如,还可以是用户通过移动终端中唤醒的语音助手选择第一语音采集方式或者第二语音采集方式生成控制指令,并根据控制指令控制移动终端与第一可穿戴设备执行第一语音采集方式或者第二语音采集方式,本示例实施例不以此为限。
在步骤S320中,响应于所述第一语音采集方式,采集当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
在一示例性实施例中,第一语音采集方式可以是指通过移动终端采集当前场景中的语音数据,并通过与移动终端通信连接的第一可穿戴设备显示移动终端发送翻译数据的语音采集方式。
在选择第一语音采集方式之后,向移动终端以及第一可穿戴设备发送第一语音采集方式对应的控制指令,控制移动终端启动语音采集单元并时刻监听当前环境中符合要求的语音数据,然后控制第一可穿戴设备关闭语音采集单元。
在步骤S330中,响应于所述第二语音采集方式,接收与所述移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
在一示例性实施例中,第二语音采集方式可以是指通过与移动终端通信连接的第二可穿戴设备采集当前场景中的语音数据,并通过移动终端翻译语音数据,进而通过移动终端将翻译数据发送给第一可穿戴设备显示翻译数据的语音采集方式。
在选择第二语音采集方式之后,向移动终端以及第一可穿戴设备、第二可穿戴设备发送第二语音采集方式对应的指令,控制移动终端关闭语音采集单元,控制第一可穿戴设备和第二可穿戴设备启动语音采集单元并时刻监听当前环境中符合要求的语音数据,然后在对应的第一可穿戴设备或者第二可穿戴设备显示翻译数据。
容易理解的是,在本示例实施例中,也可以在响应于第二语音采集方式之后,接收与移动终端通信连接的第一可穿戴设备采集的当前场景中的语音数据,并获取语音数据对应的翻译数据,以将翻译数据发送到第二可穿戴设备进行展示。即,在实际的对话翻译场景中,第一可穿戴设备和第二可穿戴设备可以分别作为采集语音数据的一侧或者展示翻译语言的一侧,当然,第一可穿戴设备或者第二可穿戴设备还可以是在采集佩戴方的语音数据时,同时也在展示说话方的翻译数据,两个过程是同时进行的,本示例实施例对此不做特殊限定。
在一示例性实施例中,在触发第一语音采集方式,采集当前场景中的语音数据时,可以通过图4中的步骤提高采集的语音数据的准确性:
参考图4所示,步骤S410,响应于所述第一语音采集方式,提供与所述移动终端对应的识别语言选项;
步骤S420,响应于选择所述识别语言选项中的第一识别语言,采集当前场景中属于所述第一识别语言的语音数据。
其中,识别语言选项可以是指在移动终端提供的、用于确定移动终端需要识别的当前场景中语音数据对应语言类型的选项,例如,识别语言选项可以提供世界上存在的全部语言类型,假设当前对话场景包含的对话语言有英语、日语、汉语,则用户可以通过识别语言选项选择英语、日语、汉语对应的识别语言,在移动终端识别当前场景中的语音数据时,会仅识别当前场景中英语、日语、汉语对应的语言类型的语音数据,而将对话场景中可能存在其他语言类型的语音数据过滤掉,保证当前对话场景中采集的语音数据的准确性。
识别语言选项可以通过多种交互方式进行提供,例如,响应于触发第一语音采集方式,可以通过自动弹出的交互对话框,并在交互对话框中提供多种语言类型的识别语言选型,用户可以在识别语言选型中勾选移动终端需要识别的语言类型,也可以通过唤醒的语言助手提示用户通过语言输入的方式选择识别语言,当然,还可以是其他提供识别语言选项的交互方式,本示例实施例对此不做特殊限定。
第一识别语言可以是指在识别语言选项中选择的、用于确定移动终端需要识别语音数据对应的语言类型,例如,假设当前对话场景包含的对话语言类型有英语、日语、汉语,则通过识别语言选项选择英语、日语、汉语对应的选项,则移动终端仅识别当前对话场景中属于英语、日语、汉语的语言类型的语音数据,此时,第一识别语言就是英语、日语、汉语。当然,此处仅是示意性举例说明,本示例实施例不以此为限。
在一示例性实施例中,在触发第二语音采集方式,采集当前场景中的语音数据时,可以通过图5中的步骤提高采集的语音数据的准确性:
参考图5所示,步骤S510,响应于所述第二语音采集方式,提供与所述第二可穿戴设备对应的识别语言选项;
步骤S520,响应于选择所述识别语言选项中的第二识别语言,接收所述第二可穿戴设备采集的当前场景中属于所述第二识别语言的语音数据。
其中,识别语言选项可以是指在移动终端提供的、用于确定第二可穿戴设备需要识别的当前场景中语音数据对应语言类型的选项,例如,识别语言选项可以提供世界上存在的全部语言类型,假设当前对话场景包含的对话语言有英语、日语、汉语,则用户可以通过移动终端提供的识别语言选项选择英语、日语、汉语对应的识别语言,并在第二可穿戴设备识别当前场景中的语音数据时,会仅采集当前场景中属于英语、日语、汉语对应的语言类型的语音数据,而将对话场景中可能存在其他语言类型的语音数据过滤掉,保证当前对话场景中采集的语音数据的准确性。
第二可穿戴设备可以是指支持对话翻译功能且能够与移动终端通信连接、具有可穿戴性的终端设备,例如,第二可穿戴设备可以是支持对话翻译功能(如采集语音、显示或播放翻译数据、或者与云端服务器进行网络通信等功能)的智能眼镜,也可以是支持对话翻译功能的智能手环,当然,还可以是其他支持对话翻译功能且能够与移动终端通信连接、具有可穿戴性的终端设备,本示例实施例对此不做特殊限定。第二可穿戴设备可以通过与第一可穿戴设备通信连接的移动终端进行通信连接,以实现第二可穿戴设备与第一可穿戴设备之间的对话翻译,提高翻译准确度。第二可穿戴设备具体可以是指对话场景中用于采集语音数据的可穿戴设备。
第二识别语言可以是指在识别语言选项中选择的、用于确定第二可穿戴设备需要识别语音数据对应的语言类型,例如,假设当前对话场景包含的对话语言类型有英语、日语、汉语,则通过识别语言选项选择英语、日语、汉语对应的选项,则第二可穿戴设备仅识别当前对话场景中属于英语、日语、汉语的语言类型的语音数据,此时,第一识别语言就是英语、日语、汉语。当然,此处仅是示意性举例说明,本示例实施例不以此为限。
进一步的,可以图6中的步骤确保第一可穿戴设备上显示的翻译数据的语言类型:
参考图6所示,步骤S610,响应于所述第一语音采集方式,提供与所述第一可穿戴设备对应的翻译语言选项;
步骤S610,响应于选择所述翻译语言选项中的第一翻译语言,获取对所述第一识别语言的语音数据进行识别后生成的所述第一翻译语言对应的翻译数据,并将所述翻译数据发送到所述第一可穿戴设备。
其中,翻译语言选项可以是指在移动终端提供的、用于确定第一可穿戴设备上需要展示的翻译数据对应语言类型的选项,例如,第一可穿戴设备的用户使用的是汉语,则通过翻译语言选项选择第一可穿戴设备的翻译数据展示的语言类型为汉语,则移动终端将采集的英语、日语等语言类型对应的语言数据翻译为汉语语言类型对应的翻译数据,并在第一可穿戴设备进行显示。
同样的,翻译语言选项可以通过多种交互方式进行提供,例如,在选择了移动终端或者第二可穿戴设备对应的识别语言之后,可以通过自动弹出的交互对话框,并在交互对话框中提供多种语言类型的翻译语言选项,用户可以在翻译语言选项中勾选第一可穿戴设备需要展示翻译数据对应的语言类型,也可以通过唤醒的语言助手提示用户通过语言输入的方式选择翻译语言,当然,还可以是其他提供翻译语言选项的交互方式,本示例实施例对此不做特殊限定。
第一翻译语言可以是指在第一语音采集方式下,从翻译语言选项中选择的、用于确定第一可穿戴设备需要展示翻译数据对应的语言类型,例如,假设当前对话场景包含的对话语言类型有英语、日语、汉语,则通过翻译语言选项选择汉语对应的选项,则移动终端将接收到的属于英语、日语的语言类型的语音数据转化为汉语语言类型对应的翻译数据,此时,第一翻译语言就是汉语。当然,此处仅是示意性举例说明,本示例实施例不以此为限。
在一示例性实施例中,可以响应于第二语音采集方式,提供与第一可穿戴设备对应的翻译语言选项,响应于选择翻译语言选项中的第二翻译语言,获取对第二识别语言的语音数据进行识别后生成的第二翻译语言对应的翻译数据,并将翻译数据发送到第一可穿戴设备。
其中,第二翻译语言可以是指在第二语音采集方式下,从翻译语言选项中选择的、用于确定第一可穿戴设备需要展示翻译数据对应的语言类型,例如,假设当前对话场景包含的对话语言类型有英语、日语、汉语,则通过翻译语言选项选择汉语对应的选项,则移动终端将接收到的属于英语、日语的语言类型的语音数据转化为汉语语言类型对应的翻译数据,此时,第二翻译语言就是汉语。当然,此处仅是示意性举例说明,本示例实施例不以此为限。
具体的,也可以通过移动终端生成的控制指令确定第一识别语言、第二识别语言或者第一翻译语言,控制指令可以是用户通过选择移动终端提供的选项生成的,也可以是移动终端根据当前环境中一定范围内的语音数据自动生成的,当然,还可以是以其他方式在移动终端生成的用于选择第一识别语言、第二识别语言或者第一翻译语言的控制指令,本示例实施例对此不做特殊限定。
在一示例性实施例中,还可以通过翻译语言选项选择第二可穿戴设备对应的第二翻译语言。通过第一可穿戴设备识别当前场景中第一识别语言或者第二识别语言的语音数据,移动终端在接收到第一可穿戴设备采集的语言数据时,获取语音数据对应的第二翻译语言的翻译数据,并将该翻译数据发送给第二可穿戴设备进行展示,本示例实施对此不作特殊限定。
具体的,还可以通过以下步骤实现识别语言或者翻译语言的选择:
响应于所述第一语音采集方式或者所述第二语音采集方式,采集或者接收当前场景中的第一测试语音数据;
根据所述第一测试语音数据确定所述第一识别语言或者所述第二识别语言;以及
接收所述第一可穿戴设备采集的当前场景中的第二测试语音数据,并根据所述第二测试语音数据确定所述第一翻译语言或者所述第二翻译语言。
其中,第一测试语音数据可以是指当前场景中参与对话的用户发出的、用于确定识别语言的非对话数据,第二测试语音数据可以是指当前场景中参与对话的用户发出的、用于确定翻译语言的非对话数据,例如,在响应于第一语音采集方式之后,移动终端可以通过唤醒的语音助手语音提示用户发出的第一测试语音数据,然后采集当前场景中的第一测试语音数据,并通过分析测试语言类型确定移动终端需要在当前对话场景中采集的语音数据对应的第一识别语言,以及在需要展示翻译数据的第一可穿戴设备或者第二可穿戴设备,通过唤醒的语音助手提示用户发出第二测试语音数据,然后采集当前场景中的第二测试语音数据,并将该第二测试语音数据发送给移动终端,以使移动终端通过分析第二测试语音数据快速确定第一可穿戴设备或者第二可穿戴设备,需要在当前对话场景中展示的翻译数据对应的第一翻译语言;或者,在响应于第二语音采集方式之后,第二可穿戴设备可以通过唤醒的语音助手语音提示用户发出第一测试语音数据,然后采集当前场景中的第一测试语音数据,并将该第一测试语音发送给移动终端,以使移动终端通过分析第一测试语音数据快速确定第二可穿戴设备需要在当前对话场景中采集的语音数据对应的第二识别语言,以及在需要展示翻译数据的第一可穿戴设备或者第二可穿戴设备,通过唤醒的语音助手提示用户发出第二测试语音数据,然后采集当前场景中的第二测试语音数据,并将该第二测试语音数据发送给移动终端,以使移动终端通过分析第二测试语音数据快速确定第一可穿戴设备或者第二可穿戴设备,需要在当前对话场景中展示的翻译数据对应的第二翻译语言。
进一步的,移动终端可以获取发送测试语音数据的第一可穿戴设备或者第二可穿戴设备的标识信息,并基于该标识信息记录第一可穿戴设备或者第二可穿戴设备对应的第一翻译语言、第二翻译数据或者第二识别语言。当然,在需要识别语言或者翻译语言对应的语言类型较少时,可以直接将识别的语音数据转换为不同翻译语言对应的多版本翻译数据,直接将多版本翻译数据发送到需要显示的第一可穿戴设备,本示例实施例对此不作特殊限定。
在一示例性实施例中,,可以通过图7中的步骤进一步保证实时对话翻译的准确度:
参考图7所示,步骤S710,提供与所述移动终端或者所述第二可穿戴设备对应的语音识别距离选项;
步骤S720,响应于在所述语音识别距离选项中选择目标语音识别距离,基于所述目标语音识别距离采集当前场景中的语音数据,或者向所述第二可穿戴设备发送所述目标语音识别距离以使所述第二可穿戴设备基于所述目标语音识别距离采集当前场景中的语音数据。
其中,语音识别距离选项可以是指提供给用户,以便于精确采集当前对话场景中一定范围内的语音数据的选项,例如,响应于第一语音采集方式,即通过移动终端采集当前场景中的语音数据,并将语音数据的翻译数据发送给第一可穿戴设备进行展示,此时,移动终端距离对话场景中的每个说话方的距离一般在3米内,因此,选择语音识别距离选项中的3米对应的选项,即3米为移动终端的目标语音识别距离,移动终端在采集当前场景中的语音数据时,会采集语音传播距离在3米以内的语音数据,而不采集语音传播距离在3米以外的语音数据;同样的,响应于第二语音采集方式,即通过第二可穿戴设备采集当前场景中的语音数据,并通过移动终端将语音数据的翻译数据发送给第一可穿戴设备进行展示,此时,说话方对应的第一可穿戴设备距离自身的发声点(如嘴巴)一般在1米内,因此,选择语音识别距离选项中的1米对应的选项,即1米为第二可穿戴设备的目标语音识别距离,第二可穿戴设备在采集当前场景中的语音数据时,会采集语音传播距离在1米以内的语音数据,而不采集语音传播距离在1米以外的语音数据。当然,此处仅是示意性举例说明,本示例实施例对此不做特殊限定。
在本示例实施例中,由于第一可穿戴设备具体可以是指对话场景中用于展示翻译数据的可穿戴设备,第二可穿戴设备具体可以是指对话场景中用于采集语音数据的可穿戴设备。因此,在设置语音识别距离时,可以提供需要采集语音数据的一侧,即移动终端(在第一语音采集方式下)或者第二可穿戴设备(在第二语音采集方式下)的语音识别距离选项,以使移动终端或者第二可穿戴设备根据选择的目标语音识别距离采集一定范围内的语音数据,提高语音数据的准确性。
容易理解的是,在实际的应用过程中,由于第一可穿戴设备、第二可穿戴设备或者移动终端在同一个对话翻译场景下,因此第一可穿戴设备和第二可穿戴设备、或者移动终端均需要采集语音数据,因此,在移动终端提供的是第一可穿戴设备和第二可穿戴设备(在第二语音采集方式下),或者移动终端(在第一语音采集方式下)对应的语音识别距离。本示例实施例中对此不做特殊限定。
具体的,可以通过图8中的步骤基于目标语音识别距离采集语音数据:
参考图8所示,步骤S810,计算所述语音数据对应的信噪比,并基于所述信噪比确定所述语音数据的传播距离;
步骤S820,采集所述当前场景中所述传播距离小于所述目标语音识别距离的语音数据。
其中,信噪比(Signal-to-Noise Ratio,SNR)是指一个电子设备或者电子系统中信号与噪声的比例。这里面的信号指的是来自设备外部需要通过这台设备进行处理的电子信号,噪声是指经过该设备后产生的原信号中并不存在的无规则的额外信号(或信息),并且该种信号并不随原信号的变化而变化。
传播距离可以是指声源与移动终端或者第一可穿戴设备之间的距离,距离越近,信噪比越高,采集到的语音数据越清晰(噪音越少),距离越远,信噪比越低,采集到的语音数据越模糊(噪音越多)。可以预先根据不同距离的语音数据,测量不同距离对应的信噪比,进而可以根据信噪比反推计算语音数据的传播距离。
可以通过采集当前场景中传播距离小于目标语音识别距离的语音数据,能够够有效过滤当前对话场景中可能存在的噪声干扰,有效保证采集的语音数据的准确度,提升翻译数据的准确度,同时由于减少了噪声干扰,提升语音数据的翻译效率,提升用户的使用体验。
优选的,可以通过以下步骤进一步保证对话翻译的效率:
提供所述第一可穿戴设备或者所述第二可穿戴设备的标识信息;
响应于对所述标识信息的选择操作,确定用于采集所述语音数据的第二可穿戴设备或者用于接收所述翻译数据的第一可穿戴设备。
其中,标识信息可以是指第一可穿戴设备或者第二可穿戴设备对应的唯一标识,例如,标识信息可以是第一可穿戴设备或者第二可穿戴设备的终端序列号,也可以是第一可穿戴设备或者第二可穿戴设备对应的IP地址,当然,还可以是其他能够区别或者标识第一可穿戴设备或者第二可穿戴设备的唯一标识,例如,还可以是通信连接的蓝牙地址,本示例实施例对此不做特殊限定。
选择操作可以是指基于标识信息从通信连接的多个第一可穿戴设备或者第二可穿戴设备中选择需要参与对话翻译的操作,例如,选择操作可以是从交互对话框中勾选第一可穿戴设备或者第二可穿戴设备对应标识信息的操作,也可以是通过唤醒的语音助手通过语音输入的方式选择第一可穿戴设备或者第二可穿戴设备对应标识信息的操作,当然,还可以是其他能够选择需要参与对话翻译的第一可穿戴设备或者第二可穿戴设备的操作,本示例实施例对此不做特殊限定。
通过对标识信息的选择操作,确定用于采集语音数据的多个第二可穿戴设备或者用于接收翻译数据的多个第一可穿戴设备,将不参与对话翻译的第二可穿戴设备或者第一可穿戴设备设置为待机状态(例如第二可穿戴设备或者第一可穿戴设备对应的用户为记录员或者听证人员,不需要参与到对话翻译中),进一步保证实时对话翻译的效率,提升用户的使用体验。
优选的,可以通过图9中的步骤进一步提高对话翻译的准确率:
参考图9所示,步骤S910,采集当前场景中的第一语音数据;
步骤S920,接收所述第二可穿戴设备采集的当前场景中的第二语音数据;
步骤S930,基于所述第一语音数据以及所述第二语音数据确定待翻译的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
其中,第一语音数据和第二语音数据可以是指当前对话场景中同一时刻同一说话方发出的语音数据,通过终端设备采集当前对话场景中在该时刻某说话方发出的语音数据生成第一语音数据,通过第二可穿戴设备采集当前对话场景中在同一时刻同一说话方发出的语音数据生成第二语音数据,然后第二可穿戴设备将第二语音数据发送到移动终端,移动终端根据第一语音数据以及第二语音数据确定当前场景中待翻译的语音数据。
通过当前场景中的移动终端以及第二可穿戴设备同时采集同一语音数据生成第一语音数据和第二语音数据,并根据移动终端将第一语音数据和第二语音数据进行整合处理,得到当前场景中待翻译的语音数据,进一步提升采集的语音数据的准确度,保证对话翻译的精确度,提升用户的使用体验。
图10示意性示出本公开实施例的一种提供语音采集方式选项的交互界面示意图。
参考图10所示,在移动终端1001以及第一可穿戴设备1002建立通信连接时,在移动终端1001提供交互对话框1004,其中交互对话框1004提供第一语音采集方式选项1005,以及第二语音采集方式1006,并提示用户“检测到与第一可穿戴设备的通信连接,请选择语音采集方式”。在用户选择第一语音采集方式选项1005时,根据控制指令使移动终端1001以及通信连接的第一可穿戴设备1002执行第一语音采集方式;或者,在用户选择第二语音采集方式选项1006时,根据控制指令使移动终端1001以及通信连接的第一可穿戴设备和第二可穿戴设备1002执行第二语音采集方式。
图11示意性示出本公开实施例的一种触发第一语音采集方式的应用场景示意图。
参考图11所示,在一个周围环境较安静且用户距离都较近(如圆桌会议),或者可穿戴设备的电量较低时的对话场景中,在用户选择第一语音采集方式后,移动终端1001获取对话场景中用户1102的语音数据,具体的,例如,用户A使用英语,用户B使用日语,用户C使用汉语,则在移动终端选择的第一识别语言为英语、日语以及汉语。进而通过移动终端1001识别当前场景中一定范围内属于英语、日语以及汉语的语音数据,并将该语音数据发送到云端翻译服务器进行识别并转换为翻译数据,移动终端1101通过通信连接方式1103将从云端翻译服务器返回的翻译数据发送到第一可穿戴设备1104进行展示。具体的,第一可穿戴设备A对应的翻译语言为用户A使用的英语,第一可穿戴设备B对应的翻译语言为用户B使用的日语,第一可穿戴设备C对应的翻译语言为用户C使用的汉语,在移动终端接收到用户A说的语音数据时,将用户A对应的英语类型的语音数据分别转化为日语类型对应的翻译数据以及汉语类型对应的翻译数据,并分别发送到第一可穿戴设备B以及第一可穿戴设备C进行展示。
图12示意性示出本公开实施例的一种触发第一语音采集方式的数据流程图。
参考图12所示,步骤S1201,在移动终端1201与第一可穿戴设备1202进行通信连接时(如通过蓝牙连接、WIFI连接,对此不作特殊限定),提供第一语音采集方式和第二语音采集方式;
步骤S1202,在用户选择第一语音采集方式时,向第一可穿戴设备1202发送控制指令,以控制第一可穿戴设备1202关闭语音采集单元;
步骤S1203,向移动终端1201发送控制指令,以控制移动终端1201开启语音采集单元,并持续监听当前场景中的语音数据;
步骤S1204,移动终端1201通过开启的语音采集单元获取当前场景中属于第一识别语言的语音数据;
步骤S1205,移动终端1201将采集的语音数据发送给云端翻译服务器1203,同时发送第一可穿戴设备对应的第一翻译语言或者第二翻译语言;
步骤S1206,云端翻译服务器1203基于第一翻译语言或者第二翻译语言对接收到的语音数据进行语音识别,得到该语音数据对应的翻译数据,并将翻译数据返回给移动终端1201;
步骤S1207,移动终端1201将获取的翻译数据发送给第一可穿戴设备1202;
步骤S1208,第一可穿戴设备1202接收移动终端1201发送的翻译数据,并将该翻译数据进行显示或者转化为语音数据进行播放。
图13示意性示出本公开实施例的一种触发第二语音采集方式的应用场景示意图。
参考图13所示,在一个周围环境较嘈杂且用户距离都较远(如室外会议),或者可穿戴设备的电量较充足时的对话场景中,在用户选择第二语音采集方式后,第二可穿戴设备1301获取对话场景中用户A发出的语音数据,具体的,例如,用户A使用英语,用户B使用日语,用户C使用汉语,则第二可穿戴设备1301通过通信连接方式1302接收在移动终端1303设置的第二识别语言,此时第二识别语言可以为英语。进而通过第二可穿戴设备1301识别当前场景中一定范围内属于英语(即用户A)对应的语音数据,第二可穿戴设备1301将该语音数据发送到移动终端以使移动终端1303将语音数据发送到云端翻译服务器进行识别并转换为翻译数据,移动终端1303通过通信连接方式1304将从云端翻译服务器返回的翻译数据发送到第一可穿戴设备1305进行展示。具体的,第一可穿戴设备B对应的翻译语言为用户B使用的日语,第一可穿戴设备C对应的翻译语言为用户C使用的汉语,在移动终端1303接收到第二可穿戴设备1301采集的用户A说的语音数据时,移动终端1303将用户A对应的英语类型的语音数据分别转化为日语类型对应的翻译数据以及汉语类型对应的翻译数据,并分别发送到第一可穿戴设备B以及第一可穿戴设备C进行展示。
图14示意性示出本公开实施例的一种触发第二语音采集方式的数据流程图。
参考图14所示,步骤S1401,在移动终端1401分别与第一可穿戴设备1402以及第二可穿戴设备1403进行通信连接时(如通过蓝牙连接、WIFI连接,对此不作特殊限定),提供第一语音采集方式和第二语音采集方式;
步骤S1402,在用户选择第一语音采集方式时,向第一可穿戴设备1402发送控制指令,以控制第一可穿戴设备1402开启语音采集单元;
步骤S1403,向移动终端1401发送控制指令,以控制移动终端1401关闭语音采集单元;
步骤S1404,向第二可穿戴设备1403发送控制指令,以控制第二可穿戴设备1403开启语音采集单元;
步骤S1405,第二可穿戴设备1403通过开启的语音采集单元采集佩戴第二可穿戴设备1403对应用户所使用的语言类型(即第二识别语言)的语音数据;
步骤S1406,第二可穿戴设备1403将采集的语音数据发送给移动终端1401;
步骤S1407,移动终端1401将第一可穿戴设备对应的第一翻译语言或者第二翻译语言以及第二可穿戴设备1403采集的第二识别语言的语音数据发送给云端服务器1404;
步骤S1408,云端翻译服务器1404基于第一翻译语言或者第二翻译语言对接收到的语音数据进行语音识别,得到该语音数据对应的翻译数据,并将翻译数据返回给移动终端1401;
步骤S1409,移动终端1401基于标识信息将翻译数据发送给第一可穿戴设备1402;
步骤S1410,第一可穿戴设备1402接收移动终端1401发送的翻译数据,并将该翻译数据进行显示或者转化为语音数据进行播放。
综上所述,本示例性实施方式中,一方面,移动终端或者用户可以结合当前的对话场景生成控制指令,并基于控制指令控制启动第一语音采集方式或第二语音采集方式,能够灵活地根据当前对话场景选择合适的语音采集方式,提升翻译的适用范围;另一方面,在通信连接时,通过不同的语音采集方式使移动终端以及可穿戴设备协作进行对话翻译,灵活地根据移动终端或者可穿戴设备的当前功耗情况进行分配切换,有效降低移动终端或者可穿戴设备的功耗,延长对话翻译的工作时间;再一方面,结合当前的对话场景生成控制指令,并基于控制指令控制启动第一语音采集方式或第二语音采集方式,能够在不同的对话场景中灵活切换到当前对话场景最合适的语音采集方式,保证语音采集的识别准确度,避免采集过多噪音,提升翻译的效率以及准确度,提升用户体验。
本示例实施方式,还提供了一种对话翻译方法。该对话翻译方法可以应用于上述的第二可穿戴设备。
参考图15所示,该对话翻译方法可以包括以下步骤S1510至步骤S1530:
步骤S1510,在与移动终端的通信连接后,接收所述移动终端发送的控制指令;
步骤S1520,在所述控制指令触发第一语音采集方式时,接收所述移动终端采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据;
步骤S1530,在所述控制指令触发第二语音采集方式时,接收所述移动终端根据与所述移动终端通信连接的第二可穿戴设备采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据。
其中,在建立与移动终端的通信连接之后,可以接收移动终端发送的控制指令,并根据控制指令获取第一语音采集方式或者第二语音采集方式的工作指令,进而使接收到的控制指令的移动终端和第一可穿戴设备或者第二可穿戴设备协作进行对话翻译的工作。
进一步的,可以通过以下步骤将翻译数据进行展示:将翻译数据进行实时显示;或者通过唤醒的语音助手将所述翻译数据转化为实时翻译语音,并播放所述实时翻译语音。
其中,在接收翻译数据并展示翻译数据之前,用户可以通过在移动终端提供的展示选项选择第一可穿戴设备展示翻译数据的方式,例如展示选项可以包括将翻译数据进行显示,或者将翻译数据以语音的形式进行播放。在用户选择将翻译数据进行显示的选项时,第一可穿戴设备在接收到翻译数据时,将翻译数据显示对应的显示单元(如智能眼镜的显示镜片,或者智能手环的显示屏幕等,本示例实施例对此不做特殊限定)。通过灵活地选择翻译数据展示方式,能够使对话翻译适用更多的对话场景,使用户能够自由选择需要的展示方式,提升用户的使用体验。
在一个示例实施例中,可以通过第一可穿戴设备接收移动终端发送的目标识别语言(第一可穿戴设备对应的识别语言,可以通过交互对话框的交互方式进行选择,也可以通过语音输入的交互方式进行选择,本示例实施例对此不做特殊限定);采集当前场景中属于目标识别语言的语音数据;将语音数据发送给所述移动终端,以使移动终端获取语音数据对应的目标翻译语言的翻译数据,并将翻译数据发送给第二可穿戴设备。
在一个示例实施例中,在第一可穿戴设备断开与移动终端的通信连接后,继续采集当前场景中属于目标识别语言的语音数据;获取语音数据对应的目标翻译语言的翻译数据,并展示翻译数据。
需要注意的是,上述附图仅是根据本公开示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
进一步的,参考图16所示,本示例的实施方式中还提供一种对话翻译装置1600,包括通信连接响应模块1610、第一语音采集方式响应模块1620以及第二语音采集方式响应模块1630。其中:
通信连接响应模块1610用于在检测到所述移动终端与第一可穿戴设备之间建立通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式;
第一语音采集方式响应模块1620用于响应于所述第一语音采集方式,采集当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备;
第二语音采集方式响应模块1630用于响应于所述第二语音采集方式,接收与所述移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
在一示例性实施例中,第一语音采集方式响应模块1620还可以用于:
响应于所述第一语音采集方式,提供与所述移动终端对应的识别语言选项;
响应于选择所述识别语言选项中的第一识别语言,采集当前场景中属于所述第一识别语言的语音数据。
在一示例性实施例中,第二语音采集方式响应模块1630还可以用于:
响应于所述第二语音采集方式,提供与所述第二可穿戴设备对应的识别语言选项;
响应于选择所述识别语言选项中的第二识别语言,接收所述第二可穿戴设备采集的当前场景中属于所述第二识别语言的语音数据。
在一示例性实施例中,对话翻译装置1600还可以包括第一翻译单元,第一翻译单元可以用于:
响应于所述第一语音采集方式,提供与所述第一可穿戴设备对应的翻译语言选项;
响应于选择所述翻译语言选项中的第一翻译语言,获取对所述第一识别语言的所述语音数据进行识别后生成的所述第一翻译语言对应的翻译数据,并将所述翻译数据发送到所述第一可穿戴设备。
在一示例性实施例中,对话翻译装置1600还可以包括第二翻译单元,第二翻译单元可以用于:
响应于所述第二语音采集方式,提供与所述第一可穿戴设备对应的翻译语言选项;
响应于选择所述翻译语言选项中的第二翻译语言,获取对所述第二识别语言的语音数据进行识别后生成的所述第二翻译语言对应的翻译数据,并将所述翻译数据发送到所述第一可穿戴设备。
在一示例性实施例中,对话翻译装置1600还可以包括语言确定单元,语言确定单元可以用于:
响应于所述第一语音采集方式或者所述第二语音采集方式,采集或者接收当前场景中的第一测试语音数据;
根据所述第一测试语音数据确定所述第一识别语言或者所述第二识别语言;以及
接收所述第一可穿戴设备采集的当前场景中的第二测试语音数据,并根据所述第二测试语音数据确定所述第一翻译语言或者所述第二翻译语言。
在一示例性实施例中,对话翻译装置1600还可以包括:
语音识别距离选项提供单元,用于提供与所述移动终端或者所述第二可穿戴设备对应的语音识别距离选项;
语音数据采集单元,用于响应于在所述语音识别距离选项中选择目标语音识别距离,基于所述目标语音识别距离采集当前场景中的语音数据,或者向所述第二可穿戴设备发送所述目标语音识别距离以使所述第二可穿戴设备基于所述目标语音识别距离采集当前场景中的语音数据。
在一示例性实施例中,语音数据采集单元还可以用于:
计算所述语音数据对应的信噪比,并基于所述信噪比确定所述语音数据的传播距离;
采集所述当前场景中所述传播距离小于所述目标语音识别距离的语音数据。
在一示例性实施例中,对话翻译装置1600还可以包括可穿戴设备选择单元,可穿戴设备选择单元可以用于:
提供所述第一可穿戴设备或者所述第二可穿戴设备的标识信息;
响应于对所述标识信息的选择操作,确定用于采集所述语音数据的第二可穿戴设备或者用于接收所述翻译数据的第一可穿戴设备。
在一示例性实施例中,对话翻译装置1600还可以包括语音数据确定单元,语音数据确定单元可以用于:
采集当前场景中的第一语音数据;
接收所述第二可穿戴设备采集的当前场景中的第二语音数据;
基于所述第一语音数据以及所述第二语音数据确定待翻译的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
进一步的,参考图17所示,本示例的实施方式中还提供一种对话翻译装置1700,包括通信连接建立模块1710、第一语音采集方式触发模块1720以及第二语音采集方式触发模块1730。其中:
通信连接建立模块1710用于在与移动终端的通信连接后,接收所述移动终端发送的控制指令;
第一语音采集方式触发模块1720用于在所述控制指令触发第一语音采集方式时,接收所述移动终端采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据;
第二语音采集方式触发模块1730用于在所述控制指令触发第二语音采集方式时,接收所述移动终端根据与所述移动终端通信连接的第二可穿戴设备采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据。
在一示例性实施例中,对话翻译装置1700还可以包括翻译数据展示单元,翻译数据展示单元可以用于:
将所述翻译数据进行实时显示;或者
通过唤醒的语音助手将所述翻译数据转化为实时翻译语音,并播放所述实时翻译语音。
在一示例性实施例中,对话翻译装置1700还可以包括通信连接断开响应单元,通信连接断开响应单元可以用于:
在断开与所述移动终端的通信连接后,采集当前场景中属于目标识别语言的语音数据;
获取所述语音数据对应的目标翻译语言的翻译数据,并展示所述翻译数据。
上述装置中各模块的具体细节在方法部分实施方式中已经详细说明,未披露的细节内容可以参见方法部分的实施方式内容,因而不再赘述。
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
本公开的示例性实施方式还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤,例如可以执行图3至图15中任意一个或多个步骤。
需要说明的是,本公开所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
此外,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其他实施例。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限。
Claims (15)
1.一种对话翻译方法,其特征在于,应用于移动终端,所述方法包括:
在检测到所述移动终端与第一可穿戴设备之间建立通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式;
响应于所述第一语音采集方式,采集当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备;
响应于所述第二语音采集方式,接收与所述移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备;
其中,所述当前场景中包括多个用户,每个用户穿戴有可穿戴设备,在所述可穿戴设备用于在对话场景中展示翻译数据时为所述第一可穿戴设备,在所述可穿戴设备用于在对话场景中采集语音数据时为所述第二可穿戴设备;
所述响应于所述第一语音采集方式,采集当前场景中的语音数据,包括:
响应于所述第一语音采集方式,提供与所述移动终端对应的识别语言选项;
响应于选择所述识别语言选项中的第一识别语言,采集当前场景中属于所述第一识别语言的语音数据;
所述响应于所述第二语音采集方式,接收与所述移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,包括:
响应于所述第二语音采集方式,提供与所述第二可穿戴设备对应的识别语言选项;
响应于选择所述识别语言选项中的第二识别语言,接收所述第二可穿戴设备采集的当前场景中属于所述第二识别语言的语音数据。
2.根据权利要求1所述的方法,其特征在于,所述获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备,包括:
响应于所述第一语音采集方式,提供与所述第一可穿戴设备对应的翻译语言选项;
响应于选择所述翻译语言选项中的第一翻译语言,获取对所述第一识别语言的语音数据进行识别后生成的所述第一翻译语言对应的翻译数据,并将所述翻译数据发送到所述第一可穿戴设备。
3.根据权利要求1所述的方法,其特征在于,所述获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备,包括:
响应于所述第二语音采集方式,提供与所述第一可穿戴设备对应的翻译语言选项;
响应于选择所述翻译语言选项中的第二翻译语言,获取对所述第二识别语言的语音数据进行识别后生成的所述第二翻译语言对应的翻译数据,并将所述翻译数据发送到所述第一可穿戴设备。
4.根据权利要求2或3所述的方法,其特征在于,所述方法还包括:
响应于所述第一语音采集方式或者所述第二语音采集方式,采集或者接收当前场景中的第一测试语音数据;
根据所述第一测试语音数据确定所述第一识别语言或者所述第二识别语言;以及
接收所述第一可穿戴设备采集的当前场景中的第二测试语音数据,并根据所述第二测试语音数据确定所述第一翻译语言或者所述第二翻译语言。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
提供与所述移动终端或者所述第二可穿戴设备对应的语音识别距离选项;
响应于在所述语音识别距离选项中选择目标语音识别距离,基于所述目标语音识别距离采集当前场景中的语音数据,或者向所述第二可穿戴设备发送所述目标语音识别距离以使所述第二可穿戴设备基于所述目标语音识别距离采集当前场景中的语音数据。
6.根据权利要求5所述的方法,其特征在于,基于所述目标语音识别距离识别当前场景中的语音数据,包括:
计算所述语音数据对应的信噪比,并基于所述信噪比确定所述语音数据的传播距离;
采集所述当前场景中所述传播距离小于所述目标语音识别距离的语音数据。
7.根据权利要求1所述的方法,其特征在于,所述方法还包括:
提供所述第一可穿戴设备或者所述第二可穿戴设备的标识信息;
响应于对所述标识信息的选择操作,确定用于采集所述语音数据的第二可穿戴设备或者用于接收所述翻译数据的第一可穿戴设备。
8.根据权利要求1所述的方法,其特征在于,所述方法还包括:
采集当前场景中的第一语音数据;
接收所述第二可穿戴设备采集的当前场景中的第二语音数据;
基于所述第一语音数据以及所述第二语音数据确定待翻译的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备。
9.一种对话翻译方法,其特征在于,应用于第一可穿戴设备,所述方法包括:
在与移动终端通信连接后,接收所述移动终端发送的控制指令;
在所述控制指令触发第一语音采集方式时,接收所述移动终端采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据;所述移动终端通过提供所述移动终端对应的识别语言选项,并响应于选择所述移动终端对应的识别语言选项中的第一识别语言,采集当前场景中属于所述第一识别语言的语音数据;
在所述控制指令触发第二语音采集方式时,接收所述移动终端根据与所述移动终端通信连接的第二可穿戴设备采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据;所述移动终端通过提供所述第二可穿戴设备对应的识别语言选项,并响应于选择所述第二可穿戴设备对应的识别语言选项中的第二识别语言,接收所述第二可穿戴设备采集的当前场景中属于所述第二识别语言的语音数据;
其中,所述当前场景中包括多个用户,每个用户穿戴有可穿戴设备,在所述可穿戴设备用于在对话场景中展示翻译数据时为所述第一可穿戴设备,在所述可穿戴设备用于在对话场景中采集语音数据时为所述第二可穿戴设备。
10.根据权利要求9所述的方法,其特征在于,展示所述翻译数据,包括:
将所述翻译数据进行实时显示;或者
通过唤醒的语音助手将所述翻译数据转化为实时翻译语音,并播放所述实时翻译语音。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
在断开与所述移动终端的通信连接后,采集当前场景中属于目标识别语言的语音数据;
获取所述语音数据对应的目标翻译语言的翻译数据,并展示所述翻译数据。
12.一种对话翻译装置,其特征在于,应用于移动终端,包括:
通信连接响应模块,用于在检测到所述移动终端与第一可穿戴设备之间建立通信连接后,根据控制指令确定第一语音采集方式或第二语音采集方式;
第一语音采集方式响应模块,用于响应于所述第一语音采集方式,采集当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备;
第二语音采集方式响应模块,用于响应于所述第二语音采集方式,接收与所述移动终端通信连接的第二可穿戴设备采集的当前场景中的语音数据,并获取所述语音数据对应的翻译数据,以将所述翻译数据发送到所述第一可穿戴设备;
其中,所述当前场景中包括多个用户,每个用户穿戴有可穿戴设备,在所述可穿戴设备用于在对话场景中展示翻译数据时为所述第一可穿戴设备,在所述可穿戴设备用于在对话场景中采集语音数据时为所述第二可穿戴设备;
所述第一语音采集方式响应模块,具体用于响应于所述第一语音采集方式,提供与所述移动终端对应的识别语言选项;响应于选择所述识别语言选项中的第一识别语言,采集当前场景中属于所述第一识别语言的语音数据;
所述第二语音采集方式响应模块,具体用于响应于所述第二语音采集方式,提供与所述第二可穿戴设备对应的识别语言选项;响应于选择所述识别语言选项中的第二识别语言,接收所述第二可穿戴设备采集的当前场景中属于所述第二识别语言的语音数据。
13.一种对话翻译装置,其特征在于,应用于第一可穿戴设备,包括:
通信连接建立模块,用于在与移动终端的通信连接后,接收所述移动终端发送的控制指令;
第一语音采集方式触发模块,用于在所述控制指令触发第一语音采集方式时,接收所述移动终端采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据;所述移动终端通过提供所述移动终端对应的识别语言选项,并响应于选择所述移动终端对应的识别语言选项中的第一识别语言,采集当前场景中属于所述第一识别语言的语音数据;
第二语音采集方式触发模块,用于在所述控制指令触发第二语音采集方式时,接收所述移动终端根据与所述移动终端通信连接的第二可穿戴设备采集当前场景中的语音数据生成的翻译数据,并展示所述翻译数据;所述移动终端通过提供所述第二可穿戴设备对应的识别语言选项,并响应于选择所述第二可穿戴设备对应的识别语言选项中的第二识别语言,接收所述第二可穿戴设备采集的当前场景中属于所述第二识别语言的语音数据;
其中,所述当前场景中包括多个用户,每个用户穿戴有可穿戴设备,在所述可穿戴设备用于在对话场景中展示翻译数据时为所述第一可穿戴设备,在所述可穿戴设备用于在对话场景中采集语音数据时为所述第二可穿戴设备。
14.一种计算机可读介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至8任一项或者实现如权利要求9至11中任一项所述的方法。
15.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1至8任一项或者执行权利要求9至11中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010849563.3A CN111985252B (zh) | 2020-08-21 | 2020-08-21 | 对话翻译方法及装置、存储介质和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010849563.3A CN111985252B (zh) | 2020-08-21 | 2020-08-21 | 对话翻译方法及装置、存储介质和电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111985252A CN111985252A (zh) | 2020-11-24 |
CN111985252B true CN111985252B (zh) | 2024-05-07 |
Family
ID=73443918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010849563.3A Active CN111985252B (zh) | 2020-08-21 | 2020-08-21 | 对话翻译方法及装置、存储介质和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111985252B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115910035B (zh) * | 2023-03-01 | 2023-06-30 | 广州小鹏汽车科技有限公司 | 语音交互方法、服务器及计算机可读存储介质 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016177782A (ja) * | 2015-03-19 | 2016-10-06 | パナソニックIpマネジメント株式会社 | ウェアラブル装置及び翻訳システム |
CN206863740U (zh) * | 2017-04-14 | 2018-01-09 | 深圳市领芯者科技有限公司 | 语音翻译装置和系统 |
CN108923810A (zh) * | 2018-06-15 | 2018-11-30 | Oppo广东移动通信有限公司 | 翻译方法及相关设备 |
CN108959273A (zh) * | 2018-06-15 | 2018-12-07 | Oppo广东移动通信有限公司 | 翻译方法、电子装置及存储介质 |
CN109150221A (zh) * | 2018-08-01 | 2019-01-04 | Oppo广东移动通信有限公司 | 一种可穿戴设备主从切换方法及相关产品 |
CN109360549A (zh) * | 2018-11-12 | 2019-02-19 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
KR20190029236A (ko) * | 2017-09-12 | 2019-03-20 | (주)한컴인터프리 | 통역방법 |
CN109754781A (zh) * | 2019-03-07 | 2019-05-14 | 北京金山安全软件有限公司 | 语音翻译终端、移动终端、翻译系统、翻译方法及其装置 |
CN111314814A (zh) * | 2020-01-19 | 2020-06-19 | 湖南国声声学科技股份有限公司 | 基于tws蓝牙耳机的翻译方法、移动终端、tws蓝牙耳机及存储介质 |
CN211293789U (zh) * | 2019-12-20 | 2020-08-18 | 深圳动听汽车经纪有限公司 | 一种可穿戴翻译设备及翻译系统 |
-
2020
- 2020-08-21 CN CN202010849563.3A patent/CN111985252B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016177782A (ja) * | 2015-03-19 | 2016-10-06 | パナソニックIpマネジメント株式会社 | ウェアラブル装置及び翻訳システム |
CN206863740U (zh) * | 2017-04-14 | 2018-01-09 | 深圳市领芯者科技有限公司 | 语音翻译装置和系统 |
KR20190029236A (ko) * | 2017-09-12 | 2019-03-20 | (주)한컴인터프리 | 통역방법 |
CN108923810A (zh) * | 2018-06-15 | 2018-11-30 | Oppo广东移动通信有限公司 | 翻译方法及相关设备 |
CN108959273A (zh) * | 2018-06-15 | 2018-12-07 | Oppo广东移动通信有限公司 | 翻译方法、电子装置及存储介质 |
CN109150221A (zh) * | 2018-08-01 | 2019-01-04 | Oppo广东移动通信有限公司 | 一种可穿戴设备主从切换方法及相关产品 |
CN109360549A (zh) * | 2018-11-12 | 2019-02-19 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
CN109754781A (zh) * | 2019-03-07 | 2019-05-14 | 北京金山安全软件有限公司 | 语音翻译终端、移动终端、翻译系统、翻译方法及其装置 |
CN211293789U (zh) * | 2019-12-20 | 2020-08-18 | 深圳动听汽车经纪有限公司 | 一种可穿戴翻译设备及翻译系统 |
CN111314814A (zh) * | 2020-01-19 | 2020-06-19 | 湖南国声声学科技股份有限公司 | 基于tws蓝牙耳机的翻译方法、移动终端、tws蓝牙耳机及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111985252A (zh) | 2020-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111445583B (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
CN110572716B (zh) | 多媒体数据播放方法、装置及存储介质 | |
CN110322760B (zh) | 语音数据生成方法、装置、终端及存储介质 | |
CN111432245B (zh) | 多媒体信息的播放控制方法、装置、设备及存储介质 | |
CN112270754A (zh) | 局部网格地图构建方法及装置、可读介质和电子设备 | |
CN111739517A (zh) | 语音识别方法、装置、计算机设备及介质 | |
CN112749956A (zh) | 信息处理方法、装置及设备 | |
CN112188461A (zh) | 近场通信装置的控制方法及装置、介质和电子设备 | |
CN112581358A (zh) | 图像处理模型的训练方法、图像处理方法及装置 | |
CN110798327B (zh) | 消息处理方法、设备及存储介质 | |
CN113238727A (zh) | 屏幕切换方法及装置、计算机可读介质和电子设备 | |
CN111985252B (zh) | 对话翻译方法及装置、存储介质和电子设备 | |
EP2888716B1 (en) | Target object angle determination using multiple cameras | |
CN112764600B (zh) | 资源处理方法、装置、存储介质及计算机设备 | |
CN113190307A (zh) | 控件添加方法、装置、设备及存储介质 | |
CN110837557B (zh) | 摘要生成方法、装置、设备及介质 | |
CN112423011A (zh) | 消息回复方法、装置、设备及存储介质 | |
CN111554314A (zh) | 噪声检测方法、装置、终端及存储介质 | |
CN112069350A (zh) | 歌曲推荐方法、装置、设备以及计算机存储介质 | |
CN111524518B (zh) | 增强现实处理方法及装置、存储介质和电子设备 | |
CN114416237A (zh) | 显示状态切换方法、装置及系统、电子设备、存储介质 | |
CN114385854A (zh) | 资源推荐方法、装置、电子设备及存储介质 | |
CN113301444A (zh) | 视频处理方法、装置、电子设备及存储介质 | |
JP7087804B2 (ja) | コミュニケーション支援装置、コミュニケーション支援システム及び通信方法 | |
CN111367492A (zh) | 网页页面展示方法及装置、存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |