CN110149805A - 双向语音翻译系统、双向语音翻译方法和程序 - Google Patents
双向语音翻译系统、双向语音翻译方法和程序 Download PDFInfo
- Publication number
- CN110149805A CN110149805A CN201780015619.1A CN201780015619A CN110149805A CN 110149805 A CN110149805 A CN 110149805A CN 201780015619 A CN201780015619 A CN 201780015619A CN 110149805 A CN110149805 A CN 110149805A
- Authority
- CN
- China
- Prior art keywords
- engine
- voice
- language
- translation
- speaker
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013519 translation Methods 0.000 title claims abstract description 388
- 238000000034 method Methods 0.000 title claims abstract description 11
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 192
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 190
- 238000012545 processing Methods 0.000 claims abstract description 101
- 230000014616 translation Effects 0.000 claims description 379
- 230000004044 response Effects 0.000 claims description 46
- 230000036651 mood Effects 0.000 claims description 23
- 238000007726 management method Methods 0.000 description 29
- 230000005540 biological transmission Effects 0.000 description 17
- 238000013500 data storage Methods 0.000 description 15
- 238000004891 communication Methods 0.000 description 10
- 230000006870 function Effects 0.000 description 8
- 210000000352 storage cell Anatomy 0.000 description 5
- 238000010079 rubber tapping Methods 0.000 description 4
- 235000013399 edible fruits Nutrition 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 230000002194 synthesizing effect Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000007306 turnover Effects 0.000 description 2
- 241001269238 Data Species 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 239000008186 active pharmaceutical agent Substances 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000032696 parturition Effects 0.000 description 1
- 238000009527 percussion Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/005—Language recognition
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
提供了双向语音翻译系统、双向语音翻译方法和程序,用于通过使用适合于接收到的语音或接收到的语音的语言的语音识别引擎、翻译引擎、和语音合成引擎的组合来执行语音翻译。双向语音翻译系统(1),执行用于通过将第一说话者输入的第一语言语音翻译成第二语言来合成语音的处理、以及用于通过将第二说话者输入的第二语言语音翻译成第一语言来合成语音的处理。引擎确定单元(46),基于第一语言、第一说话者输入的第一语言语音、第二语言、和第二说话者输入的第二语言语音中的至少一个,确定第一语音识别引擎(22)、第一翻译引擎(28)、和第一语音合成引擎(34)的组合,以及第二语音识别引擎(22)、第二翻译引擎(28)、和第二语音合成引擎(34)的组合。
Description
技术领域
本公开涉及双向语音翻译系统,双向语音翻译方法和程序。
背景技术
专利文献1描述了具有增强的单手的可操作性的翻译器。专利文献1中描述的翻译器将包括输入声学模型、语言模型和输出声学模型的翻译程序和翻译数据存储在包括在设置在壳体上的翻译单元中的存储器中。
在专利文献1中描述的翻译器中,包括在翻译单元中的处理单元使用输入声学模型和语言模型,将通过麦克风接收到的第一语言的语音转换为第一语言的文本信息。处理单元使用翻译模型和语言模型将第一语言的文本信息翻译或转换为第二语言的文本信息。处理单元使用输出声学模型将第二语言的文本信息转换为语音,并且通过扬声器输出第二语言的语音。
专利文献1中描述的翻译器对每个翻译器预先确定第一语言和第二语言的组合。
引文列表
专利文献
专利文献1:JP2017-151619A
发明内容
技术问题
然而,在讲第一语言的第一说话者和讲第二语言的第二说话者之间的双向对话中,在专利文献1中描述的翻译器不能顺利地交替将第一说话者的语音翻译成第二语言并且将第二说话者的语音翻译成第一语言。
专利文献1中描述的翻译器使用存储的给定翻译数据来翻译任何接收到的语音。因此,例如,即使存在更适用于翻译前语言或翻译后语言的语音识别引擎或翻译引擎,也不可能使用这样的引擎执行语音识别或翻译。此外,例如,即使存在适于再现诸如年龄和性别的说话者属性的翻译引擎或语音合成引擎,也不可能使用这样的引擎执行翻译或语音合成。
鉴于上述情况做出了本公开,并且本公开的目的是提供一种双向语音翻译系统、双向语音翻译方法和程序,其通过使用适合于接收的语音或该语音的语言的语音识别引擎、翻译引擎和语音合成引擎的组合,来执行语音翻译。
解决问题的方案
为了解决上述问题,根据本公开的双向语音翻译系统,执行用于响应于由第一说话者输入第一语言语音,通过将第一语言语音翻译成第二语言来合成语音的处理、以及用于响应于第二说话者输入第二语言语音,通过将第二语言语音翻译成第一语言来合成语音的处理。所述双向语音翻译系统包括:第一确定单元,其基于第一语言、第一说话者输入的第一语言语音、第二语言、和第二说话者输入的第二语言语音中的至少一个,确定第一语音识别引擎、第一翻译引擎、和第一语音合成引擎的组合,第一语音识别引擎是多个语音识别引擎的一个,第一翻译引擎是多个翻译引擎的一个,第一语音合成引擎是多个语音合成引擎的一个;第一语音识别单元,其响应于由第一说话者输入第一语言语音,执行由第一语音识别引擎实现的语音识别处理,以生成作为第一语言语音的识别结果的文本;第一翻译单元,其执行由第一翻译引擎实现的翻译处理,以通过将由第一语音识别单元生成的文本翻译成第二语言来生成文本;第一语音合成单元,其执行由第一语音合成引擎实现的语音合成处理,以合成表示由第一翻译单元翻译的文本的语音;第二确定单元,其基于第一语言、第一说话者输入的第一语言语音、第二语言、和第二说话者输入的第二语言语音中的至少一个,确定第二语音识别引擎、第二翻译引擎、和第二语音合成引擎的组合,第二语音识别引擎是多个语音识别引擎的一个,第二翻译引擎是多个翻译引擎的一个,第二语音合成引擎是多个语音合成引擎的一个;第二语音识别单元,其响应于由第二说话者输入第二语言语音,执行由第二语音识别引擎实现的语音识别处理,以生成作为第二语言语音的识别结果的文本;第二翻译单元,其执行由第二翻译引擎实现的翻译处理,以通过将由第二语音识别单元生成的文本翻译成第一语言来生成文本;以及第二语音合成单元,其执行由第二语音合成引擎实现的语音合成处理,以合成表示由第二翻译单元翻译的文本的语音。
在本公开的一个方面中,第一语音合成单元根据基于由第一说话者输入的语音的特征量估计的第一说话者的年龄、世代、和性别中的至少一个来合成语音。
在本公开的一个方面中,第一语音合成单元根据基于由第一说话者输入的语音的特征量估计的第一说话者的情绪来合成语音。
在本公开的一个方面中,第二语音合成单元根据基于由第一说话者输入的语音的特征量估计的第一说话者的年龄、世代、和性别中的至少一个来合成语音。
在本公开的一个方面中,第二翻译单元,确定包括在由第二语音识别单元生成的文本中的翻译目标词的多个翻译候选,检查多个翻译候选以查看每个翻译候选是否被包括在由第一翻译单元生成的文本中,以及将翻译目标词翻译成被确定为包括在由第一翻译单元生成的文本中的词。
在本公开的一个方面中,第一语音合成单元合成具有根据第一说话者的第一语言语音的输入速度的速度的语音,或具有根据第一说话者的第一语言语音的音量的音量的语音。
在本公开的一个方面中,第二语音合成单元合成具有根据第一说话者的第一语言语音的输入速度的速度的语音,或具有根据第一说话者的第一语言语音的音量的音量的语音。
在本公开的一个方面中,双向语音翻译系统包括终端,该终端接收由第一说话者进行的第一语言语音的输入,输出通过将第一语言语音翻译成第二语言获得的语音,接收由第二说话者进行的第二语言语音的输入,并输出通过将第二语言翻译成第一语言获得的语音。第一确定单元基于终端的位置确定第一语音识别引擎、第一翻译引擎、和第一语音合成引擎的组合。第二确定单元基于终端的位置确定第二语音识别引擎、第二翻译引擎、和第二语音合成引擎的组合。
根据本公开的双向语音翻译方法,执行用于响应于由第一说话者输入第一语言语音,通过将第一语言语音翻译成第二语言来合成语音的处理、以及用于响应于第二说话者输入第二语言语音,通过将第二语言语音翻译成第一语言来合成语音的处理。所述双向语音翻译方法包括:第一确定步骤,其基于第一语言、第一说话者输入的第一语言语音、第二语言、和第二说话者输入的第二语言语音中的至少一个,确定第一语音识别引擎、第一翻译引擎、和第一语音合成引擎的组合,第一语音识别引擎是多个语音识别引擎的一个,第一翻译引擎是多个翻译引擎的一个,第一语音合成引擎是多个语音合成引擎的一个;第一语音识别步骤,其响应于由第一说话者输入第一语言语音,执行由第一语音识别引擎实现的语音识别处理,以生成作为第一语言语音的识别结果的文本;第一翻译步骤,其执行由第一翻译引擎实现的翻译处理,以通过将在第一语音识别步骤中生成的文本翻译成第二语言来生成文本;第一语音合成步骤,其执行由第一语音合成引擎实现的语音合成处理,以合成表示在第一翻译步骤中翻译的文本的语音;第二确定步骤,其基于第一语言、第一说话者输入的第一语言语音、第二语言、和第二说话者输入的第二语言语音中的至少一个,确定第二语音识别引擎、第二翻译引擎、和第二语音合成引擎的组合,第二语音识别引擎是多个语音识别引擎的一个,第二翻译引擎是多个翻译引擎的一个,第二语音合成引擎是多个语音合成引擎的一个;第二语音识别步骤,其响应于由第二说话者输入第二语言语音,执行由第二语音识别引擎实现的语音识别处理,以生成作为第二语言语音的识别结果的文本;第二翻译步骤,其执行由第二翻译引擎实现的翻译处理,以通过将在第二语音识别步骤中生成的文本翻译成第一语言来生成文本;以及第二语音合成步骤,其执行由第二语音合成引擎实现的语音合成处理,以合成表示在第二翻译步骤中翻译的文本的语音。
根据本公开的程序,使计算机执行用于响应于由第一说话者输入第一语言语音,通过将第一语言语音翻译成第二语言来合成语音的处理、以及用于响应于第二说话者输入第二语言语音,通过将第二语言语音翻译成第一语言来合成语音的处理。所述程序使所述计算机执行:第一确定处理,其基于第一语言、第一说话者输入的第一语言语音、第二语言、和第二说话者输入的第二语言语音中的至少一个,确定第一语音识别引擎、第一翻译引擎、和第一语音合成引擎的组合,第一语音识别引擎是多个语音识别引擎的一个,第一翻译引擎是多个翻译引擎的一个,第一语音合成引擎是多个语音合成引擎的一个;第一语音识别处理,其响应于由第一说话者输入第一语言语音,执行由第一语音识别引擎实现的语音识别处理,以生成作为第一语言语音的识别结果的文本;第一翻译处理,其执行由第一翻译引擎实现的翻译处理,以通过将在第一语音识别处理中生成的文本翻译成第二语言来生成文本;第一语音合成处理,其执行由第一语音合成引擎实现的语音合成处理,以合成表示在第一翻译处理中翻译的文本的语音;第二确定处理,其基于第一语言、第一说话者输入的第一语言语音、第二语言、和第二说话者输入的第二语言语音中的至少一个,确定第二语音识别引擎、第二翻译引擎、和第二语音合成引擎的组合,第二语音识别引擎是多个语音识别引擎的一个,第二翻译引擎是多个翻译引擎的一个,第二语音合成引擎是多个语音合成引擎的一个;第二语音识别处理,其响应于由第二说话者输入第二语言语音,执行由第二语音识别引擎实现的语音识别处理,以生成作为第二语言语音的识别结果的文本;第二翻译处理,其执行由第二翻译引擎实现的翻译处理,以通过将在第二语音识别处理中生成的文本翻译成第一语言来生成文本;以及第二语音合成处理,其执行由第二语音合成引擎实现的语音合成处理,以合成表示在第二翻译处理中翻译的文本的语音。
附图说明
图1是示出了根据本公开的实施例的翻译系统的整体配置的示例的图;
图2是示出了根据本公开的实施例的翻译终端的配置的示例的图;
图3是示出了根据本公开的实施例的在服务器中实现的功能的示例的功能框图;
图4A是表示分析对象数据的示例的图;
图4B是表示分析对象数据的示例的图;
图5A是表示日志数据的示例的图;
图5B是表示日志数据的示例的图;
图6是表示语言引擎对应管理数据的示例的图;
图7是表示属性引擎对应管理数据的示例的图;
图8是示出了根据本公开的实施例的在服务器中执行的处理的示例的流程图。
具体实施方式
以下将参考附图描述本公开的实施例。
图1示出作为本公开中提出的双向语音翻译系统的示例的翻译系统1的整体配置的示例。如图1所示,本公开中提出的翻译系统1包括服务器10和翻译终端12。服务器10和翻译终端12连接到诸如因特网的计算机网络14。服务器10和翻译终端12因此可以经由诸如因特网的计算机网络14彼此进行通信。
如图1所示,根据本实施例的服务器10包括例如处理器10a,存储单元10b和通信单元10c。
处理器10a是程序控制装置,例如根据安装在服务器10中的程序进行操作的微处理器。存储单元10b是例如诸如ROM和RAM,的存储元件或硬盘驱动器。例如,存储单元10b存储由处理器10a执行的程序。例如,通信单元10c是用于经由计算机网络14向/从翻译终端12发送/接收数据的通信接口,例如网络板。服务器10经由通信单元10c向翻译终端12发送数据/从翻译终端12接收数据。
图2图示了在图1中示出的翻译终端12的配置的示例。如图2所示,根据本实施例的翻译终端12包括:例如,处理器12a、存储单元12b、通信单元12c、操作部12d、显示部12e、麦克风12f和扬声器12g。
处理器12a是例如程序控制装置,诸如根据安装在翻译终端12中的程序进行操作的微处理器。存储单元12b是诸如ROM和RAM的存储元件。存储单元12b存储由处理器12a执行的程序。
例如,通信单元12c是用于经由计算机网络14向/从服务器10发送/接收数据的通信接口。通信单元12c可以包括诸如3G模块的无线通信模块,用于通过包括基站的移动电话线路与诸如因特网的计算机网络14进行通信。通信单元12c可以包括无线LAN模块,用于经由例如Wi-Fi(注册商标)路由器与诸如因特网的计算机网络14进行通信。
例如,操作部12d是将用户的操作输出到处理器12a的操作部件。如图1所示,本实施例的翻译终端12在其下前侧具有5个操作部12d(12da,12db,12dc,12dd,12de)。操作部12da,操作部12db,操作部12dc,操作部12dd以及操作部12de分别相对设置在翻译终端12的下前部的左侧、右侧、上侧、下侧和中央。操作部12d在这里被描述为触摸传感器,但是操作部12d可以是除了触摸传感器之外的诸如按钮的操作部件。
例如,显示部12e包括诸如液晶显示器、有机EL显示器的显示器,显示由处理器12a生成的图像。如图1所示,根据本实施例的翻译终端12在其上前侧具有圆形显示部12e。
例如,麦克风12f是将接收到的语音转换为电信号的语音输入装置。麦克风12f可以是具有噪声消除功能的双麦克风,其被嵌入在翻译终端12中并且即使在人群中也有利于识别人类语音。
例如,扬声器12g是输出语音的音频输出装置。扬声器12g可以是嵌入在翻译终端12中的动态扬声器,并且可以用在嘈杂的环境中。
根据本实施例的翻译系统1可以在第一说话者和第二说话者之间的双向会话中交替地翻译第一说话者的语音和第二说话者的语音。
在根据本实施例的翻译终端12中,对单元12d执行预定操作以设置语言,从而从例如五十个给定的语言中确定第一说话者的语音的语言和第二说话者的语音的语言。在下文中,第一说话者的语音被称为第一语言,而第二说话者的语音被称为第二语言。在本实施例中,例如,显示部12e的左上方的第一语言显示区域16a显示表示第一语言的图像,诸如使用第一语言的国家的国旗的图像。此外,在本实施例中,例如,显示部分12e的右上方的第二语言显示区域16b显示使用第二语言的国家的国旗。
例如,假定第一说话者执行语音输入操作,其中第一说话者在翻译终端12中以第一语言输入语音。例如,第一说话者的语音输入操作可以是一系列操作,包括:第一说话者敲击操作部12da、在敲击操作部12da的同时输入第一语言的语音、和释放操作部12da的敲击状态。
随后,设置在显示部12e下方的文本显示区域18显示文本,该文本是由第一说话者输入的语音的语音识别结果。根据本实施例的文本是表示一个或多个从句、短语、词或句子的字符串。之后,文本显示区域18显示将显示的文本翻译成第二语言而获得的文本,并且扬声器12g输出表示翻译后文本的语音,即将由第一说话者输入的第一语言的语音翻译成第二语言所得到的语音。
随后,例如,假定第二说话者在翻译终端12中执行第二说话者以第二语言输入语音的语音输入操作。例如,第二说话者的语音输入操作可以是一系列操作,包括:第二说话者敲击操作部12db、在敲击操作部12db的同时输入第二语言的语音、和释放操作部12db的敲击状态。
随后,设置在显示部12e下方的文本显示区域18显示文本,该文本是由第二说话者输入的语音的语音识别结果。之后,文本显示区域18显示将显示的文本翻译成第一语言而获得的文本,并且扬声器12g输出表示翻译后文本的语音,即,将由第二说话者输入的第二语言的语音翻译成第一语言所得到的语音。
随后,在根据本实施例的翻译系统1中,每当交替执行第一说话者的语音输入操作和第二说话者的语音输入操作时,输出通过将输入的语音翻译成另一种语言而获得的语音。
以下将描述根据本实施例的服务器10中执行的功能和处理。
根据本实施例的服务器10执行用于响应于由第一说话者输入第一语言的语音,通过将输入的语音翻译成第二语言来合成语音的处理,以及用于响应于第二说话者以第二语言输入语音,通过将输入的语音翻译成第一语言来合成语音的处理。
图3是示出根据本实施例的在服务器10中实现的功能的示例的功能框图。根据该实施例的服务器10不一定要实现在图3中示出的所有功能,并且可以实现除了在图3中示出的功能之外的功能。
如图3所示,根据本实施例的服务器10在功能上包括:例如,语音数据接收单元20、多个语音识别引擎22、语音识别单元24、翻译前文本数据发送单元26、多个翻译引擎28、翻译单元30、翻译后文本数据发送单元32、多个语音合成引擎34、语音合成单元36、语音数据发送单元38、日志数据生成单元40、日志数据存储单元42、分析单元44、引擎确定单元46、和对应管理数据存储单元48。
语音识别引擎22、翻译引擎28、和语音合成引擎34主要由处理器10a和存储单元10b实现。语音数据接收单元20、翻译前文本数据发送单元26、翻译后文本数据发送单元32、和语音数据发送单元38主要由通信单元10c实现。语音识别单元24、翻译单元30、语音合成单元36、日志数据生成单元40、分析单元44、和引擎确定单元46主要由处理器10a实现。日志数据存储单元42和对应管理数据存储单元48主要由存储单元10b实现。
当处理器10a执行安装在是计算机的服务器10中并且包含对应于这些功能的命令的程序时,实现上述功能。该程序经由因特网或诸如光盘、磁盘、磁带、磁光盘和闪存的计算机可读信息存储介质提供给服务器10。
在根据本实施例的翻译系统1中,当由说话者执行语音输入操作时,翻译终端12生成在图4A和图4B中示出的分析目标数据。翻译终端12然后将生成的分析目标数据发送到服务器10。图4A示出了当第一说话者执行语音输入操作时生成的分析目标数据的示例。图4B示出了当第二说话者执行语音输入操作时生成的分析目标数据的示例。图4A和图4B示出了当第一语言是日语并且第二语言是英语时的分析目标数据的示例。
如图4A和图4B所示,分析目标数据包括翻译前语音数据和元数据。
例如,翻译前语音数据是表示通过麦克风12f输入的说话者的语音的语音数据。这里,翻译前语音数据例如可以是通过对通过麦克风12f输入的语音进行编码和量化而生成的语音数据。
例如,元数据包括终端ID、输入ID、说话者ID、时间数据、翻译前语言数据、和翻译后语言数据。
例如,终端ID是翻译终端12的标识信息。在该实施例中,例如,向用户提供的每个翻译终端12被分配唯一的终端ID。
例如,输入ID是通过单个语音输入操作输入的语音的标识信息。在该实施例中,输入ID例如是分析目标数据的标识信息。在该实施例中,根据在翻译终端12中执行的语音输入操作的顺序来分配输入ID的值。
例如,说话者ID是说话者的标识信息。在本实施例中,例如,当第一说话者进行语音输入操作时,将1设置为说话者ID的值,并且当第二说话者进行语音输入操作时,将2设置为说话者ID的值。
例如,时间数据表示进行语音输入操作的时间。
例如,翻译前语言数据表示由说话者输入的语音的语言。在下文中,说话者输入的语音的语言被称为翻译前语言。例如,当第一说话者进行语音输入操作时,表示被设置为第一语言的语言的值被设置为翻译前语言数据的值。例如,当第二说话者进行语音输入操作时,表示被设置为第二语言的语言的值被设置为翻译前语言数据的值。
翻译后语言数据表示例如作为由会话伙伴(即,执行语音输入操作的说话者的听众)捕获的语音的语言被设置的语言。在下文中,被听众捕获的语音的语言被称为翻译后语言。例如,当第一说话者进行语音输入操作时,表示被设置为第二语言的语言的值被设置为翻译后语言数据的值。例如,当第二说话者进行语音输入操作时,表示被设置为第一语言的语言的值被设置为翻译后语言数据的值。
在本实施例中,语音数据接收单元20例如接收表示在翻译终端12中输入的语音的语音数据。这里,语音数据接收单元20可以接收分析目标数据,其包括表示如上所述输入到翻译终端12中的语音的语音数据作为翻译前语音数据。
在该实施例中,每个语音识别引擎22是其中例如执行用于生成作为语音的识别结果的文本的语音识别处理的程序。语音识别引擎22具有不同的规格,诸如可识别的语言。在本实施例中,例如,每个语音识别引擎22被预先分配有语音识别引擎ID,语音识别引擎ID是对应的语音识别引擎22的标识信息。
在本实施例中,例如,响应于由说话者输入语音,语音识别单元24生成文本,该文本是语音的识别结果。语音识别单元24可以生成文本,该文本是由语音数据接收单元20接收的语音数据所表示的语音的识别结果。
语音识别单元24可以执行语音识别处理,该语音识别处理由稍后描述的引擎确定单元46确定的语音识别引擎22执行,以生成作为语音的识别结果的文本。例如,语音识别单元24可以调用由引擎确定单元46确定的语音识别引擎22,使语音识别引擎22执行语音识别处理,并且从语音识别引擎22接收作为语音识别处理的结果的文本。
以下,响应于第一说话者的语音输入操作而由引擎确定单元46确定的语音识别引擎22被称为第一语音识别引擎22。此外,响应于第二说话者的语音输入操作而由引擎确定单元46确定的语音识别引擎22被称为第二语音识别引擎22。
在该实施例中,例如,翻译前文本数据发送单元26将表示由语音识别单元24生成的文本的翻译前文本数据发送到翻译终端12。例如,当从翻译前文本数据发送单元26接收到由接收翻译前文本数据表示的文本时,翻译终端12如上所述在文本显示区域18上显示文本。
在该实施例中,例如,每个翻译引擎28是其中执行翻译文本的翻译处理的程序。翻译引擎28具有不同的规格,诸如可翻译的语言和用于翻译的字典。在该实施例中,例如,每个翻译引擎28被预先分配有翻译引擎ID,其是对应的翻译引擎28的标识信息。
在该实施例中,例如,翻译单元30通过翻译由语音识别单元24生成的文本来生成文本。翻译单元30可以执行由稍后描述的引擎确定单元46确定的翻译引擎28实现的翻译处理,并且通过翻译由语音识别单元24生成的文本来生成文本。例如,翻译单元30可以调用由引擎确定单元46确定的翻译引擎28,使翻译引擎28执行翻译处理,并从翻译引擎28接收作为翻译处理的结果的文本。
在下文中,响应于第一说话者的语音输入操作而由引擎确定单元46确定的翻译引擎28被称为第一翻译引擎28。此外,响应于第二说话者的语音输入操作而由引擎确定单元46确定的翻译引擎28被称为第二翻译引擎28。
在该实施例中,例如,翻译后文本数据发送单元32将表示由翻译单元30翻译的文本的翻译后文本数据发送到翻译终端12。例如,当从翻译后文本数据发送单元32接收到翻译后文本数据所表示的文本时,翻译终端12如上所述在文本显示区域18上显示文本。
在本实施例中,例如,每个语音合成引擎34是其中实现用于合成表示文本的语音的语音合成处理的程序。语音合成引擎34具有不同的规格,例如要合成的语音的音调或类型。在该实施例中,例如,每个语音合成引擎34被预先分配有语音合成引擎ID,其是用于对应的语音合成引擎34的标识信息。
在该实施例中,例如,语音合成单元36合成表示由翻译单元30翻译的文本的语音。语音合成单元36可以生成翻译后的语音数据,翻译后的语音数据是通过合成表示由翻译单元30翻译的文本的语音而获得的语音数据。语音合成单元36可以执行由稍后描述的引擎确定单元46确定的语音合成引擎34实现的语音合成处理,并且合成表示由翻译单元30翻译的文本的语音。例如,语音合成单元36可以调用由引擎确定单元46确定的语音合成引擎34,使得语音合成引擎34执行语音合成处理,并且从语音合成引擎34接收作为语音合成处理的结果的语音数据。
在下文中,响应于第一说话者的语音输入操作而由引擎确定单元46确定的语音合成引擎34被称为第一语音合成引擎34。此外,响应于第二说话者的语音输入操作而由引擎确定单元46确定的语音合成引擎34被称为第二语音合成引擎34。
在该实施例中,例如,语音数据发送单元38将表示由语音合成单元36合成的语音的语音数据发送到翻译终端12。在从语音数据发送单元38接收到翻译后的语音数据时,翻译终端12例如如上所述将由翻译后的语音数据表示的语音输出到扬声器12g。
在本实施例中,例如,日志数据生成单元40生成如图5A和图5B所示的表示关于说话者的语音的翻译的日志的日志数据,并且将该日志数据存储在日志数据存储单元42中。
图5A示出了响应于第一说话者的语音输入操作而生成的日志数据的例子。图5B示出了响应于第二说话者的语音输入操作而生成的日志数据的例子。
日志数据例如包括终端ID、输入ID、说话者ID、时间数据、翻译前文本数据、翻译后文本数据、翻译前语言数据、翻译后语言数据、年龄数据、性别数据、情绪数据、主题数据、和场景数据。
例如,由语音数据接收单元20接收的分析目标数据中包括的元数据的终端ID、输入ID、和说话者ID的值可以分别被设置为要生成的日志数据的终端ID、输入ID、和说话者ID的值。例如,可以将语音数据接收单元20接收到的分析目标数据中包括的元数据的时间数据的值设置为要生成的日志数据的时间数据的值。例如,由语音数据接收单元20接收的分析目标数据中包括的元数据的翻译前语言数据和翻译后语言数据的值可以被设置为包括在要生成的日志数据中的翻译前语言数据和翻译后语言的值。
例如,执行语音输入操作的说话者的年龄或世代的值可以被设置为包括在要产生的日志数据中的年龄数据的值。例如,表示进行语音输入操作的说话者的性别的值可以被设置为包括在将要生成的日志数据中的性别数据的值。例如,表示进行语音输入操作的说话者的情绪的值可以被设置为包括在要生成的日志数据中的情绪数据的值。例如,当执行语音输入操作时,表示诸如医学、军事、IT和旅行的会话的主题(类型)的值可以被设置为包括在要生成的日志数据中的主题数据的值。例如,当执行语音输入操作时,表示诸如会议、商务谈话、聊天和演讲的会话场景的值可以被设置为包括在将要生成的日志数据中的场景数据的值。
如稍后讨论的,分析单元44可以对由语音数据接收单元20接收的语音数据执行分析处理。然后,可以将与分析处理的结果相对应的值设置为包括在要生成的日志数据中的年龄数据、性别数据、情绪数据、主题数据、和场景数据的值。
例如,表示由语音数据接收单元20接收到的语音数据的由语音识别单元24的语音识别结果的文本可以被设置为包括在要生成的日志数据中的翻译前文本数据的值。例如,表示由翻译单元30翻译文本的结果的文本可以被设置为包括在要生成的日志数据中的翻译后文本数据的值。
尽管未在图5A和图5B中示出,但是日志数据可以附加地包括数据,例如表示进行语音输入操作的说话者的语音的输入速度的输入速度数据、表示语音的音量的音量数据、和表示语音的音调或类型的声音类型数据。
在本实施例中,例如,日志数据存储单元42存储由日志数据生成单元40生成的日志数据。以下,存储在日志数据存储单元42中并且包括具有与由语音数据接收单元20接收到的分析目标数据中包括的元数据的终端ID的值相同的值的终端ID的日志数据,将被称为终端日志数据。
可以预先确定存储在日志数据存储单元42中的终端日志数据的记录的最大数量。例如,对于某个终端ID,可以在日志数据存储单元42中存储最多20个终端日志数据的记录。如上所述,在日志数据存储单元42中存储了最大数量的终端日志数据的记录的情况下,在将终端日志数据的新记录存储在日志数据存储单元42中时,日志数据生成单元40可以删除包括表示最早时间的时间数据的终端日志数据的记录。
在该实施例中,例如,分析单元44对由语音数据接收单元20接收的语音数据和作为翻译单元30的翻译结果的文本执行分析处理。
例如,分析单元44可以生成由语音数据接收单元20接收的语音数据所表示的语音的特征量的数据。特征量的数据可以包括例如基于频谱包络的数据、基于线性预测分析的数据、诸如倒谱的关于声道的数据、诸如基频和有声/无声判定信息的关于声源的数据、和频谱图。
在该实施例中,例如,分析单元44可以执行分析处理,诸如已知的声纹分析处理,从而估计执行语音输入操作的说话者的属性,诸如说话者的年龄、世代、和性别。例如,可以基于由语音数据接收单元20接收到的语音数据表示的语音的特征量的数据来估计执行语音输入操作的说话者的属性。
例如,分析单元44可以基于作为翻译单元30的翻译结果的文本来估计执行语音输入操作的说话者的属性,诸如年龄、世代、和性别。例如,使用已知的文本分析处理,可以基于作为翻译结果的文本中包括的词来估计执行语音输入操作的说话者的属性。这里,如上所述,日志数据生成单元40可以将表示估计的说话者的年龄或世代的值设置为包括在要生成的日志数据中的年龄数据的值。此外,如上所述,日志数据生成单元40可以将估计的说话者的性别的值设置为包括在要生成的日志数据中的性别数据的值。
在该实施例中,例如,分析单元44执行分析处理,例如已知的语音情绪分析处理,从而估计进行语音输入操作的说话者的情绪(例如愤怒、喜悦、和平静)。例如,可以基于由语音数据接收单元20接收的语音数据表示的语音的特征量的数据来估计输入语音的说话者的情绪。如上所述,日志数据生成单元40可以将表示说话者的估计的情绪的值设置为包括在要生成的日志数据中的情绪数据的值。
分析单元44可以指定例如由语音数据接收单元20接收到的语音数据所表示的语音的输入速度和音量。此外,分析单元44可以例如指定由语音数据接收单元20接收的语音数据表示的语音的声调或类型。日志数据生成单元40可以将表示估计的语音输入速度、音量、和语音的声调或类型的值设置为包括在要生成的日志数据中的输入速度数据、音量数据、和声音类型数据的各个值。
例如,分析单元44可以估计进行语音输入操作时的会话主题或场景。这里,分析单元44可以基于例如由语音识别单元24生成的文本或包括在文本中的词来估计主题或场景。
当估计主题和场景时,分析单元44可以基于终端日志数据来估计它们。例如,可以基于由包含在终端日志数据中的翻译前文本数据表示的文本或包含在文本中的词,或者由翻译后文本数据表示的文本或包含在文本中的词,估计主题和场景。话题和场景可以基于由语音识别单元24生成的文本和终端日志数据来估计。这里,日志数据生成单元40可以将表示估计的主题和场景的值设置为包括在要生成的日志数据中的主题数据和场景数据的值。
在该实施例中,例如,引擎确定单元46确定用于执行语音识别处理的语音识别引擎22、用于执行翻译处理的翻译引擎28、和用于执行语音合成处理的语音合成引擎34的组合。如上所述,引擎确定单元46可根据第一说话者的语音输入操作确定第一语音识别引擎22、第一翻译引擎28、和第一语音合成引擎34的组合。引擎确定单元46可根据第二说话者的语音输入操作确定第二语音识别引擎22、第二翻译引擎28、和第二语音合成引擎34的组合。例如,可以基于第一语言、由第一说话者输入的语音、第二语言、和由第二说话者输入的语音中的至少一个来确定组合。
如上所述,语音识别单元24可响应于第一说话者以第一语言输入语音,执行由第一语音识别引擎22实现的语音识别处理,从而以第一语言生成文本,这是识别语音的结果。翻译单元30可以执行由第一翻译引擎28实现的翻译处理,以通过翻译由语音识别单元24生成的第一语言的文本,生成第二语言的文本。语音合成单元36可以执行由第一语音合成引擎34实现的语音合成处理,以合成表示由翻译单元30以第二语言翻译的文本的语音。
语音识别单元24可以响应于第二说话者以第二语言输入语音,执行由第二语音识别引擎22实现的语音识别处理,以生成文本,该文本是第二语言的语音的识别结果。翻译单元30可以执行由第二翻译引擎28执行的翻译处理,以通过翻译由语音识别单元24生成的第二语言的文本,生成第一语言的文本。语音合成单元36可以执行由第一语音合成引擎34实现的语音合成处理,以合成表示由翻译单元30以第一语言翻译后文本的语音。
例如,当第一说话者输入语音时,引擎确定单元46可以基于翻译前语言和翻译后语言的组合来确定第一语音识别引擎22、第一翻译引擎28、和第一语音合成引擎34的组合。
这里,例如,当第一讲话者输入语音时,引擎确定单元46可基于图6所示的语言引擎对应管理数据确定第一语音识别引擎22、第一翻译引擎28、和第一语音合成引擎34的组合。
如图6所示,语言引擎对应管理数据包括:翻译前语言数据、翻译后语言数据、语音识别引擎ID、翻译引擎ID、和语音合成引擎ID。图6示出了语言引擎对应管理数据的多个记录。例如,可以在语言引擎对应管理数据中预先设置适用于翻译前语言和翻译后语言的组合的语音识别引擎22、翻译引擎28、和语音合成引擎34。语言引擎对应管理数据可以预先存储在对应管理数据存储单元48中。
这里,例如,可以预先指定语音识别引擎22的语音识别引擎ID,该语音识别引擎22能够对由翻译前语言数据的值表示的语言的语音进行语音识别处理。或者,可以预先指定具有识别语音的最高准确度的语音识别引擎22的语音识别引擎ID。然后可以将指定的语音识别引擎ID设置为与语言引擎对应管理数据中的翻译前语言数据相关联的语音识别引擎ID。
例如,引擎确定单元46可以指定当第一说话者输入语音时由语音数据接收单元20接收到的分析目标数据中包括的元数据的翻译前语言数据的值和翻译后语言数据的值的组合。引擎确定单元46然后可以指定具有翻译前语言数据的值和翻译后语言数据的值的相同组合的语言引擎对应管理数据的记录作为指定组合。引擎确定单元46可以指定包括在语言引擎对应管理数据的指定记录中的语音识别引擎ID、翻译引擎ID、和语音合成引擎ID的组合。
引擎确定单元46可以指定具有相同组合的翻译前语言数据的值和翻译后语言数据的值的语言引擎对应管理数据的多个记录作为指定组合。在这种情况下,例如,引擎确定单元46可以基于给定的标准指定包括在语言引擎对应管理数据的任何一个记录中的语音识别引擎ID、翻译引擎ID、和语音合成引擎ID的组合。
引擎确定单元46可以确定由包括在指定组合中的语音识别引擎ID所标识的语音识别引擎22作为第一语音识别引擎22。引擎确定单元46可以确定由包括在所确定的组合中的翻译引擎ID所标识的翻译引擎28作为第一翻译引擎28。引擎确定单元46可以将由所确定的组合中包括的语音合成引擎ID所标识的语音合成引擎34确定为第一语音合成引擎34。
类似地,当第二说话者输入语音时,引擎确定单元46可以基于翻译前语言和翻译后语言的组合,来确定第二语音识别引擎22、第二翻译引擎28、和第二语音合成引擎34的组合。
以这种方式,可以根据翻译前语言和翻译后语言的组合,使用语音识别引擎22、翻译引擎28、和语音合成引擎34的适当组合来执行语音翻译。
引擎确定单元46可以仅基于翻译前语言来确定第一语音识别引擎22或第二语音识别引擎22。
这里,分析单元44可以分析由语音数据接收单元20接收的分析目标数据中包括的翻译前语音数据,以指定由翻译前语音数据表示的语音的语言。然后引擎确定单元46可以基于由分析单元44指定的语言来确定语音识别引擎22和翻译引擎28中的至少一个。
引擎确定单元46可以基于例如当语音输入时翻译终端12的位置来确定语音识别引擎22、翻译引擎28、和语音合成引擎34中的至少一个。这里,例如,可以基于翻译终端12所在的国家来确定语音识别引擎22、翻译引擎28、和语音合成引擎34中的至少一个。例如,当由引擎确定单元46确定的翻译引擎28在翻译终端12所在的国家中不可用时,执行翻译处理的翻译引擎28可以从剩余的翻译引擎28中确定。在这种情况下,例如,可以基于包括表示国家的国家数据的语言引擎对应管理数据来确定语音识别引擎22、翻译引擎28、和语音合成引擎34中的至少一个。
可以基于从翻译终端12发送的分析目标数据的头部的IP地址来指定翻译终端12的位置。例如,如果翻译终端12包括GPS模块,则翻译终端12可以向服务器10发送包括表示诸如由GPS模块测量的纬度和经度的翻译终端12的位置的数据作为元数据的分析目标数据。然后可以基于表示包括在元数据中的位置的数据来指定翻译终端12的位置。
引擎确定单元46可以基于例如由分析单元44估计的主题或场景来确定执行翻译处理的翻译引擎28。这里,引擎确定单元46可以基于例如包括在终端日志数据中的主题数据的值或场景数据的值来确定执行翻译处理的翻译引擎28。在这种情况下,例如,可以基于包括表示主题的主题数据和表示场景的场景数据的属性引擎对应管理数据来确定执行翻译处理的翻译引擎28。
例如,当第一说话者输入语音时,引擎确定单元46可以基于第一说话者的属性确定第一翻译引擎28和第一语音合成引擎34的组合。
这里,例如,引擎确定单元46可以基于在图7中示出的属性引擎对应管理数据来确定第一翻译引擎28和第一语音合成引擎34的组合。
图7示出了其中翻译前语言是日语并且翻译后语言是英语的属性引擎对应管理数据的示例。如图7所示,属性引擎对应管理数据包括年龄数据、性别数据、翻译引擎ID、和语音合成引擎ID。可以在属性引擎对应管理数据中预先设置用于再现诸如说话者的年龄、世代、和性别的说话者的属性的翻译引擎28和语音合成引擎34的适当组合。属性引擎对应管理数据可以预先存储在对应管理数据存储单元48中。
例如,可以预先指定能够再现诸如由年龄数据表示的年龄或世代和由性别数据表示的性别的讲话者属性的翻译引擎28。或者,可以预先指定具有讲话者属性再现的最高准确度的翻译引擎28的翻译引擎ID。指定的翻译引擎ID可以被设置为与属性引擎对应管理数据中的年龄数据和性别数据相关联的翻译引擎ID。
例如,可以预先指定能够再现诸如由年龄数据所表示的年龄或世代和由性别数据所表示的性别的说话者属性的语音合成引擎34。或者,可以预先指定具有讲话者属性再现的最高准确度的语音合成引擎34的语音合成引擎ID。指定的语音合成引擎ID可以被设置为与属性引擎对应管理数据中的年龄数据和性别数据相关联的语音合成引擎ID。
例如,假定当第一说话者输入语音时,引擎确定单元46指定日语是翻译前语言而英语是翻译后语言。此外,假定引擎确定单元46基于分析单元44的分析结果来指定表示说话者的年龄或世代的值与表示说话者的性别的值的组合。在这种情况下,引擎确定单元46可以在图7中所示的属性引擎对应管理数据的记录中指定具有与指定的组合相同的年龄数据和性别数据的值的组合的记录。引擎确定单元46可以指定包括在属性引擎对应管理数据的指定记录中的翻译引擎ID和语音合成引擎ID的组合。
在图7中所示的属性引擎对应管理数据的记录中,引擎确定单元46可以指定具有与指定的组合相同的年龄数据和性别数据的值的组合的多个记录。在这种情况下,例如,引擎确定单元46可以基于给定标准来指定包括在属性引擎对应管理数据的任何一个记录中的翻译引擎ID和语音合成引擎ID的组合。
引擎确定单元46可以确定由包括在指定组合中的翻译引擎ID所标识的翻译引擎28作为第一翻译引擎28。此外,引擎确定单元46可确定由包括在指定组合中的语音合成引擎ID所标识的语音合成引擎34作为第一语音合成引擎34。
引擎确定单元46可以基于图6中所示的语言引擎对应管理数据来指定语音识别引擎ID、翻译引擎ID、和语音合成引擎ID的多个组合。在这种情况下,引擎确定单元46可基于图7中所示的属性引擎对应管理数据将指定的组合缩小范围为一个组合。
在上面的例子中,基于第一说话者的年龄或世代和说话者的性别的组合进行确定,尽管第一翻译引擎28和第一语音合成引擎34的组合可以基于第一说话者的其他属性来确定。例如,表示说话者情绪的情绪数据的值可以被包括在属性引擎对应管理数据中。引擎确定单元46可以基于例如由分析单元44估计的说话者的情绪和包括情绪数据的属性引擎对应管理数据来确定第一翻译引擎28和第一语音合成引擎34的组合。
类似地,当第二说话者输入语音时,引擎确定单元46可基于第二说话者的属性确定第二翻译引擎28和第二语音合成引擎34的组合。
如所描述的,与第一说话者的性别和年龄相对应的语音被输出到第二说话者。此外,与第二说话者的性别和年龄相对应的语音被输出到第一说话者。以这种方式,可以根据说话者的诸如说话者的年龄或世代、性别和情绪的属性,利用翻译引擎28和语音合成引擎34的适当组合来执行语音翻译。
引擎确定单元46可以基于第一说话者的属性来确定第一翻译引擎28和第一语音合成引擎34中的一个。引擎确定单元46可以基于第二说话者的属性来确定第二翻译引擎28和第二语音合成引擎34中的一个。
引擎确定单元46可以基于存储在日志数据存储单元42中的终端日志数据来确定语音识别引擎22、翻译引擎28、和语音合成引擎34的组合。
例如,当第一说话者输入语音时,引擎确定单元46可以基于其中说话者ID的值为1的终端日志数据的年龄数据、性别数据、和情绪数据,估计第一说话者的属性,诸如年龄、世代、性别、和情绪。基于估计的结果,可以确定第一翻译引擎28和第一语音合成引擎34的组合。在这种情况下,可以以从具有最新时间数据的记录起的顺序,基于预定数量的终端日志数据的记录来估计第一说话者的属性,诸如年龄或世代、性别和情绪。在这种情况下,根据第一说话者的性别和年龄的语音被输出至第二说话者。
当第二说话者输入语音时,引擎确定单元46可以基于其中说话者ID的值为1的终端日志数据的年龄数据、性别数据、和情感数据估计第一说话者的属性,诸如年龄或世代、性别、和情绪。引擎确定单元46可以基于估计的结果确定第二翻译引擎28和第二语音合成引擎34的组合。在这种情况下,响应于第二说话者输入语音,语音合成单元36根据第一说话者的诸如年龄或世代、性别、和情绪的属性合成语音。在这种情况下,可以以从具有最新时间数据的记录起的顺序,基于预定数量的终端日志数据的记录来估计第二说话者的诸如性别和年龄的属性。
以这种方式,响应于第二说话者的语音输入操作,根据作为第二说话者的会话伙伴的第一说话者的诸如年龄或世代、性别、情绪的属性的语音被输出到第一说话者。
例如,假设第一说话者是说英语的女孩,第二说话者是说日语的成年男性。在这种情况下,对于第一说话者而言,如果将女孩而不是成年男性的声音类型和音调的语音输出到第一说话者,可能是期望的。例如,在这种情况下,如果其中合成包括女孩可能知道的相对简单的文字的文本的语音被输出到第一说话者,那么可能是期望的。例如,在上述情况下,响应于第二说话者的语音输入操作,根据第一说话者的诸如年龄或世代、性别、和情绪的属性向第一说话者输出语音会更加有效。
引擎确定单元46可以基于终端日志数据和分析单元44的分析结果的组合来确定语音识别引擎22、翻译引擎28、和语音合成引擎34的组合。
当第一说话者输入语音时,引擎确定单元46可以基于第一说话者的语音输入速度来确定第一翻译引擎28和第一语音合成引擎34中的至少一个。当第一说话者输入语音时,引擎确定单元46可以基于第一说话者的语音的音量来确定第一翻译引擎28和第一语音合成引擎34中的至少一个。当第一说话者输入语音时,引擎确定单元46可以基于第一说话者的语音的声音类型或音调来确定第一翻译引擎28和第一语音合成引擎34中的至少一个。在这方面,可以基于例如分析单元44的分析结果或者具有1作为说话者ID的值的终端日志数据来确定第一说话者的语音的输入速度、音量、声音类型、和音调。
当第一说话者输入语音时,语音合成单元36可以以根据第一说话者的语音的输入速度的速度合成语音。例如,语音合成单元36可合成通过采用等于或多倍于第一说话者的语音输入时间的时间段输出的语音。这样,根据第一说话者的语音的输入速度的速度的语音被输出到第二说话者。
当第一说话者输入语音时,语音合成单元36可以以根据第一说话者的语音的音量的音量合成语音。例如,可以合成第一说话者的语音的相同或预定倍数音量的语音。这使得能够以根据第一说话者的语音的音量的音量向第二说话者输出语音。
当第一说话者输入语音时,语音合成单元36可以合成具有根据第一说话者的声音类型或音调的声音类型或音调的语音。这里,例如,可以合成具有与第一说话者的语音相同的声音类型或音调的语音。例如,可以合成具有与第一说话者的语音相同的频谱的语音。这样,具有根据第一说话者的语音的声音类型或音调的声音类型或音调的语音被输出到第二说话者。
当第二说话者输入语音时,引擎确定单元46可以基于第一说话者的语音的输入速度来确定第二翻译引擎28和第二语音合成引擎34中的至少一个。当第二说话者输入语音时,引擎确定单元46可以基于第一说话者的语音的音量来确定第二翻译引擎28和第二语音合成引擎34中的至少一个。这里,可以基于例如具有1作为说话者ID的值的终端日志数据来确定第一说话者语音的输入速度或音量。
当第二说话者输入语音时,语音合成单元36可以以根据第一说话者的语音的输入速度的音量合成语音。在这方面,例如,语音合成单元36可以合成通过采用等于或多倍于第一说话者的语音输入时间的时间段输出的语音。
以这种方式,响应于第二说话者的语音输入操作,不管第二说话者的语音的输入速度,根据作为第二说话者的会话伙伴的第一说话者的语音的输入速度的速度的语音被输出到第一说话者。换句话说,第一说话者能够以根据第一说话者自己的语音的速度的速度听到语音。
当第二说话者输入语音时,语音合成单元36可以以根据第一说话者的语音的音量的音量合成语音。这里,例如,可以合成与第一说话者的语音的相同或预定倍数音量的语音。
以这种方式,响应于第二说话者的语音输入操作,不管第二说话者的语音的音量,根据作为第二说话者的会话伙伴的第一说话者的语音的音量的音量的语音被输出到第一说话者。换句话说,第一说话者可以以根据第一说话者自己的语音的音量的音量听到语音。
当第二说话者输入语音时,语音合成单元36可以合成具有根据第一说话者的语音的声音类型或音调的声音类型或音调的语音。这里,例如,可以合成具有与第一说话者的语音相同的声音类型或音调的语音。例如,可以合成具有与第一说话者的语音相同的频谱的语音。
这样,响应于第二说话者的语音输入操作,不管第二说话者的语音的声音类型或音调,根据作为第二说话者的会话伙伴的第一说话者的声音类型或音调的声音类型或音调的语音被输出到第一说话者。换句话说,第一说话者能够听到具有根据第一说话者自己的语音的声音类型或音调的声音类型或音调的语音。
响应于第二说话者的语音输入操作,翻译单元30可以确定用于语音识别单元24所生成的文本中包括的翻译目标词的多个翻译候选。翻译单元30可以检查确定的翻译候选的每个,以查看是否存在包含在响应于第一说话者的语音输入操作而生成的文本中的词。这里,例如,翻译单元30可以检查确定的翻译候选的每个,以查看是否存在包含在具有1作为说话者ID值的终端日志数据中的翻译前文本数据或翻译后的文本数据所表示的文本中的词。翻译单元30可以将翻译目标词翻译成被确定为包括在响应于第一说话者的语音输入操作而生成的文本中的词。
以这种方式,由第二说话者的会话伙伴的第一说话者在最近的会话中语音输入的一个词被语音输出,因此会话可以顺利进行而不会不自然。
翻译单元30可以基于由分析单元44估计的主题或场景来确定是否使用技术术语字典来执行翻译处理。
在以上描述中,第一语音识别引擎22、第一翻译引擎28、第一语音合成引擎34、第二语音识别引擎22、第二翻译引擎28、和第二语音合成引擎34不一定一对一地对应于软件模块。例如,第一语音识别引擎22、第一翻译引擎28、和第一语音合成引擎34中的一些可以由单个软件模块来实现。此外,例如,第一翻译引擎28和第二翻译引擎28可以由单个软件模块来实现。
以下,参照图8中的流程图,将描述当第一说话者输入语音时在根据本实施例的服务器10中执行的处理的示例。
语音数据接收单元20从翻译终端12接收分析目标数据(S101)。
随后,分析单元44对在S101中接收到的分析目标数据中包括的翻译前语音数据执行分析处理(S102)。
引擎确定单元46基于例如终端日志数据或者如在S102中描述的执行分析处理的结果来确定第一语音识别引擎22、第一翻译引擎28、和第一语音合成引擎34的组合(S103)。
然后,语音识别单元24执行由在S103中确定的第一语音识别引擎22实现的语音识别处理,以生成表示作为由包括在S101中接收到的分析对象数据中的翻译前语音数据表示的语音的识别结果的文本的翻译前文本数据(S104)。
翻译前文本数据发送单元26将在S104中生成的翻译前文本数据发送到翻译终端12(S105)。这样发送的翻译前文本数据被显示在翻译终端12的显示部12e上。
翻译单元30执行由第一翻译引擎28实现的翻译处理,以生成表示通过将由在S104中生成的翻译前文本数据所表示的文本翻译成第二语言而获得的文本的翻译后文本数据(S106)。
语音合成单元36执行由第一语音合成引擎34实现的语音合成处理,以合成表示由在S106中产生的翻译后文本数据表示的文本的语音(S107)。
日志数据生成单元40然后生成日志数据并将生成的数据存储在日志数据存储单元42中(S108)。这里,例如,可以基于S101中接收到的分析目标数据中包括的元数据、S102中的处理中的分析结果、S104中生成的翻译前文本数据、以及S106中生成的翻译后文本数据来生成日志数据。
然后,语音数据发送单元38将表示在S107中合成的语音的翻译后语音数据发送到翻译终端12,并且翻译后文本数据发送单元32将在S106中生成的翻译后文本数据发送到翻译终端12(S109)。这样发送的翻译后文本数据被显示在翻译终端12的显示部12e上。此外,表示由此发送的翻译后语音数据的语音从翻译终端12的扬声器12g被语音输出。本例中描述的处理过程终止。
当第二说话者输入语音时,在根据本实施例的服务器10中也执行与在图8中的流程图中表示的处理类似的处理。然而,在这种情况下,在S103的处理中确定第二语音识别引擎22、第二翻译引擎28、和第二语音合成引擎34的组合。此外,在S104中,执行由在S103中确定的第二语音识别引擎22实现的语音识别处理。此外,在S106中,执行由第二翻译引擎28实现的翻译处理。此外,在S107中,执行由第二语音合成引擎34实现的语音合成处理。
本发明不限于上述实施例。
例如,服务器10的功能可以由单个服务器来实现或由多个服务器来实现。
例如,语音识别引擎22、翻译引擎28、和语音合成引擎34可以是由服务器10以外的外部服务器提供的服务。引擎确定单元46可以确定其中分别实现语音识别引擎22、翻译引擎28、和语音合成引擎34的一个或多个外部服务器。例如,语音识别单元24可以向由引擎确定单元46确定的外部服务器发送请求,并从外部服务器接收语音识别处理的结果。此外,例如,翻译单元30可以向由引擎确定单元46确定的外部服务器发送请求,并且从外部服务器接收翻译处理的结果。此外,例如,语音合成单元36可以向由引擎确定单元46确定的外部服务器发送请求,并且从外部服务器接收语音合成处理的结果。这里,例如,服务器10可以调用上述服务的API。
例如,引擎确定单元46不需要基于如图6和图7所示的表来确定语音识别引擎22、翻译引擎28、和语音合成引擎34的组合。例如,引擎确定单元46可以使用已学习的机器学习模型来确定语音识别引擎22、翻译引擎28、和语音合成引擎34的组合。
应该注意的是,上述特定字符串和数值以及附图中示出的特定字符串和数值仅仅是示例,并且本发明不限于这些字符串或数值。
Claims (10)
1.一种双向语音翻译系统,执行用于响应于由第一说话者输入第一语言语音,通过将所述第一语言语音翻译成第二语言来合成语音的处理、以及用于响应于第二说话者输入第二语言语音,通过将所述第二语言语音翻译成第一语言来合成语音的处理,所述双向语音翻译系统包括:
第一确定单元,其基于所述第一语言、所述第一说话者输入的所述第一语言语音、所述第二语言、和所述第二说话者输入的所述第二语言语音中的至少一个,确定第一语音识别引擎、第一翻译引擎、和第一语音合成引擎的组合,所述第一语音识别引擎是多个语音识别引擎的一个,所述第一翻译引擎是多个翻译引擎的一个,所述第一语音合成引擎是多个语音合成引擎的一个;
第一语音识别单元,其响应于由所述第一说话者输入所述第一语言语音,执行由所述第一语音识别引擎实现的语音识别处理,以生成作为所述第一语言语音的识别结果的文本;
第一翻译单元,其执行由所述第一翻译引擎实现的翻译处理,以通过将由所述第一语音识别单元生成的所述文本翻译成所述第二语言来生成文本;
第一语音合成单元,其执行由所述第一语音合成引擎实现的语音合成处理,以合成表示由所述第一翻译单元翻译的所述文本的语音;
第二确定单元,其基于所述第一语言、所述第一说话者输入的所述第一语言语音、所述第二语言、和所述第二说话者输入的所述第二语言语音中的至少一个,确定第二语音识别引擎、第二翻译引擎、和第二语音合成引擎的组合,所述第二语音识别引擎是所述多个语音识别引擎的一个,所述第二翻译引擎是所述多个翻译引擎的一个,所述第二语音合成引擎是所述多个语音合成引擎的一个;
第二语音识别单元,其响应于由所述第二说话者输入所述第二语言语音,执行由所述第二语音识别引擎实现的语音识别处理,以生成作为所述第二语言语音的识别结果的文本;
第二翻译单元,其执行由所述第二翻译引擎实现的翻译处理,以通过将由所述第二语音识别单元生成的所述文本翻译成所述第一语言来生成文本;以及
第二语音合成单元,其执行由所述第二语音合成引擎实现的语音合成处理,以合成表示由所述第二翻译单元翻译的所述文本的语音。
2.根据权利要求1所述的双向语音翻译系统,其中,
所述第一语音合成单元根据基于由所述第一说话者输入的语音的特征量估计的所述第一说话者的年龄、世代、和性别中的至少一个来合成语音。
3.根据权利要求1或2所述的双向语音翻译系统,其中,
所述第一语音合成单元根据基于由所述第一说话者输入的语音的特征量估计的所述第一说话者的情绪来合成语音。
4.根据权利要求1所述的双向语音翻译系统,其中,
所述第二语音合成单元根据基于由所述第一说话者输入的语音的特征量估计的所述第一说话者的年龄、世代、和性别中的至少一个来合成语音。
5.根据权利要求1至4中任一项所述的双向语音翻译系统,其中,
所述第二翻译单元:
确定包括在由所述第二语音识别单元生成的所述文本中的翻译目标词的多个翻译候选,
检查所述多个翻译候选以查看每个所述翻译候选是否被包括在由所述第一翻译单元生成的所述文本中,以及
将所述翻译目标词翻译成被确定为包括在由所述第一翻译单元生成的所述文本中的词。
6.根据权利要求1至5中任一项所述的双向语音翻译系统,其中,
所述第一语音合成单元合成具有根据所述第一说话者的所述第一语言语音的输入速度的速度的语音,或具有根据所述第一说话者的所述第一语言语音的音量的音量的语音。
7.根据权利要求1至5中任一项所述的双向语音翻译系统,其中,
所述第二语音合成单元合成具有根据所述第一说话者的所述第一语言语音的输入速度的速度的语音,或具有根据所述第一说话者的所述第一语言语音的音量的音量的语音。
8.根据权利要求1至7中任一项所述的双向语音翻译系统,包括终端,该终端接收由所述第一说话者进行的第一语言语音的输入,输出通过将所述第一语言语音翻译成所述第二语言获得的语音,接收由所述第二说话者进行的第二语言语音的输入,并输出通过将所述第二语言语音翻译成所述第一语言获得的语音,其中,
所述第一确定单元基于所述终端的位置确定所述第一语音识别引擎、所述第一翻译引擎、和所述第一语音合成引擎的所述组合,以及所述第二确定单元基于所述终端的位置确定所述第二语音识别引擎、所述第二翻译引擎、和所述第二语音合成引擎的所述组合。
9.一种双向语音翻译方法,执行用于响应于由第一说话者输入第一语言语音,通过将所述第一语言语音翻译成第二语言来合成语音的处理、以及用于响应于由第二说话者输入第二语言语音,通过将所述第二语言语音翻译成第一语言来合成语音的处理,所述双向语音翻译方法包括:
第一确定步骤,其基于所述第一语言、所述第一说话者输入的所述第一语言语音、所述第二语言、和所述第二说话者输入的所述第二语言语音中的至少一个,确定第一语音识别引擎、第一翻译引擎、和第一语音合成引擎的组合,所述第一语音识别引擎是多个语音识别引擎的一个,所述第一翻译引擎是多个翻译引擎的一个,所述第一语音合成引擎是多个语音合成引擎的一个;
第一语音识别步骤,其响应于由所述第一说话者输入所述第一语言语音,执行由所述第一语音识别引擎实现的语音识别处理,以生成作为所述第一语言语音的识别结果的文本;
第一翻译步骤,其执行由所述第一翻译引擎实现的翻译处理,以通过将在所述第一语音识别步骤中生成的所述文本翻译成所述第二语言来生成文本;
第一语音合成步骤,其执行由所述第一语音合成引擎实现的语音合成处理,以合成表示在所述第一翻译步骤中翻译的所述文本的语音;
第二确定步骤,其基于所述第一语言、所述第一说话者输入的所述第一语言语音、所述第二语言、和所述第二说话者输入的所述第二语言语音中的至少一个,确定第二语音识别引擎、第二翻译引擎、和第二语音合成引擎的组合,所述第二语音识别引擎是所述多个语音识别引擎的一个,所述第二翻译引擎是所述多个翻译引擎的一个,所述第二语音合成引擎是所述多个语音合成引擎的一个;
第二语音识别步骤,其响应于由所述第二说话者输入所述第二语言语音,执行由所述第二语音识别引擎实现的语音识别处理,以生成作为所述第二语言语音的识别结果的文本;
第二翻译步骤,其执行由所述第二翻译引擎实现的翻译处理,以通过将在所述第二语音识别步骤中生成的所述文本翻译成所述第一语言来生成文本;以及
第二语音合成步骤,其执行由所述第二语音合成引擎实现的语音合成处理,以合成表示在所述第二翻译步骤中翻译的所述文本的语音。
10.一种程序,使计算机执行用于响应于由第一说话者输入第一语言语音,通过将所述第一语言语音翻译成第二语言来合成语音的处理、以及用于响应于第二说话者输入第二语言语音,通过将所述第二语言语音翻译成第一语言来合成语音的处理,所述计算机执行:
第一确定处理,其基于所述第一语言、所述第一说话者输入的所述第一语言语音、所述第二语言、和所述第二说话者输入的所述第二语言语音中的至少一个,确定第一语音识别引擎、第一翻译引擎、和第一语音合成引擎的组合,所述第一语音识别引擎是多个语音识别引擎的一个,所述第一翻译引擎是多个翻译引擎的一个,所述第一语音合成引擎是多个语音合成引擎的一个;
第一语音识别处理,其响应于由所述第一说话者输入所述第一语言语音,执行由所述第一语音识别引擎实现的语音识别处理,以生成作为所述第一语言语音的识别结果的文本;
第一翻译处理,其执行由所述第一翻译引擎实现的翻译处理,以通过将在所述第一语音识别处理中生成的所述文本翻译成所述第二语言来生成文本;
第一语音合成处理,其执行由所述第一语音合成引擎实现的语音合成处理,以合成表示在所述第一翻译处理中翻译的所述文本的语音;
第二确定处理,其基于所述第一语言、所述第一说话者输入的所述第一语言语音、所述第二语言、和所述第二说话者输入的所述第二语言语音中的至少一个,确定第二语音识别引擎、第二翻译引擎、和第二语音合成引擎的组合,所述第二语音识别引擎是所述多个语音识别引擎的一个,所述第二翻译引擎是所述多个翻译引擎的一个,所述第二语音合成引擎是所述多个语音合成引擎的一个;
第二语音识别处理,其响应于由所述第二说话者输入所述第二语言语音,执行由所述第二语音识别引擎实现的语音识别处理,以生成作为所述第二语言语音的识别结果的文本;
第二翻译处理,其执行由所述第二翻译引擎实现的翻译处理,以通过将在所述第二语音识别处理中生成的所述文本翻译成所述第一语言来生成文本;以及
第二语音合成处理,其执行由所述第二语音合成引擎实现的语音合成处理,以合成表示在所述第二翻译处理中翻译的所述文本的语音。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2017/043792 WO2019111346A1 (ja) | 2017-12-06 | 2017-12-06 | 双方向音声翻訳システム、双方向音声翻訳方法及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110149805A true CN110149805A (zh) | 2019-08-20 |
Family
ID=66750988
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780015619.1A Pending CN110149805A (zh) | 2017-12-06 | 2017-12-06 | 双向语音翻译系统、双向语音翻译方法和程序 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20200012724A1 (zh) |
JP (2) | JPWO2019111346A1 (zh) |
CN (1) | CN110149805A (zh) |
TW (1) | TW201926079A (zh) |
WO (1) | WO2019111346A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112818704A (zh) * | 2021-01-19 | 2021-05-18 | 传神语联网网络科技股份有限公司 | 基于线程间共识反馈的多语种翻译系统与方法 |
CN113035239A (zh) * | 2019-12-09 | 2021-06-25 | 上海航空电器有限公司 | 一种汉英双语跨语言情感语音合成装置 |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP1621612S (zh) * | 2018-05-25 | 2019-01-07 | ||
US11195507B2 (en) * | 2018-10-04 | 2021-12-07 | Rovi Guides, Inc. | Translating between spoken languages with emotion in audio and video media streams |
JP1654970S (zh) * | 2019-02-27 | 2020-03-16 | ||
US11100928B2 (en) * | 2019-05-14 | 2021-08-24 | Language Line Services, Inc. | Configuration for simulating an interactive voice response system for language interpretation |
US11082560B2 (en) * | 2019-05-14 | 2021-08-03 | Language Line Services, Inc. | Configuration for transitioning a communication from an automated system to a simulated live customer agent |
CN110610720B (zh) * | 2019-09-19 | 2022-02-25 | 北京搜狗科技发展有限公司 | 一种数据处理方法、装置和用于数据处理的装置 |
CN113450785B (zh) * | 2020-03-09 | 2023-12-19 | 上海擎感智能科技有限公司 | 车载语音处理的实现方法、系统、介质及云端服务器 |
JP7160077B2 (ja) * | 2020-10-26 | 2022-10-25 | 日本電気株式会社 | 音声処理装置、音声処理方法、システム、およびプログラム |
CN112818705B (zh) * | 2021-01-19 | 2024-02-27 | 传神语联网网络科技股份有限公司 | 基于组间共识的多语种语音翻译系统与方法 |
CN113053389A (zh) * | 2021-03-12 | 2021-06-29 | 云知声智能科技股份有限公司 | 一键切换语种的语音交互系统、方法和电子设备 |
US12067370B2 (en) * | 2021-06-08 | 2024-08-20 | Sap Se | Detection of abbreviation and mapping to full original term |
JP7164793B1 (ja) | 2021-11-25 | 2022-11-02 | ソフトバンク株式会社 | 音声処理システム、音声処理装置及び音声処理方法 |
JP2024093743A (ja) | 2022-12-27 | 2024-07-09 | ポケトーク株式会社 | 翻訳エンジン評価システム及び翻訳エンジン評価方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1498014A (zh) * | 2002-10-04 | 2004-05-19 | ������������ʽ���� | 移动终端 |
US20120221321A1 (en) * | 2009-10-21 | 2012-08-30 | Satoshi Nakamura | Speech translation system, control device, and control method |
US20120265518A1 (en) * | 2011-04-15 | 2012-10-18 | Andrew Nelthropp Lauder | Software Application for Ranking Language Translations and Methods of Use Thereof |
CN105912532A (zh) * | 2016-04-08 | 2016-08-31 | 华南师范大学 | 基于地理位置信息的语言翻译方法及系统 |
CN106156011A (zh) * | 2016-06-27 | 2016-11-23 | 安徽声讯信息技术有限公司 | 一种自动侦测当前地理位置并转化当地语言的翻译装置 |
US20170116186A1 (en) * | 2015-10-23 | 2017-04-27 | Panasonic Intellectual Property Management Co., Ltd. | Translation device and translation system |
CN107306380A (zh) * | 2016-04-20 | 2017-10-31 | 中兴通讯股份有限公司 | 一种移动终端自动识别语音翻译的目标语言的方法及装置 |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7668718B2 (en) * | 2001-07-17 | 2010-02-23 | Custom Speech Usa, Inc. | Synchronized pattern recognition source data processed by manual or automatic means for creation of shared speaker-dependent speech user profile |
JP3617826B2 (ja) * | 2001-10-02 | 2005-02-09 | 松下電器産業株式会社 | 情報検索装置 |
JP5002271B2 (ja) * | 2007-01-18 | 2012-08-15 | 株式会社東芝 | 入力された原言語文を目的言語に機械翻訳する装置、方法およびプログラム |
JP2009139390A (ja) * | 2007-12-03 | 2009-06-25 | Nec Corp | 情報処理システム、処理方法及びプログラム |
US8862478B2 (en) * | 2009-10-02 | 2014-10-14 | National Institute Of Information And Communications Technology | Speech translation system, first terminal apparatus, speech recognition server, translation server, and speech synthesis server |
US8731932B2 (en) * | 2010-08-06 | 2014-05-20 | At&T Intellectual Property I, L.P. | System and method for synthetic voice generation and modification |
EP2842055B1 (en) * | 2012-04-25 | 2018-06-27 | Kopin Corporation | Instant translation system |
US8996352B2 (en) * | 2013-02-08 | 2015-03-31 | Machine Zone, Inc. | Systems and methods for correcting translations in multi-user multi-lingual communications |
US9430465B2 (en) * | 2013-05-13 | 2016-08-30 | Facebook, Inc. | Hybrid, offline/online speech translation system |
US9396437B2 (en) * | 2013-11-11 | 2016-07-19 | Mera Software Services, Inc. | Interface apparatus and method for providing interaction of a user with network entities |
US9183831B2 (en) * | 2014-03-27 | 2015-11-10 | International Business Machines Corporation | Text-to-speech for digital literature |
DE102014114845A1 (de) * | 2014-10-14 | 2016-04-14 | Deutsche Telekom Ag | Verfahren zur Interpretation von automatischer Spracherkennung |
US9542927B2 (en) * | 2014-11-13 | 2017-01-10 | Google Inc. | Method and system for building text-to-speech voice from diverse recordings |
US9697201B2 (en) * | 2014-11-24 | 2017-07-04 | Microsoft Technology Licensing, Llc | Adapting machine translation data using damaging channel model |
US20160170970A1 (en) * | 2014-12-12 | 2016-06-16 | Microsoft Technology Licensing, Llc | Translation Control |
RU2632424C2 (ru) * | 2015-09-29 | 2017-10-04 | Общество С Ограниченной Ответственностью "Яндекс" | Способ и сервер для синтеза речи по тексту |
KR102525209B1 (ko) * | 2016-03-03 | 2023-04-25 | 한국전자통신연구원 | 원시 발화자의 목소리와 유사한 특성을 갖는 합성음을 생성하는 자동 통역 시스템 및 그 동작 방법 |
US9978367B2 (en) * | 2016-03-16 | 2018-05-22 | Google Llc | Determining dialog states for language models |
JP6383748B2 (ja) * | 2016-03-30 | 2018-08-29 | 株式会社リクルートライフスタイル | 音声翻訳装置、音声翻訳方法、及び音声翻訳プログラム |
DK179049B1 (en) * | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US10162844B1 (en) * | 2017-06-22 | 2018-12-25 | NewVoiceMedia Ltd. | System and methods for using conversational similarity for dimension reduction in deep analytics |
-
2017
- 2017-12-06 CN CN201780015619.1A patent/CN110149805A/zh active Pending
- 2017-12-06 WO PCT/JP2017/043792 patent/WO2019111346A1/ja active Application Filing
- 2017-12-06 JP JP2017563628A patent/JPWO2019111346A1/ja active Pending
- 2017-12-06 US US15/780,628 patent/US20200012724A1/en not_active Abandoned
-
2018
- 2018-10-08 TW TW107135462A patent/TW201926079A/zh unknown
-
2022
- 2022-11-22 JP JP2022186646A patent/JP2023022150A/ja active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1498014A (zh) * | 2002-10-04 | 2004-05-19 | ������������ʽ���� | 移动终端 |
US20120221321A1 (en) * | 2009-10-21 | 2012-08-30 | Satoshi Nakamura | Speech translation system, control device, and control method |
US20120265518A1 (en) * | 2011-04-15 | 2012-10-18 | Andrew Nelthropp Lauder | Software Application for Ranking Language Translations and Methods of Use Thereof |
US20170116186A1 (en) * | 2015-10-23 | 2017-04-27 | Panasonic Intellectual Property Management Co., Ltd. | Translation device and translation system |
CN105912532A (zh) * | 2016-04-08 | 2016-08-31 | 华南师范大学 | 基于地理位置信息的语言翻译方法及系统 |
CN107306380A (zh) * | 2016-04-20 | 2017-10-31 | 中兴通讯股份有限公司 | 一种移动终端自动识别语音翻译的目标语言的方法及装置 |
CN106156011A (zh) * | 2016-06-27 | 2016-11-23 | 安徽声讯信息技术有限公司 | 一种自动侦测当前地理位置并转化当地语言的翻译装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113035239A (zh) * | 2019-12-09 | 2021-06-25 | 上海航空电器有限公司 | 一种汉英双语跨语言情感语音合成装置 |
CN112818704A (zh) * | 2021-01-19 | 2021-05-18 | 传神语联网网络科技股份有限公司 | 基于线程间共识反馈的多语种翻译系统与方法 |
CN112818704B (zh) * | 2021-01-19 | 2024-04-02 | 传神语联网网络科技股份有限公司 | 基于线程间共识反馈的多语种翻译系统与方法 |
Also Published As
Publication number | Publication date |
---|---|
WO2019111346A1 (ja) | 2019-06-13 |
TW201926079A (zh) | 2019-07-01 |
JPWO2019111346A1 (ja) | 2020-10-22 |
JP2023022150A (ja) | 2023-02-14 |
US20200012724A1 (en) | 2020-01-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110149805A (zh) | 双向语音翻译系统、双向语音翻译方法和程序 | |
KR102474941B1 (ko) | 발언 분류기 | |
KR102514990B1 (ko) | 뉴럴 네트워크들을 사용하여 대상 화자의 음성으로 텍스트로부터의 스피치의 합성 | |
US11514886B2 (en) | Emotion classification information-based text-to-speech (TTS) method and apparatus | |
CN105489221B (zh) | 一种语音识别方法及装置 | |
CN205647778U (zh) | 一种智能会议系统 | |
CN110049270A (zh) | 多人会议语音转写方法、装置、系统、设备及存储介质 | |
CN1946065B (zh) | 通过可听信号来注释即时消息的方法和系统 | |
US20130144619A1 (en) | Enhanced voice conferencing | |
US20100217591A1 (en) | Vowel recognition system and method in speech to text applictions | |
US20150046164A1 (en) | Method, apparatus, and recording medium for text-to-speech conversion | |
CN111583944A (zh) | 变声方法及装置 | |
CN111508511A (zh) | 实时变声方法及装置 | |
TW201214413A (en) | Modification of speech quality in conversations over voice channels | |
CN111919249A (zh) | 词语的连续检测和相关的用户体验 | |
KR20150017662A (ko) | 텍스트-음성 변환 방법, 장치 및 저장 매체 | |
US20220231873A1 (en) | System for facilitating comprehensive multilingual virtual or real-time meeting with real-time translation | |
JP2013195823A (ja) | 対話支援装置、対話支援方法および対話支援プログラム | |
CN108073572A (zh) | 信息处理方法及其装置、同声翻译系统 | |
CN107731232A (zh) | 语音翻译方法和装置 | |
KR102312993B1 (ko) | 인공신경망을 이용한 대화형 메시지 구현 방법 및 그 장치 | |
CN111147914A (zh) | 一种视频处理的方法、存储介质及电子设备 | |
JPWO2011122522A1 (ja) | 感性表現語選択システム、感性表現語選択方法及びプログラム | |
CN113299309A (zh) | 语音翻译方法及装置、计算机可读介质和电子设备 | |
CN111968630B (zh) | 信息处理方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20220513 Address after: Tokyo Tokyo Port Area, Japan, No. 2, No. 5, Item 5, Dongxinqiao Applicant after: Boketuoke Co.,Ltd. Address before: Tokyo Tokyo Port Area, Japan, No. 2, No. 5, Item 5, Dongxinqiao Applicant before: SOURCENEXT Corp. |
|
TA01 | Transfer of patent application right |