CN104462070A - 语音翻译系统和语音翻译方法 - Google Patents
语音翻译系统和语音翻译方法 Download PDFInfo
- Publication number
- CN104462070A CN104462070A CN201410471705.1A CN201410471705A CN104462070A CN 104462070 A CN104462070 A CN 104462070A CN 201410471705 A CN201410471705 A CN 201410471705A CN 104462070 A CN104462070 A CN 104462070A
- Authority
- CN
- China
- Prior art keywords
- voice
- speech
- language
- volume
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 31
- 238000013519 translation Methods 0.000 claims abstract description 171
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 31
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 31
- RZVAJINKPMORJF-UHFFFAOYSA-N Acetaminophen Chemical compound CC(=O)NC1=CC=C(O)C=C1 RZVAJINKPMORJF-UHFFFAOYSA-N 0.000 claims description 52
- 230000001105 regulatory effect Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 3
- 230000001360 synchronised effect Effects 0.000 description 3
- 238000004590 computer program Methods 0.000 description 2
- 230000003111 delayed effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 201000006549 dyspepsia Diseases 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 229910052595 hematite Inorganic materials 0.000 description 1
- 239000011019 hematite Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- LIKBJVNGSGBSGK-UHFFFAOYSA-N iron(3+);oxygen(2-) Chemical compound [O-2].[O-2].[O-2].[Fe+3].[Fe+3] LIKBJVNGSGBSGK-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/58—Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
第一语音输入设备捕获第一语言的语音。第一语音输出设备输出第一语言的另一个语音。第二语音输入设备捕获第二语言的语音。第二语音输出设备输出第二语言的另一个语音。在语音识别/翻译服务器中,第一语音识别设备接收来自第一语音输入设备的第一语言的第一发言语音,并识别该第一发言语音。第一机器翻译设备连续地将识别结果的第一语言翻译为第二语言而无需等待所述第一发言语音完成。第一语音合成设备生成翻译结果的第二语音。通过调节第一发言语音的音量至小于第二语音的音量,第一输出调节设备将第一发言语音和第二语音输出至第二语音输出设备。
Description
技术领域
此处描述的实施例一般地涉及语音翻译系统和语音翻译方法。
背景技术
语音翻译系统的实际应用正在不断进步。例如,NTT DOCOMO有限公司于2012年启动的语音翻译服务,如“hematite honyaku”。该服务不仅支持面对面的语音翻译服务,还支持非面对面的语音翻译服务。在面对面的语音翻译服务中,两个用户通常利用一个语音翻译终端,并且两个用户共同面对的交谈受到语音翻译的影响。此外,在非面对面语音翻译服务中,两个位于远程的用户通过诸如电话的呼叫设备进行的对话受到语音翻译的影响。
面对面语音翻译服务中,在通常由两个用户拥有的语音翻译终端上会为两个用户各自的语言准备发言开始按钮和发言完成按钮。当两个说不同的语言(例如,日语、英语)的用户以各自的语言交谈时——在按下开始按钮之后——两个用户以各自的语言进行发言。然后,当两个用户中的第一用户完成发言时,该第一用户按下发言完成按钮。此处,作为所述发言完成按钮的替代,第一用户的发言可通过对安静间隙进行检测自动完成。
因此,语音翻译终端的屏幕上语音识别结果和翻译结果被显示为字符串。此外,该翻译结果被作为语音通过另一方(两个用户中的第二用户)的扬声器输出。现在,注视着屏幕的第二用户以相同的方式操作进行发言。在这里,翻译结果被通过第一用户的扬声器输出。这样,通过重复相同的操作,两个用户可以通过语音翻译终端进行交谈。
在非面对面语音翻译服务中,第一用户A进行比如[按下发言开始按钮]->[发言]->[按下发言完成按钮]操作。在这种情况下,第二用户B(另一方)可通过电话听到诸如[用户A按下发言开始按钮发出的通知音“噼!”]->[用户A的发言]->[用户A按下发言完成按钮发出的通知音“噼!”]->[翻译结果的语音]。随后,通过相互重复该操作,可以执行通过语音翻译的交谈。
在该语音翻译装置中,在一个用户的发言完成之后,通过显示器或扬声器输出语音翻译结果。因此,与通过常规交谈进行的交流相比较,另一个用户需要很长的时间来理解该用户的意图。
为了解决该问题,下述参考文献中提出了面对面同步翻译系统。
(参考文献1)JP公开号2002-27039
(参考文献2)“Evaluation of a Simultaneous Interpretation Systemfor Continuous-Speech Conversation”,Information Processing Society ofJapan(IPSJ)SIG technical reports,2013-HCI-151(17),1-99,2013-01-25
在面对面同步翻译系统中,在两个用户正在进行发言的同时,自动地检测其中的翻译单元,并且根据用户的发言显示翻译结果。在这种情况下将无需等待用户发言的完成即通知翻译结果。因此,一个用户理解另一个用户的意图所需的必要时间被减少了,并且用户们可以流畅地进行交流。
设想在同步语音翻译系统中的面对面语音翻译服务。即使在发言的同时连续地显示翻译结果,没有问题发生。但是,在应用了同步语音翻译系统的非面对面语音翻译服务中,当(连续翻译的)翻译结果的语音与讲话者(用户A)的原始语音相叠加进行输出时,对于倾听者(用户B)而言难以听到翻译结果的语音。
为了解决该问题,如果翻译结果的语音在讲话者的发言完成之后输出,倾听者可轻易地听到该翻译的语音。但是,在该方法中,对于倾听者而言花费了大量的时间来理解讲话者的意图。结果是,用户A与B之间的交流不能被流畅的实现。
此外,可考虑不输出讲话者的原始语音而是输出翻译结果的语音以避免语音的叠加的方法。在该方法中,倾听者仅听到翻译结果的语音而听不到讲话者的原始语音。这样,对于倾听者而言难以与发言时序同步。例如,当翻译结果的语音中顿时,有两种情况被考虑。作为第一情况,在讲话者的发言被完成之后,其处于等待倾听者的发言的情况。作为第二情况,讲话者持续地进行具有中顿的发言。由于两个用户(讲话者和倾听者)处于远距离的位置,对于他们来说难以理解他们的发言是上述两个情况下的哪一个。因而他们的交谈是不流畅的。
发明内容
实施例提供的语音翻译系统和语音翻译方法能够轻易地同步用户之间的相互发言时序并使他们之间能够流畅地进行交流。
根据一个实施例,语音翻译系统包括第一语音装置,第二语音装置,以及语音识别/翻译服务器。第一语音装置包括至少捕获第一语言的语音的第一语音输入设备,和输出第一语言的另一个语音的第一语音输出设备。第二语音装置包括至少捕获第二语言的语音的第二语音输入设备,和输出第二语言的另一个语音的第二语音输出设备。语音识别/翻译服务器执行第一语音装置与第二语音装置之间的语音翻译。该服务器包括第一语音识别设备、第一机器翻译设备、第一语音合成设备、以及第一输出调节设备。第一语音识别设备接收来自第一语音输入设备的第一语言的第一发言语音,并且识别该第一发言语音。第一机器翻译设备持续地将识别结果的第一语音翻译为第二语言而无需等待第一发言语音完成。第一语音合成设备生成翻译结果的第二语音。通过调节第一发言语音的音量调节至小于第二语音的音量,第一输出调节设备第一发言语音和第二语音输出至第二语音输出设备。
根据实施例,可以被提供的语音翻译系统和语音翻译方法能够轻易地同步用户之间的相互发言时序并且能够使他们之间流畅地进行交流。
附图说明
图1为根据多个实施例的语音翻译系统全部组件的示意图。
图2为语音翻译系统的主体部分的组件的框图。
图3为根据第一实施例的第二输出调节设备运行的流程图。
图4为根据第一实施例的输出语音的时序图。
图5为根据第二实施例的第二输出调节设备运行的流程图。
图6为根据第二实施例的输出语音的时序图。
图7为根据第三实施例的第二输出调节设备运行的流程图。
图8为根据第三实施例的输出语音的时序图。
具体实施方式
图1为根据本实施例的语音翻译系统的全部组件的示意图。用户终端A(100)为第一语音设备。作为用户终端A(100),便携式外壳配备了扬声器111、显示器112、麦克风113、以及语音输入按钮114。类似地,用户终端B(200)为第二语音设备。作为用户终端B(200),便携式外壳配备了扬声器211、显示器212、麦克风213、以及语音输入按钮214。扬声器111和211通过语音输出(来自该设备的)翻译结果。显示器112和212显示语音识别结果和翻译结果。麦克风113和213捕获用户的发言语音。语音输入按钮114和214指示开始捕获所述发言语音。
用户终端A(100)和用户终端B(200)通过网络300上的语音识别/翻译服务器400相互连接。通过该连接,提供利用便携式电子设备如智能手机的语音翻译系统。网络300可能是任何无线通信和有线通信。而且,本实施例的语音翻译系统不限于图1的组件。例如,该系统可被施加至使用个人计算机的电视会议系统。
(第一实施例)
图2为根据第一实施例的语音翻译系统的主要组件的框图。
在该语音翻译系统中,对于说第一语言(如日语)的用户A和说第二语言(如英语)的用户B,在他们之间执行语音翻译。为了处于远程的用户A和B进行双向的交谈,用户终端A(100)配备了第一语音输入设备110和第一语音输出设备120。类似地,用户终端B(200)配备了第二语音输入设备230和第二语音输出设备240。第一语音输入设备110等效于图1中的麦克风113,并且第一语音输出设备120等价于图1中的扬声器111。此外,第二语音输入设备230等效于图1中的麦克风213,并且第二语音输出设备240等效于图1中的扬声器211。
(安装在两个终端之间的网络上的)语音识别/翻译服务器400包括两个语音翻译装置401和402、第一输出调节设备470、第二输出调节装置480、以及控制设备490。
语音翻译装置401包括第一语音识别设备410、第一机器翻译设备430、以及第一语音合成设备450。语音翻译装置401识别接收到的第一语音,并且输出翻译结果的第二语音。此外,语音翻译装置402包括第二语音识别设备420、第二机器翻译设备440、以及第二语音合成设备460。语音翻译装置402识别接收到的第二语音,并且输出翻译结果的第一语音。在下文中将阐述处理的细节。
第一语音识别设备410接收并捕获发送自用户终端A(100)的第一语音输入设备110的第一语言的语音。第一机器翻译设备430将(通过第一语音识别设备410识别的)第一语言的语音识别结果参考翻译字典(图2中未示出)翻译为第二语言,并且将该翻译结果输出至第一语音合成设备450。第一语音合成设备450生成(第一机器翻译设备430输出的)第二语言的所述翻译结果的语音合成信号,并将该语音合成信号输出至用户终端B(200)的第二语音输出设备240。
另一方面,第二语音识别设备420接收并捕获发送自用户终端B(200)的第二语音输入设备230的第二语言的语音。第二机器翻译设备440将(第二语音识别设备420识别的)第二语言的语音识别结果参考翻译字典(在图2中未示出)翻译为第一语言,并将该翻译结果输出至第二语音合成设备460。第二语音合成设备460生成第一语言的所述翻译结果(自第二机器翻译设备440输入)的语音合成信号,并将该语音合成信号输出至用户终端A(100)的第一语音输出设备120。
此处,来自第一机器翻译设备430的翻译结果被输出至第一语音合成设备450。然而,该翻译结果可被输出至第二语音合成设备460。类似地,来自第二机器翻译设备440的翻译结果被输出至第二语音合成设备460。然而,该翻译结果可被输出至第一语音合成设备450。
第一输出调节设备470调节第二语言的发言语音的音量和第一语言的语音合成信号(输出自第二语音合成设备460)的音量。类似地,第二输出调节设备480调节第一语言的发言语音的音量和第二语言的语音合成信号(输出自第一语音合成设备450)的音量。控制设备490控制所有这些设备的时间设置。而且,用户终端A(100)、用户终端B(200)、以及语音识别/翻译服务器400均配备了通信设备(图2中未示出)以执行网络通信。
然后,将说明第一实施例的语音翻译系统的操作。
首先,当用户A开始以第一语言(例如日语)进行发言时,用户终端A(100)的第一语音输入设备110捕获发言语音。来自第一语音输入设备110的第一语音穿过网络上的语音识别/翻译服务器400并通过降低该第一语音的音量被发送至用户终端B(200)的第二语音输出设备240。
同时,在语音识别/翻译服务器400中,第一语音识别设备410识别(接收自第一语音输入设备110的)第一语音的发言语音,并将语音识别结果输出至第一机器翻译设备430。第一机器翻译设备430将第一语言的语音识别结果翻译为第二语言(例如,英语),并将该翻译结果输出至第一语音合成设备450。在这种情况下,例如,通过参考文献2中所描述的方法,不论何时自动地检测到翻译单元,连续地生成翻译结果的第二语音,即使用户A还正在进行发言。第一语音合成设备450生成翻译结果的第二语音合成信号。第二输出调节设备480调节该第二语音合成信号的音量。因此,用户A发言的第一语言通过语音识别/翻译服务器400被翻译为第二语言。该(具有被第二输出调节设备480调节过的音量的)翻译结果的语音被输出至用户终端B(200)的第二语音输出设备240,并被用户B听到。
以同样的方式,当用户B开始以第二语言(例如英语)进行发言时,用户终端B(200)的第二语音输入设备230捕获该发言语音。来自第二语音输入设备230的第二语音经过网络上的语音识别/翻译服务器400,并通过降低第一语音的音量被发送至用户终端A(100)的第一语音输出设备120。
同时,在语音识别/翻译服务器400中,第二语音识别设备420识别第二语言的发言语音(接收自第二语音输入设备230),并输出该语音识别结果至第二机器翻译设备440。第二机器翻译设备440将第二语言的语音识别结果翻译为第一语言(例如日语),并将该翻译结果输出至第二语音合成设备460。在这种情况下,例如,通过如参考文献2所描述的方法,不论何时自动地检测到翻译单元,连续地生成翻译结果的第一语音,即使用户B还正在发言。第二语音合成设备460生成翻译结果的第一语音合成信号。第一输出调节设备470调节该第一语音合成信号的音量。因此,用户B发言的第二语言被语音识别/翻译服务器400翻译为第一语言。该翻译结果的语音(具有被第一输出调节设备470调节过的音量)被输出至用户终端A(100)的第一语音输出设备120,并被用户A听到。
图3为第二输出调节设备480在用户A向第一语音输入设备110发言时的操作的流程图。此外,第一输出调节设备470实施与图3相同的操作。
当第二输出调节设备480通过网络接收来自第一语音输入设备110的第一语音的发言(例如日语)(S300)时,第二输出调节设备480降低第一语音的音量,并通过网络输出第一语音(具有降低了的音量)至用户终端B的第二语音输出设备240(S310)。
第一语音识别单元410识别第一语音的发言。响应于识别结果,第一机器翻译设备430持续地生成具有轻微延迟的翻译结果。随后,第一语音合成设备450生成该翻译结果的第二语音(例如英语)。之后,检查第一语音合成设备450中是否存在该翻译结果的第二语音(S320)。如果存在该翻译结果的第二语音,第二输出调节设备480调节使第一语言的第一语音的音量小于翻译结果的第二语音(由第一语音合成设备450生成)的音量,并输出该第二语音(具有调节过的音量)至用户终端B(200)。在用户终端B(200)中,第二语音输出设备240接收第一语音(发言的语音)和第二语音(翻译结果),并输出以使用户B从扬声器中听到(S330)。此处,第一语音的音量被调节至较小。在S330之后,或者在S320中如果不存在第二语音,返回处理,并等待下一个语音输入。
在该操作中,通过伴随着具有轻微延迟的第一语言(例如日语)的发言语音(具有小的音量),用户B可听到与其相叠加的第二语言(例如英语)的翻译结果的第二语音(具有较大的音量)。
结果,用户B可听到用户A的第一语言的发言语音。相应地,用户B可自然地察觉到用户A通过停止用户A的发言来等待用户B的发言。此外,第一语言的发言语音的音量小于翻译结果的第二语音的音量。因此,用户B可听到翻译结果的第二语音同时不受到由第一语言的发言所导致的干扰,并且可以理解用户A的发言的内容。结果是,用户B在轮到他/她时可快速地开始发言,并且两个用户A与B之间的交谈可以流畅地执行。
以同样的方式,当用户B开始发言时,实施上述操作相反方向的处理。简单地说,当第一输出调节设备470通过网络接收来自第二语音输入设备230的第二语音的发言(例如英语)时(对应于S300),第一输出调节设备470降低第二语音的音量,并通过网络将第二语音(具有降低了的音量)输出至用户终端A的第一语音输出设备120(对应于S310)。
第二语音识别单元420识别第二语音的发言。响应于识别结果,第二机器翻译设备440持续地生成具有轻微延迟的翻译结果。随后,第二语音合成设备460生成翻译结果的第一语音(例如日语)。之后,检查第二语音合成设备460中是否存在该翻译结果的第一语音(对应于S320)。如果存在翻译结果的第一语音,第一输出调节设备470调节使第二语言的第二语音的音量小于翻译结果的第一语音(由第二语音合成设备460生成)的音量,并将该第一语音(具有调节过的音量)输出至用户终端A(100)。在用户终端A(100)中,第一语音输出设备120接收第二语音(发言语音)和第一语音(翻译结果),并输出以便使用户A从扬声器中听取(对应于S330)。此处,第二语音的音量被调节至较小。
在该操作中,通过伴随着具有轻微延迟的第二语言(例如英语)的发言语音(具有小的音量),用户A可听到与其相叠加的第一语言(例如日语)的翻译结果的第一语音(具有较大的音量)。
因此,用户A可听到用户B的第二语言的发言语音。因而,用户A可自然地察觉用户B通过停止用户B的发言来等待用户A的发言。此外,第二语言的发言语音的音量小于翻译结果的第一语音的音量。因此,用户A可听到翻译结果的第一语音同时不会受到由第二语言的发言引起的干扰。结果是,用户A可在轮到他/她时快速地开始发言,并且两个用户A与B之间的交谈可以流畅地执行。
图4示出了沿时间轴表示的(在第一实施例的语音翻译系统中)输出语音。在用户A发言的语音(日语1)被翻译并且该翻译结果的语音被提供给用户B的案例中,第二输出调节设备480将第一语言的发言语音(日语1)的音量调节至较小,并将翻译结果的第二语音(英语1)的音量调节至较大。第二语音输出设备240输出发言语音(日语1)和第二语音(英语1)。
另一方面,在用户B发言的语音(英语2)被翻译并将该翻译结果的语音(日语2)并提供给用户A的案例中,第一输出调节设备470将第二语言的发言语音(英语2)的音量调节至较小,并且将翻译结果的第一语音(日语2)的音量调节至较大。第一语音输出设备120输出发言的语音(英语2)和第一语音(日语2)。
通过重复上述处理,对于用户A和B两者来说易于同步相互发言的时间设置,并且他们之间可以执行流畅的交谈。
顺便一提,在第一实施例的语音翻译系统中,其并非主要为避免输出的翻译结果的第一语音或第二语音迟于实际发言的语音。尤其是在非面对面语音翻译服务中,发言的用户不会知道翻译结果的语音输出被延迟了多少。因此,响应于来自用户A的发言的响应,如果没有快速的返回用户B(另一方)的答复发言,用户A无法判断用户B答复的延迟是由于翻译处理导致的,还是由于用户A的意图没有被正确的传送因而由用户B对用户A的沉默所导致。
此外,即使是在用户A的意图被正确转送至用户B,用户B开始答复时,用户A担忧用户A的意图没有正确地传递至用户B。在这样的案例中,如果用户B的答复被延迟,用户A会恼怒,并且常常连续地进行发言。此处,由于用户A和用户B之间的发言时序的冲突,它们的交谈是不流畅的。
(第二实施例)
第二实施例为解决上述问题的方法。在第二实施例中,除了第一实施例的方法外,用户A在翻译结果的语音被输出至用户B时可听到用户A的发言的翻译结果的语音。
图5为根据第二实施例的第二输出调节设备480的操作的流程图。
在图5中,操作S500~S530与图3的那些(操作)相同。第二实施例中,在S530,如果设置第一语音输出设备120输出(来自第一语音合成设备450的)翻译结果的第二语音(英语1),第一语音输出设备120可输出的音量小于从第二语音输出设备240输出的第二语音。
在新增的S540,对用户B发言的第二语言(英语2)的响应中,第二输出调节设备480检查第二语音合成设备460是否输出翻译结果的第一语音(日语2)。如果第一语音(日语2)被输出,第二输出调节设备480输出来自第二语音输出设备240的翻译结果的第二语音(日语2)。此处,第二语音(日语2)的音量小于在S530中的翻译结果的第二语音(英语1)的音量。在S550之后,或者如果在S540中没有输出第一语音,则返回处理,并等待下一个语音输入。
以这种方式,当第二语音输出设备240输出用户B的发言语音的翻译结果(日语2)时,第二输出调节设备480将翻译结果(日语2)的音量调节至小于从第二语音输出设备240输出的之前的翻译结果(英语1)的音量。
通过该处理,每个用户可以同时地以小的不打扰他/她的发言的音量听到他/她的发言的(被另一方听到的)翻译结果的语音。因此,每个用户可知道他/她发言的内容被发送到对方的完成时间,换句话说,等待来自对方的回复的时间。因此,用户不会对来自伴有连续翻译延迟的对方的回复的延迟感到不安。此外,他们的交谈也不易发生冲突,并且它们的交谈可以流畅地进行。
图6展示了沿着时间轴表示(在第二实施例的语音翻译系统中)的输出语音。
当(用户A发言的)第一语言被识别/翻译,并且该翻译结果的语音被提供给用户B时,第二输出调节设备480将第一语言(将首先由第二语音输出设备240输出)的发言语音(日语1)的音量调节至较小。之后,第二输出调节设备480将(第一机器翻译设备430的)翻译结果的第二语音(英语1)的音量调节至大于所述发言语音(日语1)。第二语音输出设备240输出与发言语音(日语1)相叠加的翻译结果的第二语音(英语1)。
此外,当第一语音输出设备120输出翻译结果的第二语音(英语1)时,第一输出调节设备470将第二语音的音量调节至小于第二语音输出设备240输出的第二语音(英语1)的音量。
之后,当(用户B发言的)第二语言的语音被识别/翻译,并且该翻译结果被提供给用户A时,第一输出调节设备470将第二语言(首先由第一语音输出设备120输出)的发言语音(英语2)的音量调节至较小。之后,第一输出调节设备470将翻译结果(通过第二机器翻译设备440)的第一语音(日语2)的音量调节至大于第二语言的发言语音(英语2)以及之前翻译结果的第二语音(英语1)。第一语音输出设备120输出与发言语音(英语2)相叠加的翻译结果的第一语音(日语2)。
此外,当由第二语音输出设备240输出翻译结果的第一语音(日语2)时,第二输出调节设备480将该第一语音的音量调节至小于从第二语音输出设备120输出的第一语音(日语2)的音量及之前翻译结果的第二语音(英语1)的音量。
(第三实施例)
在第三实施例中,除了第二实施例,用户自身发言的翻译结果的语音的音量将被进一步精细地调整。
图7为根据第三实施例的第二输出调节设备480的操作流程图。
在图7中,操作S700~S730与图3中所述的相同。第三实施例中,在S730,如果设置由第一语音输出设备120输出(来自第一语音合成设备450的)翻译结果的第二语音(英语1),第一语音输出设备120可以输出比第二语音输出设备240输出的第二语音较小的音量。随后,如果不存在用户A的第一语言的发言语音,那么第一语音输出设备120可以通过将小音量改变为大音量输出第二语音(英语1)。
在新增的S740中,响应于用户B发言的第二语音(英语2),第二输出调节设备480检查第二语音合成设备460是否输出翻译结果的第一语音(日语2)。如果该第一语音(日语2)被输出,第二输出调节设备480检查是否用户B正在以第二语音进行发言(S750)。如果用户B正在发言,第二输出调节设备480输出来自第二语音输出设备240的翻译结果的第一语音(日语2)。此处,第一语音(日语2)的音量小于在S730处翻译结果的第二语音(英语1)的音量。另一方面,如果用户B没有正在进行发言(S750),通过改变小音量为大音量(S770),第二语音输出设备240输出第一语音(日语2)。
以这种方式,当用户B的发言语音的翻译结果(日语2)被第二语音输出设备240输出时,如果用户B正在发言,第二输出调节设备480将该翻译结果(日语2)的音量调节为小于从第二语音输出设备240输出的之前的翻译结果(英语1)的音量。如果用户B没有正在进行发言,通过将小音量改变为大音量来输出该翻译结果(日语2)。
以相同的方式,当第一语音输出设备120输出用户A的发言语音的翻译结果(英语1)时,如果用户A正在进行发言,第一输出调节设备470将翻译结果(英语1)的音量调节为小于从第一语音输出设备120输出的之前的翻译结果的音量。如果用户A没有正在进行发言,通过将小音量改变为大音量来输出该翻译结果(英语1)。
图8示出了沿时间轴表示的(在第三实施例的语音翻译系统中的)输出语音。
当用户A的发言的语音(日语1)被识别/翻译,并且当翻译结果的第二语音(英语1)被提供给用户B时,第二输出调节设备480将发言的语音(日语1)(将首先由第二语音输出设备240输出)的音量调节至较小。而后,第二输出调节设备480将(第一机器翻译设备430的)翻译结果的第二语音(英语1)的音量调节至大于发言的语音(日语1)。翻译结果的第二语音(英语1)通过与发言语音(日语1)相叠加而从第二语音输出设备240输出。
此外,当第一语音输出设备120输出翻译结果的第二语音(英语1)时,如果用户A正在进行发言,第一输出调节设备470将第二语音的音量调节至小于从第二语音输出设备240输出的第二语音(英语1)的音量。如果用户A没有正在进行发言,通过将小音量改变为大音量,第一语音输出设备120输出翻译结果的第二语音(英语1)。
之后,当用户B的发言的语音(英语2)被识别/翻译,并且翻译结果的第一语音(日语2)被提供给用户A时,第一输出调节设备470将发言语音(英语2)(首先由第一语音输出设备120输出)的音量调节为较小。之后,第一输出调节设备470将(第二机器翻译设备440的)翻译结果的第一语音(日语2)的音量调节至大于发言语音(英语2)。翻译结果的第一语音(日语2)通过与发言语音(英语2)相叠加而从第一语音输出设备120输出。
此外,当第二语音输出设备240输出翻译结果的第一语音(日语2)时,如果用户B正在进行发言,第二输出调节设备480将第一语音的音量调节至小于从第一语音输出设备120输出的发言的语音(英语2)的音量。如果用户B没有正在进行发言,通过将小音量改变为大音量,第二语音输出设备240输出翻译结果的第一语音(日语2)。
通过该处理,相较第二实施例而言,每个用户均可清楚地知道他/她发言内容被传送至对方的完成时间。此外,他们交谈的冲突不易发生,并且他们的交谈可以流畅进行。
在公开的实施例中,可通过存储在计算机可读介质中的计算机程序执行处理。
在实施例中,计算机可读介质可为,例如,磁盘、软盘、硬盘、光盘(如CD-ROM、CD-R、DVD)、磁性光盘(如MD)。然而,可以使用任何被配置为存储用于使计算机执行上述处理的计算机程序的计算机可读介质。
此外,基于来自存储器设备的被安装的程序的对计算机的指示,在计算机上运行的OS(操作系统)、或者MW(中间件)如数据库管理软件或网络,可以实施每个处理中的一部分以实现实施例。
另外,存储器设备不限于与计算机独立的设备。贮存程序的存储器设备包括通过LAN或因特网进行的程序下载。此外,存储器设备并不限于一个。在实施例的处理通过多个存储器设备进行实施的案例中,所述存储器设备可包括多个存储器设备。
计算机可根据贮存在存储器设备中的程序实施实施例的每个处理阶段。所述计算机可能是一个装置如个人计算机或者是多个通过网络相连接的处理装置位于其中的系统。此外,所述计算机不限于个人计算机。本领域技术人员将认识到所述计算机包括诸如信息处理器、微型计算机等等中的处理单元。总之,可以使用程序实施实施例中功能的装备和装置被一般地称为计算机。
虽然对特定的实施例进行了描述,这些实施例仅以示例性的方式示出,并且并非旨在对本发明的范围进行限制。事实上,此处描述的新颖的实施例可以多种其它的形式具现化;进一步地,可在不离开本发明的原则的情况下对此处描述的实施例进行多种删减、替换和改变。附上的权利要求及其等同物旨在覆盖落入本发明原则和范围的形式和修改。
Claims (10)
1.一种语音翻译系统,包括:
第一语音装置,包括
至少捕获第一语言的语音的第一语音输入设备,和
输出第一语言的另一个语音的第一语音输出设备;
第二语音装置,包括
至少捕获第二语言的语音的第二语音输入设备,和
输出第二语言的另一个语音的第二语音输出设备;以及
执行第一语音装置与第二语音装置之间语音翻译的语音识别/翻译服务器;
其中该服务器包括
接收来自第一语音输入设备的第一语言的第一发言语音,并识别该第一发言语音的第一语音识别设备;
无需等待所述第一发言语音完成,连续地将识别结果的第一语言翻译为第二语言的第一机器翻译设备;
生成翻译结果的第二语音的第一语音合成设备;以及
通过调节第一发言语音的音量至小于第二语音的音量,将第一发言语音和第二语音输出至第二语音输出设备的第一输出调节设备。
2.如权利要求1所述的系统,
其中所述服务器进一步包括
接收来自第二语音输入设备的第二语言的第二发言语音,并识别该第二发言语音的第二语音识别设备;
无需等待所述第二发言语音完成,连续地将识别结果的第二语言翻译为第一语言的第二机器翻译设备;
生成翻译结果的第一语音的第二语音合成设备;以及
通过调节第二发言语音的音量至小于第一语音的音量,将第二发言语音和第一语音输出至第一语音输出设备的第二输出调节设备。
3.如权利要求2所述的系统,其中
通过调节第一语音的音量至小于第二语音的音量,第一输出调节设备将第一语音输出至第二语音输出设备。
4.如权利要求2所述的系统,其中
通过调节第二语音的音量调节至小于第一语音的音量,第二输出调节设备将第二语音输出至第一语音输出设备。
5.如权利要求2所述的系统,其中,
当检测到第二发言语音完成时,
第一输出调节设备将第一语音的音量调节至大于从第一语音输出设备输出的第二发言语音的音量。
6.如权利要求2所述的系统,其中,
当检测到第一发言语音完成时,
第二输出调节设备将第二语音的音量调节至大于从第二语音输出设备输出的第一发言语音的音量。
7.如权利要求2所述的系统,其中
通过调节第二语音的音量调节至小于输出至第二语音输出设备的第二语音的音量,第一输出调节设备将第二语音输出至第一语音输出设备。
8.如权利要求2所述的系统,其中
通过调节第一语音的音量调节至小于输出至第一语音输出设备的第一语音的音量,第二输出调节设备将第一语音输出至第二语音输出设备。
9.一种用于在系统中对语音进行翻译的方法,所述系统包括
第一语音装置,包括
至少捕获第一语言的语音的第一语音输入设备,和
输出第一语言的另一个语音的第一语音输出设备;
第二语音装置,包括
至少捕获第二语言的语音的第二语音输入设备,和
输出第二语言的另一个语音的第二语音输出设备;以及
执行第一语音装置与第二语音装置之间语音翻译的语音识别/翻译服务器;
所述方法包括:
由所述服务器接收来自第一语音输入设备的第一语言的第一发言语音;
由所述服务器识别该第一发言语音;
无需等待所述第一发言语音完成,由所述服务器连续地将识别结果的第一语言翻译为第二语言;
由所述服务器生成翻译结果的第二语音;
由所述服务器将第一发言语音的音量调节至小于第二语音的音量;以及
由所述服务器将与第一发言语音相叠加的第二语音输出至第二语音输出设备。
10.如权利要求9所述的方法,进一步包括:
由所述服务器接收来自第二语音输入设备的第二语言的第二发言语音;
由所述服务器识别第二发言语音;
无需等待第二发言语音完成,由所述服务器连续地将识别结果的第二语言翻译为第一语言;
由所述服务器生成翻译结果的第一语音;
由所述服务器将第二发言语音的音量调节至小于第一语音的音量;以及
由所述服务器将与第二发言语音相叠加的第一语音输出至第一语音输出设备。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013-194020 | 2013-09-19 | ||
JP2013194020A JP2015060423A (ja) | 2013-09-19 | 2013-09-19 | 音声翻訳装置、音声翻訳方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104462070A true CN104462070A (zh) | 2015-03-25 |
Family
ID=52668736
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410471705.1A Pending CN104462070A (zh) | 2013-09-19 | 2014-09-16 | 语音翻译系统和语音翻译方法 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9280539B2 (zh) |
JP (1) | JP2015060423A (zh) |
CN (1) | CN104462070A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710615A (zh) * | 2018-05-03 | 2018-10-26 | Oppo广东移动通信有限公司 | 翻译方法及相关设备 |
CN108923810A (zh) * | 2018-06-15 | 2018-11-30 | Oppo广东移动通信有限公司 | 翻译方法及相关设备 |
WO2020078267A1 (zh) * | 2018-10-15 | 2020-04-23 | 华为技术有限公司 | 在线翻译过程中的语音数据处理方法及装置 |
Families Citing this family (71)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
DE112014000709B4 (de) | 2013-02-07 | 2021-12-30 | Apple Inc. | Verfahren und vorrichtung zum betrieb eines sprachtriggers für einen digitalen assistenten |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10791216B2 (en) | 2013-08-06 | 2020-09-29 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
TWI566107B (zh) | 2014-05-30 | 2017-01-11 | 蘋果公司 | 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置 |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US20160170970A1 (en) * | 2014-12-12 | 2016-06-16 | Microsoft Technology Licensing, Llc | Translation Control |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10460227B2 (en) | 2015-05-15 | 2019-10-29 | Apple Inc. | Virtual assistant in a communication session |
US10200824B2 (en) | 2015-05-27 | 2019-02-05 | Apple Inc. | Systems and methods for proactively identifying and surfacing relevant content on a touch-sensitive device |
US20160378747A1 (en) | 2015-06-29 | 2016-12-29 | Apple Inc. | Virtual assistant for media playback |
US20170060850A1 (en) * | 2015-08-24 | 2017-03-02 | Microsoft Technology Licensing, Llc | Personal translator |
US10740384B2 (en) | 2015-09-08 | 2020-08-11 | Apple Inc. | Intelligent automated assistant for media search and playback |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10331312B2 (en) | 2015-09-08 | 2019-06-25 | Apple Inc. | Intelligent automated assistant in a media environment |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10956666B2 (en) | 2015-11-09 | 2021-03-23 | Apple Inc. | Unconventional virtual assistant interactions |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US9858927B2 (en) * | 2016-02-12 | 2018-01-02 | Amazon Technologies, Inc | Processing spoken commands to control distributed audio outputs |
US9898250B1 (en) * | 2016-02-12 | 2018-02-20 | Amazon Technologies, Inc. | Controlling distributed audio outputs to enable voice output |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
US10431216B1 (en) * | 2016-12-29 | 2019-10-01 | Amazon Technologies, Inc. | Enhanced graphical user interface for voice communications |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
US11582174B1 (en) | 2017-02-24 | 2023-02-14 | Amazon Technologies, Inc. | Messaging content data storage |
TW201834438A (zh) * | 2017-03-08 | 2018-09-16 | 捷音特科技股份有限公司 | 耳麥翻譯系統 |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
DK180048B1 (en) | 2017-05-11 | 2020-02-04 | Apple Inc. | MAINTAINING THE DATA PROTECTION OF PERSONAL INFORMATION |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK201770428A1 (en) | 2017-05-12 | 2019-02-18 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
US20180336892A1 (en) | 2017-05-16 | 2018-11-22 | Apple Inc. | Detecting a trigger of a digital assistant |
JP7062958B2 (ja) * | 2018-01-10 | 2022-05-09 | トヨタ自動車株式会社 | 通信システム、及び通信方法 |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
EP3579121A1 (en) * | 2018-06-05 | 2019-12-11 | Nokia Technologies Oy | Audio outputs |
US11462215B2 (en) | 2018-09-28 | 2022-10-04 | Apple Inc. | Multi-modal inputs for voice commands |
CN109286725B (zh) * | 2018-10-15 | 2021-10-19 | 华为技术有限公司 | 翻译方法及终端 |
US20200193965A1 (en) * | 2018-12-13 | 2020-06-18 | Language Line Services, Inc. | Consistent audio generation configuration for a multi-modal language interpretation system |
US11348573B2 (en) | 2019-03-18 | 2022-05-31 | Apple Inc. | Multimodality in digital assistant systems |
US11307752B2 (en) | 2019-05-06 | 2022-04-19 | Apple Inc. | User configurable task triggers |
DK201970509A1 (en) | 2019-05-06 | 2021-01-15 | Apple Inc | Spoken notifications |
US11140099B2 (en) | 2019-05-21 | 2021-10-05 | Apple Inc. | Providing message response suggestions |
DK201970511A1 (en) | 2019-05-31 | 2021-02-15 | Apple Inc | Voice identification in digital assistant systems |
DK180129B1 (en) | 2019-05-31 | 2020-06-02 | Apple Inc. | USER ACTIVITY SHORTCUT SUGGESTIONS |
US11227599B2 (en) | 2019-06-01 | 2022-01-18 | Apple Inc. | Methods and user interfaces for voice-based control of electronic devices |
WO2021056255A1 (en) | 2019-09-25 | 2021-04-01 | Apple Inc. | Text detection using global geometry estimators |
WO2021109000A1 (zh) * | 2019-12-03 | 2021-06-10 | 深圳市欢太科技有限公司 | 数据处理方法、装置、电子设备和存储介质 |
US11061543B1 (en) | 2020-05-11 | 2021-07-13 | Apple Inc. | Providing relevant data items based on context |
US11183193B1 (en) | 2020-05-11 | 2021-11-23 | Apple Inc. | Digital assistant hardware abstraction |
US11755276B2 (en) | 2020-05-12 | 2023-09-12 | Apple Inc. | Reducing description length based on confidence |
US11490204B2 (en) | 2020-07-20 | 2022-11-01 | Apple Inc. | Multi-device audio adjustment coordination |
US11438683B2 (en) | 2020-07-21 | 2022-09-06 | Apple Inc. | User identification using headphones |
US11990139B1 (en) * | 2023-10-09 | 2024-05-21 | Sandrew & Company, Llc | System that conducts dialogs using artificial intelligence |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090299724A1 (en) * | 2008-05-28 | 2009-12-03 | Yonggang Deng | System and method for applying bridging models for robust and efficient speech to speech translation |
CN101631032A (zh) * | 2009-08-27 | 2010-01-20 | 深圳华为通信技术有限公司 | 实现多语言会议的方法、装置和系统 |
CN101923858A (zh) * | 2009-06-17 | 2010-12-22 | 劳英杰 | 一种实时同步互译语音终端 |
US20110238407A1 (en) * | 2009-08-31 | 2011-09-29 | O3 Technologies, Llc | Systems and methods for speech-to-speech translation |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001251429A (ja) | 2000-03-03 | 2001-09-14 | Net Teimento:Kk | 携帯電話を使用した音声翻訳システムおよび携帯電話 |
JP2002027039A (ja) * | 2000-07-06 | 2002-01-25 | Hitachi Ltd | 通信通訳システム |
US8108509B2 (en) * | 2001-04-30 | 2012-01-31 | Sony Computer Entertainment America Llc | Altering network transmitted content data based upon user specified characteristics |
AU2003225542A1 (en) * | 2002-02-01 | 2003-09-02 | John Fairweather | A system and method for managing knowledge |
US20070016401A1 (en) * | 2004-08-12 | 2007-01-18 | Farzad Ehsani | Speech-to-speech translation system with user-modifiable paraphrasing grammars |
JP4087400B2 (ja) * | 2005-09-15 | 2008-05-21 | 株式会社東芝 | 音声対話翻訳装置、音声対話翻訳方法および音声対話翻訳プログラム |
JP2007110197A (ja) * | 2005-10-11 | 2007-04-26 | Oki Electric Ind Co Ltd | 同時通訳装置 |
JP2008032834A (ja) | 2006-07-26 | 2008-02-14 | Toshiba Corp | 音声翻訳装置及びその方法 |
JP4271224B2 (ja) * | 2006-09-27 | 2009-06-03 | 株式会社東芝 | 音声翻訳装置、音声翻訳方法、音声翻訳プログラムおよびシステム |
FR2921735B1 (fr) | 2007-09-28 | 2017-09-22 | Joel Pedre | Procede et dispositif de traduction ainsi qu'un casque mis en oeuvre par ledit dispositif |
JP2009135596A (ja) * | 2007-11-28 | 2009-06-18 | Aiphone Co Ltd | インターホン装置 |
WO2009073194A1 (en) * | 2007-12-03 | 2009-06-11 | Samuel Joseph Wald | System and method for establishing a conference in tow or more different languages |
US20100169073A1 (en) * | 2008-12-31 | 2010-07-01 | Voice Muffler Corporation | Foldable Wireless Device for Language Translation |
US20100185432A1 (en) * | 2009-01-22 | 2010-07-22 | Voice Muffler Corporation | Headset Wireless Noise Reduced Device for Language Translation |
US20100250231A1 (en) * | 2009-03-07 | 2010-09-30 | Voice Muffler Corporation | Mouthpiece with sound reducer to enhance language translation |
KR101589433B1 (ko) * | 2009-03-11 | 2016-01-28 | 삼성전자주식회사 | 동시 통역 시스템 |
US20100283829A1 (en) * | 2009-05-11 | 2010-11-11 | Cisco Technology, Inc. | System and method for translating communications between participants in a conferencing environment |
JP5163682B2 (ja) * | 2010-04-05 | 2013-03-13 | ソニー株式会社 | 通訳通話システム |
JP2011221237A (ja) | 2010-04-08 | 2011-11-04 | Nec Corp | 音声出力装置、そのコンピュータプログラムおよびデータ処理方法 |
US20110270601A1 (en) * | 2010-04-28 | 2011-11-03 | Vahe Nick Karapetian, Jr. | Universal translator |
US8775156B2 (en) * | 2010-08-05 | 2014-07-08 | Google Inc. | Translating languages in response to device motion |
US9015030B2 (en) * | 2011-04-15 | 2015-04-21 | International Business Machines Corporation | Translating prompt and user input |
AU2012250625B2 (en) * | 2011-05-05 | 2016-11-24 | Yappn Canada Inc. | Cross-language communication between proximate mobile devices |
US20140358516A1 (en) * | 2011-09-29 | 2014-12-04 | Google Inc. | Real-time, bi-directional translation |
JP5750380B2 (ja) | 2012-02-10 | 2015-07-22 | 株式会社東芝 | 音声翻訳装置、音声翻訳方法および音声翻訳プログラム |
JP2013167806A (ja) | 2012-02-16 | 2013-08-29 | Toshiba Corp | 情報通知支援装置、情報通知支援方法、および、プログラム |
KR20140120560A (ko) * | 2013-04-03 | 2014-10-14 | 삼성전자주식회사 | 통역 장치 제어 방법, 통역 서버의 제어 방법, 통역 시스템의 제어 방법 및 사용자 단말 |
US9430465B2 (en) * | 2013-05-13 | 2016-08-30 | Facebook, Inc. | Hybrid, offline/online speech translation system |
US9128930B2 (en) * | 2013-10-31 | 2015-09-08 | Tencent Technology (Shenzhen) Company Limited | Method, device and system for providing language service |
-
2013
- 2013-09-19 JP JP2013194020A patent/JP2015060423A/ja active Pending
-
2014
- 2014-09-16 CN CN201410471705.1A patent/CN104462070A/zh active Pending
- 2014-09-16 US US14/487,267 patent/US9280539B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090299724A1 (en) * | 2008-05-28 | 2009-12-03 | Yonggang Deng | System and method for applying bridging models for robust and efficient speech to speech translation |
CN101923858A (zh) * | 2009-06-17 | 2010-12-22 | 劳英杰 | 一种实时同步互译语音终端 |
CN101631032A (zh) * | 2009-08-27 | 2010-01-20 | 深圳华为通信技术有限公司 | 实现多语言会议的方法、装置和系统 |
US20110238407A1 (en) * | 2009-08-31 | 2011-09-29 | O3 Technologies, Llc | Systems and methods for speech-to-speech translation |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108710615A (zh) * | 2018-05-03 | 2018-10-26 | Oppo广东移动通信有限公司 | 翻译方法及相关设备 |
CN108710615B (zh) * | 2018-05-03 | 2020-03-03 | Oppo广东移动通信有限公司 | 翻译方法及相关设备 |
CN108923810A (zh) * | 2018-06-15 | 2018-11-30 | Oppo广东移动通信有限公司 | 翻译方法及相关设备 |
WO2020078267A1 (zh) * | 2018-10-15 | 2020-04-23 | 华为技术有限公司 | 在线翻译过程中的语音数据处理方法及装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2015060423A (ja) | 2015-03-30 |
US9280539B2 (en) | 2016-03-08 |
US20150081274A1 (en) | 2015-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104462070A (zh) | 语音翻译系统和语音翻译方法 | |
US11114091B2 (en) | Method and system for processing audio communications over a network | |
CN110661927B (zh) | 语音交互方法、装置、计算机设备及存储介质 | |
KR102108500B1 (ko) | 번역 기반 통신 서비스 지원 방법 및 시스템과, 이를 지원하는 단말기 | |
CN1333385C (zh) | 用于通信系统的语音浏览器启用器 | |
US20090198497A1 (en) | Method and apparatus for speech synthesis of text message | |
CN104462069A (zh) | 语音翻译装置和语音翻译方法 | |
CN109360549B (zh) | 一种数据处理方法、穿戴设备和用于数据处理的装置 | |
CN109005190B (zh) | 一种在网页上实现全双工语音对话和页面控制的方法 | |
JP5628749B2 (ja) | 通訳端末及び通訳端末間の相互通信を用いた通訳方法 | |
CN111783481B (zh) | 耳机控制方法、翻译方法、耳机和云端服务器 | |
US9110888B2 (en) | Service server apparatus, service providing method, and service providing program for providing a service other than a telephone call during the telephone call on a telephone | |
US20210249007A1 (en) | Conversation assistance device, conversation assistance method, and program | |
CN111554280A (zh) | 对利用人工智能的翻译内容和口译专家的口译内容进行混合的实时口译服务系统 | |
US20210312143A1 (en) | Real-time call translation system and method | |
JP2013009433A (ja) | サービスサーバ装置、サービス提供方法、サービス提供プログラム | |
US9277051B2 (en) | Service server apparatus, service providing method, and service providing program | |
US11328131B2 (en) | Real-time chat and voice translator | |
CN109802968B (zh) | 一种会议发言系统 | |
CN113905137A (zh) | 一种通话方法及装置、存储介质 | |
CN110855832A (zh) | 一种辅助通话的方法、装置和电子设备 | |
CN110472254A (zh) | 语音翻译方法、通信终端、及计算机可读存储介质 | |
CN110210042A (zh) | 语音数据处理方法、系统、电子装置以及计算机可读存储介质 | |
CN113743132A (zh) | 智能终端及其翻译方法、存储介质 | |
JP2002247209A (ja) | 多言語対応の受付処理方法と受付処理システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20150325 |
|
WD01 | Invention patent application deemed withdrawn after publication |