CN1830022A - 语音应答系统、语音应答方法、话音服务器、话音文件处理方法、程序和记录介质 - Google Patents
语音应答系统、语音应答方法、话音服务器、话音文件处理方法、程序和记录介质 Download PDFInfo
- Publication number
- CN1830022A CN1830022A CNA200480021899XA CN200480021899A CN1830022A CN 1830022 A CN1830022 A CN 1830022A CN A200480021899X A CNA200480021899X A CN A200480021899XA CN 200480021899 A CN200480021899 A CN 200480021899A CN 1830022 A CN1830022 A CN 1830022A
- Authority
- CN
- China
- Prior art keywords
- voice
- document
- variable
- voice document
- segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000004044 response Effects 0.000 title claims abstract description 20
- 238000000034 method Methods 0.000 title claims description 32
- 238000003672 processing method Methods 0.000 title description 2
- 238000012545 processing Methods 0.000 claims abstract description 74
- 230000011218 segmentation Effects 0.000 claims description 108
- 230000015572 biosynthetic process Effects 0.000 claims description 17
- 238000003786 synthesis reaction Methods 0.000 claims description 16
- 230000008569 process Effects 0.000 claims description 13
- 239000000284 extract Substances 0.000 claims description 7
- 230000000875 corresponding effect Effects 0.000 description 22
- 241000209094 Oryza Species 0.000 description 21
- 235000007164 Oryza sativa Nutrition 0.000 description 21
- 235000009566 rice Nutrition 0.000 description 21
- 230000006870 function Effects 0.000 description 13
- 238000010586 diagram Methods 0.000 description 11
- 244000294411 Mirabilis expansa Species 0.000 description 9
- 235000015429 Mirabilis expansa Nutrition 0.000 description 9
- 235000013536 miso Nutrition 0.000 description 9
- 230000008859 change Effects 0.000 description 6
- 230000015654 memory Effects 0.000 description 5
- 238000012217 deletion Methods 0.000 description 4
- 230000037430 deletion Effects 0.000 description 4
- 238000007689 inspection Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 238000003780 insertion Methods 0.000 description 2
- 230000037431 insertion Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- GOLXNESZZPUPJE-UHFFFAOYSA-N spiromesifen Chemical compound CC1=CC(C)=CC(C)=C1C(C(O1)=O)=C(OC(=O)CC(C)(C)C)C11CCCC1 GOLXNESZZPUPJE-UHFFFAOYSA-N 0.000 description 2
- 244000287680 Garcinia dulcis Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Acoustics & Sound (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Computer And Data Communications (AREA)
- Signal Processing For Digital Recording And Reproducing (AREA)
- Studio Devices (AREA)
Abstract
一种改进的自动语音应答系统,其中已经减少了通过使用语音文件再现包括变量的消息期间的应用负载。该语音应答系统包括应用服务器和语音服务器。该应用服务器具有第一和第二语音文件以及语音信息。语音服务器包括:语音文件处理装置,从应用服务器接收语音信息和第一语音文件,并且基于该语音信息产生语法;语音识别装置,基于该语法执行第一语音文件的语音识别,以产生多个划分的语音文件;以及语音处理装置,用第二语音文件替换至少一个所划分的语音文件。
Description
技术领域
本发明涉及自动语音应答系统,并且尤其涉及通过使用语音识别经由自动合成的语音做出应答的系统。
背景技术
当语音应用自动输出系统消息时,它使用事先记录的话音文件。例如,在其中定义了标准语音接口的VoiceXML的情况下,通过借助于<audio>标记(tag)指定话音文件名称来执行这样的消息输出。例如,在以下的专利文献1中公开了使用VoieeXML的基于VoIP的话音系统。
专利文献1:日本公开专利申请2002-57724
发明内容
本发明要解决的问题
然而,存在这样一个问题,即如果在消息中包含变量,则应用上的负载是相当大的。更具体而言,在其中VoieeXML应用在传统的话音服务器上的语音文件中插入变量的情况下,该应用的操作和实现是例如开发这样的服务小程序(servlet),其具有这样的功能,即准备其中在变量的位置处划分语句的语音文件,并且依据该变量确定语音文件的名称以动态地生成VXML文档以便再现该语音文件,由两个<audio>标记指定在VXML文档中变量前后的语音文件,而且通过适当的定时调用该服务小程序作为子语音信息。
在以这种方式通过语音文件再现消息的情况下,存在这样一个问题,即鉴于以下几点,应用上的负载是应当考虑的。首先,存在与该应用的实现相关的问题。也就是说,必须让应用最初开发出用于在执行的时候标识和再现用于变量分段的语音文件的逻辑。换句话说,存在需要开发大量复杂应用的问题。还存在需要依据语句的改变而改变应用的问题。
此外,就准备记录文件的操作所需要的时间以及该记录文件的质量和管理而言,存在一些问题。依据传统方法,必须使语音文件通过将其分为变量之前的分段、变量分段和变量之后分段来进行记录。例如,在包括物品名称作为变量分段的语句“你的定单是米,不是吗”的情况下,需要准备语音文件“你的定单是”、“米”和“不是吗”。在这种情况下,必须使记录人员不自然地说出语句被划分的部分,这种发声易于是不自然的,而且就自然和流畅而言该发声的再现结果是有缺陷的。
还存在一种连贯地记录整个语句并且由语音文件编辑器划分该语句的方法。然而,在这种情况下,必须使编辑该语音文件的人员准确地掌握应用的设计。此外,因为需要包括划分语音文件在内的复杂操作,所以编辑中的错误可能性是高的。还有由于需要包括语音文件编辑操作在内的许多操作而增加了工作量的问题。此外,因为准备了通过事先在变量位置处划分语句而形成的语音文件,所以增加了语音文件的数目。此外,必须通过使用语音文件编辑器剪去和编辑在每个语音文件的开始和结束处的无声部分,以便流畅地连接这些语音文件。这样的编辑操作与语音文件的数目成比例地增加。随着语音文件数目的增加,工作量变得非常大,而且复杂操作也增加了。还存在着随着语音文件的数目增加而使文件命名和文件管理复杂化的可能性。
解决问题的手段
为了解决上述问题,依据作为系统理解的本发明,提供了一种包括应用服务器和语音服务器的语音应答系统,该应用服务器具有第一语音文件、第二语音文件和语音信息,该语音服务器具有:语音文件处理装置,用于从应用服务器接收语音信息和第一语音文件,并且基于该语音信息生成语法;语音识别装置,用于基于该语法执行第一语音文件的语音识别,并将第一语音文件划分为多个语音文件;以及语音处理装置,用于用第二语音文件代替至少一个所划分的语音文件。
第一语音文件可以是包括指示变量条目的变量分段、并且作为一个文件记录的整个语句。此外,第二语音文件可以是要进入该变量分段中的语音,该语音作为文件进行记录。此外,语音信息可以包括第一语音文件的文件名称,而且语音文件装置可以基于整个语句语音文件名称提取第一语音文件。此外,语音信息可以包括替换文本,而且语音文件处理装置可以基于该替换文本生成语法。此外,语音信息可以包括指示是否需要执行有关变量的处理的变量信息。该系统还可以具有语音输出装置,用于输出语音。
依据作为方法理解的本发明,提供了一种在包括应用服务器和语音服务器的语音应答系统中的语音应答方法,该应用服务器具有第一语音文件、第二语音文件和语音信息,该语音应答方法包括以下步骤作为语音服务器中的步骤,这些步骤为:从应用服务器接收语音信息和第一语音文件、并且基于该语音信息生成语法的步骤;基于语法执行第一语音文件的语音识别并且将该第一语音文件划分为多个语音文件的步骤;以及用第二语音文件代替至少一个所划分的语音文件的步骤。
在这种方法中,第一语音文件可以是包括指示变量条目的变量分段、并且作为一个文件记录的整个语句。此外,第二语音文件可以是要进入该变量分段中的语音,该语音作为文件进行记录。此外,语音信息可以包括第一语音文件的文件名称,而且可以基于第一语音文件名称提取第一语音文件。此外,语音信息可以包括替换文本,而且可以基于该替换文本生成语法。此外,语音信息可以包括指示是否需要执行有关变量的处理的变量信息。
依据作为程序理解的本发明,提供了一种用于在包括应用服务器和语音服务器的语音应答系统中执行语音应答的程序,该应用服务器具有第一语音文件、第二语音文件和语音信息,该程序使语音服务器操作用于:从应用服务器接受语音信息和第一语音文件,基于该语音信息生成语法,基于该语法执行第一语音文件的语音识别并且将第一语音文件划分为多个语音文件,并且用第二语音文件代替至少一个所划分的语音文件。
在这个程序中,第一语音文件可以是包括指示变量条目的变量分段、并且作为一个文件记录的整个语句。此外,第二语音文件可以是要进入该变量分段中的语音,该语音作为文件进行记录。此外,语音信息可以包括第一语音文件的文件名称,而且语音文件装置可以基于该文件名称提取第一语音文件。此外,语音信息可以包括替换文本,而且语音文件处理装置可以基于该替换文本生成语法。此外,语音信息可以包括指示是否需要执行有关变量的处理的变量信息。本发明还提供了一种在其上存储了这样的程序的计算机可读记录介质。
依据作为语音服务器理解的本发明,提供了一种用于自动执行语音处理的语音服务器,该语音服务器包括:用于根据替换文本生成语法的装置,用于基于该语法执行第一语音文件的语音识别并且将第一语音文件划分为多个语音文件的装置,以及用第二语音文件代替至少一个所划分的语音文件的装置。
在这个语音服务器中,第一语音文件可以是包括指示变量条目的变量分段、并且作为一个文件记录的整个语句。此外,第二语音文件可以是要进入该变量分段中的语音,该语音作为文件进行记录。此外,第二语音文件可以是要进入该变量分段中的语音,该语音通过语音合成生成。此外,用于生成语法的装置可以通过将替换文本划分为变量分段和除了变量分段之外的分段,以及通过用预定单词代替该变量分段,来生成语法。此外,用于生成语法的装置可以通过进一步划分通过用单词进行代替而生成的文本文件,以及通过把划分结果改变为可语音识别的形式,来生成语法。
依据作为方法理解的本发明,提供了一种借助于语音服务器自动执行语音处理的语音文件处理方法,该方法包括以下步骤作为在语音服务器中的步骤,这些步骤为:根据替换文本生成语法的步骤,基于该语法执行第一语音文件的语音识别并且将第一语音文件划分为多个语音文件的步骤,以及用第二语音文件代替至少一个所划分的语音文件的步骤。
在这种方法中,第一语音文件可以是包括指示变量条目的变量分段、并且作为一个文件记录的整个语句。此外,第二语音文件可以是要进入该变量分段中的语音,该语音作为文件进行记录。此外,第二语音文件可以是要进入该变量分段中的语音,该语音通过语音合成生成。此外,在生成语法的步骤中,可以通过将替换文本划分为变量分段和除了变量分段之外的分段,以及通过用预定单词代替该变量分段,来生成语法。此外,在生成语法的步骤中,可以通过进一步划分通过用单词进行代替而生成的文本文件,以及通过把划分结果改变为可语音识别的形式,来生成语法。
依据在这方面作为程序理解的本发明,提供了一种借助于语音服务器自动执行语音文件处理的程序,该程序使语音服务器操作用于:根据替换文本生成语法,基于该语法执行第一语音文件的语音识别并且将第一语音文件划分为多个语音文件,以及用第二语音文件代替至少一个所划分的语音文件。
在这个程序中,第一语音文件可以是包括指示变量条目的变量分段、并且作为一个文件记录的整个语句。此外,第二语音文件可以是要进入该变量分段中的语音,该语音作为文件进行记录。此外,第二语音文件可以是要进入该变量分段中的语音,该语音通过语音合成生成。此外,在生成语法的操作中,可以通过将替换文本划分为变量分段和除了变量分段之外的分段,以及通过用预定单词代替该变量分段,来生成语法。此外,在生成语法的操作中,可以通过进一步划分通过用单词进行代替而生成的文本文件,以及通过把划分结果改变为可语音识别的形式,来生成语法。本发明还提供了一种在其上存储了这样的程序的计算机可读记录介质。
实现本发明的最佳方式
图1为示意地示出适于实现本发明的计算机的硬件配置的图示。
图1说明了作为实施例实现的计算机的硬件配置。计算机具有作为计算装置的CPU(中央处理单元)101,通过M/B(母板)芯片组102和CPU总线连接到CPU 101的主存储器103,通过M/B芯片组102和AGP(加速图形端口)也连接到CPU 101的视频卡104,通过PCI(外围部件互连)总线连接到M/B芯片组102的硬盘105,通过PCI总线也连接到M/B芯片组102的网络接口106,通过PCI总线也连接到M/B芯片组102的USB端口107,通过桥电路108和诸如ISA(工业标准结构)总线之类的低速总线从PCI总线连接到M/B芯片组102的软盘驱动器109,以及也通过桥电路108和低速总线连接到M/B芯片组102的键盘/鼠标110。
图1仅仅说明了作为实施例实现的典型计算机的硬件配置示例,而且如果这个实施例可应用的话,可以采用任何其它的配置。例如,可以采用这样的配置,以便仅仅包括一个视频存储器而不是视频卡104,而且图像数据由CPU 101进行处理。可以提供通过诸如ATA(AT附件)之类的接口连接的CD-ROM(光盘只读存储器)或者DVD-ROM(数字多用途盘只读存储器)驱动器。此外,可以提供用于语音再现的扬声器等。
图2是通过使用功能块示出本发明的框图。语音应答系统210由语音服务器220和应用服务器230构成。语音服务器220和应用服务器230可以实现为诸如图1所示的一台计算机,或者实现为两台或更多计算机的组合或者计算机和存储器的组合。
应用服务器220包含整个语句记录语音文件221、变量记录语音文件222、223和语音信息224。它们可以理解为在应用服务器上执行的应用程序或者应用程序的一部分。整个语句记录语音文件221是包括变量分段、即示出变量条目的分段并且作为一个文件记录的整个语句。在要被记录的整个语句记录语音文件221中,用特定单词替换变量分段。使用语音服务器中事先指定的单词作为这个单词。例如,使用单词“物品名称”作为变量分段,并且以语音的形式准备语句“你的定单是物品名称,不是吗?”,并且将其存储为整个语句记录语音文件。
此外,将要进入该变量分段中的语音存储为应用服务器220中的变量记录语音文件1、2、…(222、223)。例如,存储以语音形式准备的“米”和“味噌(miso)”文件。可以使用多个变量分段。在这种情况下,存储与变量分段相对应的变量记录语音文件。例如,将变量分段1和2设置为“物品名称”和“物品数目”,并且将以语音形式准备的语句“你的定单是物品名称,而且数量是物品数目,不是吗?”存储为整个语句记录语音文件。同样,存储与“物品名称”和“物品数目”相对应的变量记录语音文件(诸如,用于前者的“米”和“味噌”,以及用于后者的“一个”或者“两个”)。
此外,语音信息224存储在应用服务器220中。语音信息224包括整个语句记录语音文件的文件名称、变量信息和替换文本。变量信息至少包含指示存在/不存在变量分段的信息,即指示需要/不需要有关变量的处理的信息。替换文本是包括变量分段在内的整个文本语句。在上述示例的情况下,替换文本是“你的定单是<变量分段>,不是吗?”。如果存在多个整个语句记录语音文件,则可以为每个整个语句记录语音文件准备语音信息。
语音服务器230具有语音文件处理部分231、语音识别引擎232、和语音化(voicing)处理部分233。语音文件处理部分231从应用服务器220中提取语音信息224和由该语音信息所指定的整个语句记录语音文件221,根据包含在语音信息中的变量信息确定是否需要有关变量的处理,以及如果需要有关变量的处理的话,则根据替换文本动态地生成语法。
语音识别引擎232从语音文件处理部分234接收整个语句记录语音文件以及动态生成的语法。语音识别引擎232将基于它们识别的整个语句记录语音文件划分为与变量分段相对应的变量语音文件以及作为除了变量之外的分段的部分语音文件。未必仅仅获得一个变量语音文件以及仅仅一个部分语音文件。可以存在多个变量语音文件和多个部分语音文件。
语音化处理部分233从语音识别引擎232接收部分语音文件和变量语音文件。语音化处理部分233从应用服务器220获得被指定为与变量语音文件相对应的代替文件的变量记录语音文件。这个操作可以在语音文件处理部分中执行并且转交到语音化处理部分。以与要被再现的替换文本相对应的次序连接部分语音文件和变量记录语音文件,并且将它们转变为语音。
语音输出设备240连接到语音应答系统210,以基于再现的语音文件再现和输出语音。这个语音输出设备可以是,例如,用于诸如图1所示的计算机、即与语音应答系统相同的系统的扬声器单元,或者通过公共电话电路等连接的电话终端等。
图3示出了在语音文件处理部分231中生成语法的逻辑。首先,将整个替换文本语句分为变量分段和除了该变量分段之外的分段(一个或多个)(310)。接下来,用预定单词替换变量分段(320)。事先由语音服务器确定这个单词。在整个语句记录语音文件中,将通过使用预定单词而以语音形式准备的这个单词记录为变量分段。基于具有已替换的单词的文本动态地生成语法(330)。
将进一步参考图4详细描述语法生成示例。首先用预定单词代替替换文本中的变量分段(410)。基于该替换文本生成文本文件。在这时,需要执行单词划分,以便语音识别引擎可以识别该文本文件(420)。作为这个单词划分的处理包括,例如,参考在用于语音识别引擎的词典中登记的单词、通过最大长度匹配方法加标点并且划分为单词。为了将划分结果传送给语音识别引擎,将该划分结果改变为这样的形式以便可以由语音识别引擎识别(430)。把这样生成的语法传送给语音识别引擎,以便进行登记。
图5示出了语音识别引擎232中通过语音识别进行语音文件划分的逻辑。首先将语音识别引擎设置为处于用于从所识别的语音中形成文件的模式中(510)。接下来,将包含变量的整个语句记录语音文件和所生成的语法输入到语音识别引擎232中(520)。语音识别引擎232基于该语法识别整个语句记录语音文件(530)。语音识别引擎232将所识别的整个语句记录语音文件划分为与变量分段相对应的变量语音文件以及除了变量之外的部分语音文件(或者多个部分语音文件),因此生成语音文件(540)。
图6示出了基于语音识别引擎232中的语音识别进行语音文件划分的结果。在这个示例,假定变量分段是“物品名称”。作为语音识别和划分的结果(620),整个语句记录语音文件610划分成与变量分段相对应的变量语音文件622和除了变量之外的部分语音文件621和622。
图7是其中描述了在本发明的语音服务器230中的处理流程示例的流程图。首先,依据在从应用服务器220中获得的语音信息224中存在/不存在示出包含在变量信息中的变量标识的信息,确定是否需要有关变量的处理(701)。如果确定不需要有关变量的处理,则执行普通的音频处理(720)。普通的音频处理是例如这样的处理,如果在应用服务器中存在与语音信息中的文件名称相对应的、要再现的语音文件,则再现该文件。如果在其中不存在要再现的语音文件的情况下在语音信息中存在替换文本,则再现该替换文本。如果没有替换文本,则执行错误处理,或者如果不存在错误处理的话,则以错误结束该处理。
如果在步骤701确定需要有关变量的处理,则从语音信息224中提取整个语句记录语音文件名称和相应的替换文本(702)。然后进行有关在应用服务器220中是否存在任何整个语句记录语音文件的检查(703)。如果在应用服务器220中不存在整个语句记录语音文件,则删除示出变量标识的信息,并且此后执行诸如如上所述的处理之类的普通音频处理(730)。
如果在应用服务器220中存在整个语句记录语音文件,则还进行有关是否存在替换文本的检查(704)。如果不存在替换文本,则产生错误并且结束处理(740,741)。如果存在替换文本,则确定在语音服务器230的高速缓存(未示出)上是否早已存在整个语句记录语音文件(705)。如果在高速缓存上早已存在整个语句记录语音文件,则处理移到步骤709。如果在高速缓存上不存在,则从应用服务器220中获得整个语句记录语音文件(706)。通过使用替换文本以及整个语句记录语音文件动态地生成语法(707)。随后,执行语音识别以便划分整个语句记录语音(708)。
然后进行有关在应用服务器220中是否存在变量记录语音文件的检查(709)。如果在应用服务器220中存在变量记录语音文件,则从应用服务器220获得该文件(710)。连续地连接这些语音文件,以便以语音形式进行再现(711)。在高速缓存上保持所生成的语音文件达必需的时间段(712),以便必要时可以立即使用该文件。如果在步骤709不存在变量记录语音文件,则通过使用与变量相对应的替换文本的语音合成来生成语音文件(750)。将这个处理步骤序列实现为计算机程序。可以通过存储在诸如CD-ROM或者软盘之类的计算机可读存储介质上来提供这个计算机程序。
将描述图7所示的本发明的处理的VXML浏览器实现示例。部分(1)到(9)对应于图7中的内容。“VXML浏览器”是一个为了有关VXML的处理目的而提供与本发明中的语音文件处理部分231和语音化处理部分233相对应的功能的装置。
(1)检查音频标记中的被称为请求有关变量的处理的记号(mark)的符号‘#’。如果不存在相应的符号,则执行普通的音频处理。
(2)从该音频标记中提取整个语句记录语音文件名称和与该整个语句记录语音文件相对应的替换文本。
(3)如果不存在整个语句记录语音文件,则获取‘#’,并且执行普通的音频处理。根据需要执行语音合成。
(4)如果不存在替换文本,则产生错误并且结束处理。
(5)如果早已完成了相应的处理,则使用经高速缓存的语音文件。如果仅仅改变了变量分段,则仅仅从应用服务器中获得变量记录文件。
(6)根据该替换文本和变量分段的预定字符序列形成语法。
(7)由语音识别引擎识别该语法和整个语句记录语音文件,以便划分该整个语句记录语音文件。
(8)如果不存在变量记录语音文件,则为该变量分段执行语音合成。
(9)连接所获得的语音文件(在某些情况下还连接语音合成结果),以便对其进行再现。
下面所示的表1到7示出了图7所示的本发明中的处理的伪码表示。部分(1)到(9)对应于图7中的内容。以下的表1示出了处理步骤的序列。
[表1]
有关音频标记的处理(标记文本){新执行的划分标志=false;(1)if(没有指示存在变量分段的记号){到普通的处理(标记文本)}(2)从标记文本中获得变量信息-整个语句记录语音文件名称-替换文本(3)if(不存在整个语句记录语音文件){从标记文本中删除记号到普通的处理(标记文本)(4)}else if(没有替换文本){错误结束}部分列表=划分替换文本(替换文本)整个语句记录语音文件ID=确定与“这个整个语句记录语音文件”相对应的唯一ID(5)if(高速缓存了所有部分(部分列表,“整个语句记录文件ID”)==false)?{变量的字符序列=变量字符序列属性值(6) 整个文本=生成整个文本(部分列表,变量的字符序列)生成并且允许语法(部分列表,变量的字符序列,语法名称)(7) 通过语音识别划分语音文件(整个语句记录语音文件,整个语句记录文件ID)禁用语法(语法名称)新执行的划分标记=true}(8)连接并且再现(整个语句记录文件ID,部分列表)if(新执行的划分标记){执行高速缓存处理(整个语句记录文件ID)}} |
表2涉及在表1所示的处理的(4)中用于划分替换文本的处理。
[表2]
划分替换文本(替换文本){部分列表=“”while(在替换文本中存在变量分段){部分列表+=变量分段之前+变量分段替换文本=变量分段之后}If(存在其它替换文本){部分列表+=替换文本}返回部分列表} |
表3示出了在表1所示的处理中的处理(5)的更多细节。
[表3]
(5)高速缓存了所有部分(部分列表,整个语句记录文件ID)?{if(在高速缓存使用范围内=false){返回false}获得当前时间if(整个语句记录文件ID不在高速缓存列表中){返回false}else if(整个语句记录文件ID的高速缓存条目到期了){从高速缓存列表中删除高速缓存条目返回false}判定=true划分文件存储路径=请求划分路径(整个语句记录文件ID)while(部分列表){if(部分<>变量分段){if(“part.wav”不在划分文件存储路径中){判定=falsebreak;}}}返回判定} |
表4示出了在表1所示的处理中的处理(6)的一部分的更多细节。
[表4]
(6)生成整个语句文本(部分列表,变量的字符序列){整个语句文本=“”while(部分列表){整个语句文本+=(部分==变量?变量的字符序列:部分)}返回整个语句文本} |
表5示出了在表1所示的处理中的处理(6)的另一部分的更多细节。
[表5]
(6)生成并且允许语法(部分列表,变量的字符序列,语法名称)规则0=变量的字符序列公共规则=“ ”for(n=1;部分列表;n++){if(部分<>变量){规则n=变量之前公共规则+=规则n}else{公共规则+=规则0}}根据所有规则和公共规则生成语法通过在识别引擎中登记语法来启用语法(语法名称)} |
表6示出了在表1所示的处理中的处理(7)的更多细节。
[表6]
(7)通过语音识别划分语音文件(整个语句记录语音文件,整个语句记录文件ID){将识别引擎设置为语音文件生成模式划分的语音文件输出目的地=获得划分路径(整个语句记录文件ID)在识别引擎中指定所划分语音文件的输出目的地将整个语句语音记录文件输入到识别引擎中等待识别处理的完成并且返回//可以产生ACCEPTED或者REJECTED}禁用语法(语法名称){禁用语法(语法名称)} |
表7示出了在表1所示的处理中的处理(8)的更多细节。
[表7]
(8)连接并且再现(整个语句记录文件ID,部分列表){划分路径=获得划分路径(整个语句记录文件ID)while(部分列表){if(部分<>变量){语音文件=“划分路径part.wav”替换文本=“部分”}else{语音文件=“变量值.wav”替换文本=“变量值”}if(存在语音文件){再现语音文件}else{执行替换文本的语音合成}}}更新高速缓存(整个语句记录文件ID){到期时间=当前时间+有效期限高速缓存条目=“整个语句记录文件ID,到期时间”如果具有这个整个语句记录文件ID的高速缓存条目早已经在高速缓存列表中了,则从高速缓存列表中删除该高速缓存条目将高速缓存条目添加到高速缓存列表中}获得划分路径(整个语句记录文件ID){从划分路径=整个语句记录文件ID中唯一地确定} |
将描述在VoiceXML的情况下本发明的实现的具体示例。可以实现这个扩展而不影响现有的功能并且没有违反VoiceXML规范。
在应用服务器中准备的语音文件
通过作为一个文件准备包括变量的整个语句,来记录整个语句记录语音文件。用特定的单词代替要被记录的变量分段。这个单词是依据语音服务器的理解的特定单词。例如,这样一个单词为“变量”。变量记录语音文件名称是“{变量内容}.wav”。如果变量字符序列包括在语音文件存储环境中不允许作为文件名称的字符,则准备其中以CSV形式映射变量-对-语音文件名称的映射列表文件。映射列表文件名称是依据语音服务器的理解的固定名称。例如,这样的映射列表文件名称是“value-wav.map”。
在当前路径中放置变量记录语音文件,并且在有些情况下还放置映射列表文件。可以分类一个或者多个变量记录语音文件。类别具有在当前路径下、为该类别特别提供的具有与类别名称相同名称的文件夹。将属于该类别的变量记录语音文件、并且在有些情况下还将包括该文件的描述的映射列表文件放置在为该类别特别提供的文件夹中。
应用服务器中的语音信息的描述
与整个语句记录语音文件相对应,指示整个语句记录语音文件是否具有变量的记号附加到语音信息上。此外,与具有至少一个变量的整个语句记录语音文件相对应,将有关具有至少一个变量分段的整个语句文本(替换文本)的信息以及要插入的变量的名称存储在语音信息中。此外,如有必要,还存储变量的语音文件所属的类别的名称。在某些情况下,将映射列表文件放置在当前路径或者为类别特别提供的文件夹中。
下面将描述建立应用于VoiceXML的上述规则的具体示例。在下文中描述将本发明应用到VoiceXML的<audio>标记中。通常,最终通过使用其中记录了人类语音的语音文件对语音应用进行操作。然而,在应用的开发期间,因为需要在不具有语音文件的情况下开发应用,所以利用了语音合成。为了适合于这样的使用环境,以描述了语音文件名称和字符序列的方式规定在VoiceXML中定义的<audio>标记,以便再现语音文件;如果存在语音文件则再现该语音文件;并且如果语音文件处于不可再现的状态下,则通过语音合成产生字符序列。
描述示例:“<audio src=“wav/sample.wav”>定购的物品</audio>”
依据就功能和格式而言的实质<audio>标记规范应用本发明。
<audio>标记中的src属性字段用于指示整个语句记录语音文件是否具有变量分段。将′#′附加到整个语句记录语音文件名称的顶部,以指示需要有关变量的处理。<audio>标记中的替换文本部分用于将信息添加到具有变量分段的整个语句记录语音文件中。在替换文本部分中描述了包括变量的整个文本语句。由<value>标记指定要插入的变量,并且在插入位置处插入该<value>标记。在属于一个类别的情况下,用利用类别属性指定类别名称的<sayas>标记包围<value>标记。将映射列表文件放置在为该类别特别提供的路径中或者当前路径中。
示例:在其中通过语音文件“wavsample.wav”语音文件再现消息“定购的物品是{?}”的情况下所准备的语音文件,其中将“定购的物品是变量”记录为整个语句记录语音文件“当前路径productriee.wav”语音文件,其中将“rice”记录为变量记录语音文件。
VXML文档(与语音信息相对应)的描述
<audio src=″#wav/sample.wav″>
定购的物品是
<sayas class=″product″>
<value expr=″ProductName″/>
</sayas>
</audio>
其中#表示需要有关变量的处理,以及“wav/sample.wav”是整个语句记录语音文件名称。
此外,以下部分
″定购的物品是
<sayas class=″product″>
<value expr=″ProductName″/>
</sayas>″
是替换文本。
这些描述是作为在应用服务器中执行的应用程序中的部分给出的。
语音服务器侧的功能
基于存在/不存在为语音文件规定的标记来确定整个语句记录语音文件是否具有变量,并且选择分支转移到简单的再现处理和需要变量插入的再现处理中适当的一个再现处理。简单的语音文件再现与传统的操作相同。下面将描述作为运行时处理的变量插入处理。
与整个语句记录语音文件相对应的替换文本被划分为变量分段以及除了变量分段之外的分段,并且动态地生成具有作为规则的部分的语法。作为用于识别变量分段的单词/短语,用于识别代替变量分段的单词/短语的规则被添加到语法中。例如,这样的单词/短语是“变量”。
下面将更详细地描述语法的生成。目标描述如下:
<audio src=″#confirm.wav″>
你的定单是<value expr=″Product″/>,不是吗?
</audio>
该语法生成处理描述如下。
1.用变量分段的文本替换该变量分段
(转换之前)你的定单是<value expr=″Product″/>,不是吗?
(转换之后)你的定单是变量,不是吗?
2.生成文本文件(BNF文件)。在这时候,需要执行单词划分,以允许由语音识别引擎进行识别。在这个示例中的结果如下:
<_rule1>=你的定单是变量,不是吗
3.为了将要说出的可接受语句传送到语音识别引擎,以语音识别引擎可理解的形式提供该语句。更具体地说,BNF文件是被编译用以生成语法词汇(FSG文件)的语法。语法编译是用于将语法改变为语音识别引擎可理解的形式的处理。例如,通过使用语法编译器API来执行编译成为语音识别引擎可理解的FSG格式。FSG(有限状态语法)文件格式是以语音识别引擎可理解的格式的经编译的语法文件。FSG文件格式也被W3C语音接口框架(W3C Speech InterfaceFramework)所支持。将如上所述生成的语法传送给语音识别引擎,以进行登记。
使所生成的语法可被语音识别引擎启用。将语音识别引擎设置为处于提交经识别的语音的模式中。将包括变量在内的整个语句记录语音文件输入到语音识别引擎中。语音识别引擎基于该语法,识别处于被分成变量分段和除了变量分段之外的分段的状态下的输入语音。语音识别引擎然后将所识别的语音划分为已识别的单元,以形成语音文件。
利用文件名称“{变量内容}.wav”搜索从应用程序中指定的变量记录语音文件。如果语音文件属于一个类别,则搜索位置是为该类别特别提供的路径,或者如果该语音文件不属于该类别,则搜索位置是当前路径。如果不存在文件“{变量内容}.wav”,则读取映射变量-对-语音文件名称列表以获得文件名称,并且搜索该文件。如果由于不存在映射列表、在映射列表中不存在相对于目标变量的指定或者映射列表中不存在与目标变量相关联的语音文件、或者由于某些其它原因而没有找到用于转换的语音文件,则基于变量文本执行语音合成。
依据文本序列按顺序再现通过划分生成的语音文件、通过搜索获得的变量记录语音文件或者变量文本的变量文本语音合成。为了提高性能,存储所划分的语音文件直到应用结束为止。然而,应该执行适当的文件删除。遵守事先在语音服务器中提供的、关于高速缓存文件管理的规则是恰当的。存储所划分语音文件分段的存在状态,以允许利用一些现存的已划分的语音文件。
关于变量的确定
与变量相对应的文本是应用中的变量值。在执行的时候确定该值。关于确定变量值的时间和地点的选择取决于应用逻辑。例如,可以在任何时候将期望值设置为Product=“变量值”。此外,例如可以写入在定单接收时所识别的单词/短语,以便设置为所述值。
在下面将更具体地描述包括确定变量在内的处理步骤序列。
取决于应用设计,关于“确定变量值的时间和地点”存在有如下所述的两种类型的选择方法。(1)向识别目标给予名称以用作变量名,并且将在用户发声的时候所识别的单词/短语设置为变量值。(2)事先声明变量,并且在根据需要选择的时间处设置变量值。
以下的表8示出了处理示例。
[表8]
123456789101112131415161718192021 | <?xml version=″1.0″encoding=″SHIFT_JIS″?><vxml version=′″1.0″lang=″ja_JP″><var name=″Address″/><form><field name=″UserName″>请说出你的姓名。<grammar>Kato|Sato</grammar><filled>你是<value expr=″UserName″/>,不是吗.</filled></field><assign name=″Address″expr=getUserAddress(UserName/><field name=″Product″>请下定单。<grammar>大米|味噌</grammar></field><field name=″answer″>你的定单是<value expr=″Product″/>,不是吗.</field></form></vxml> | ←声明Address变量←这个字段中识别的单词/短语是UserName变量的值←可以以这种方式通过(value>标记引用变量值←在Address变量中设置函数getUserAddress的返回值←这个字段中识别的单词/短语是Produet变量的值←这个字段中可识别的单词/短语是大米或者味噌←这个字段中识别的单词/短语是answer变量的值。 |
这个示例是提供了以下所示的对话并且用传统的函数编写的VoiceXML应用。
系统:请说出你的姓名。
用户:Kato:当识别出这个发声时,UserName变量值=“Kato”。
系统:你是Kato,不是吗?:此后,通过<assign>标记给出Address变量值=getUserAddress函数的返回值,例如“Shibuya-ku,Tokyo”。
系统:请下定单。
用户:大米:当识别出这个发声时,Product变量值=“大米”。
系统:你的定单是大米,不是吗?
类型(1)的示例使用UserName变量、Product变量和answer变量。类型(2)的示例使用Address变量。当引用变量值时,使用标记<value>。在将变量名用作SCRIPT函数的参数的情况下,直接使用该变量名。
将更详细地描述类型(1)中的UserName变量。VXML处理部分首先读取应用服务器中的VXML应用。在对话的第五行处,VXML处理部分指示语音识别引擎通过语法“识别单词/短语Kato或者Sato”。当用户发出的“Kato”的语音到达语音识别引擎时,语音识别引擎通过对照语法识别单词/短语“Kato”。语音识别引擎通知VXML处理部分它“识别的单词/短语:Kato”。VXML处理部分在UserName变量中设置变量值“Kato”。VXML处理部分和语音识别引擎中的每一个例如在语音服务器中实现。VXML处理部分可以实现为例如语音化处理部分的一部分。
将更详细地描述类型(2)中的Address变量。VXML处理部分接收UserName字段的识别已完成的通知,并且在第十二行处开始处理。VXML处理部分调用被称为getUserAddress函数的函数,以通过参考客户名-对-地址数据库返回地址,并且将返回值作为变量值分配给Address变量。
变量名的确定
在这个实施例的一个示例中,提供了“变量值”+“.wav”作为变量记录文件名称。例如,如果在其中变量是变量“Product”的情况下Product变量值为“大米”,则变量分段记录文件名称=“大米.wav”。将参考以下的表9所示的示例进行相关的更详细描述。
[表9]
12345678910111213141516 | <?xml version=″1.0″encoding=″SHIFT JIS″?><vxml version=″1.0″lang=″ja_JP″><form><field name=″Product″><audio src=″order.wav″>请下定单。</audio><grammar>大米|味噌</grammar><filled><field name=″answer″><audio src=″confiem.wav″>你的定单是<value expr=″Product″/>,不是吗。</audio></field></form></vxml> | ←这个字段中识别的单词/短语是Product变量的值←指定要被再现的文件名称←当不能执行再现时,指定通过语音合成获得的替换文本←这里可识别的单词/短语被定义为大米或者味噌←这个字段中可识别的单词/短语为answer变量的值←通过<value>标记引用变量值 |
这是在其中在应用中请求定单并且需要说“你的定单是OO,不是吗”的情况下的描述。在这个示例中,可以保持以下的对话。
系统:请下定单。
用户:大米。
系统:你的定单是大米,不是吗。
对于这样的应用,在开发应用的时候,事先准备关于作为变量“Product”有效的值的变量记录文件,并且将其存储在应用服务器中。变量记录的文件名称为“变量值”+“.wav”。如果变量的有效值为“大米”和“味噌”,则准备并且在应用服务器中存储“大米.wav”和“味噌.wav”。在执行时,语音服务器依据变量“Product”的值(例如,“大米”),在<value expr=″Product″/>分段中组合变量分段记录文件名称(“大米.wav”)。如果应用服务器中存在该文件,则语音服务器再现该文件。如果应用服务器中不存在该文件,则语音服务器执行变量值(“大米”)的语音合成。例如,依据图7所示的流程图中(8)“是否存在变量记录语音文件”,执行这样的文件名称组合。
附图说明
图1为示意地示出适合实现为本发明的实施例的计算机的硬件配置的图示。
图2是通过使用功能块示出本发明的框图。
图3为示出在语音文件处理部分231中生成语法的逻辑的图示。
图4为示出语法生成逻辑的细节的图示。
图5为示出语音识别引擎232中通过语音识别划分语音文件的逻辑的图示。
图6为示出语音识别引擎232中通过语音识别划分语音文件的结果的图示。
图7为示出本发明中的语音服务器230中的处理流程示例的流程图。
附图标记描述
101 CPU
102 M/B芯片组
103 主存储器
104 视频卡
105 硬盘
106 网络接口
107 USB
108 桥电路
109 软盘驱动器
110 键盘/鼠标
210 语音应答系统
221 整个语句记录语音文件
222 变量记录语音文件
223 变量记录语音文件
224 语音信息
220 应用服务器
231 语音文件处理部分
232 语音识别引擎
233 语音处理电路
230 语音服务器
240 语音输出设备
Claims (39)
1、一种包含应用服务器和语音服务器的语音应答系统,该应用服务器具有第一语音文件、第二语音文件和语音信息,该语音服务器具有:
语音文件处理装置,用于从应用服务器接收语音信息和第一语音文件,并且基于该语音信息生成语法;
语音识别装置,用于基于该语法执行第一语音文件的语音识别,并且把第一语音文件划分为多个语音文件;以及
语音处理装置,用于用第二语音文件代替至少一个所划分的语音文件。
2、如权利要求1所述的语音应答系统,其中,第一语音文件是包括指示变量条目的变量分段并且作为一个文件记录的整个语句。
3、如权利要求2所述的语音应答系统,其中,第二语音文件是要进入变量分段中的语音,该语音作为文件进行记录。
4、如权利要求1所述的语音应答系统,其中,语音信息包括第一语音文件的文件名称,而且语音文件处理装置基于该文件名称提取第一语音文件。
5、如权利要求1所述的语音应答系统,其中,语音信息包括替换文本,而且语音文件处理装置基于该替换文本生成语法。
6、如权利要求1所述的语音应答系统,其中,语音信息包括指示是否需要执行有关变量的处理的变量信息。
7、如权利要求1所述的语音应答系统,还包含用于输出语音的语音输出装置。
8、一种在包括应用服务器和语音服务器的语音应答系统中的语音应答方法,该应用服务器具有第一语音文件、第二语音文件和语音信息,该语音应答方法包含以下步骤作为语音服务器中的步骤:
从应用服务器接收语音信息和第一语音文件、并且基于该语音信息生成语法的步骤;
基于该语法执行第一语音文件的语音识别、并且把第一语音文件划分为多个语音文件的步骤;以及
用第二语音文件代替至少一个所划分的语音文件的步骤。
9、如权利要求8所述的语音应答方法,其中,第一语音文件是包括指示变量条目的变量分段并且作为一个文件记录的整个语句。
10、如权利要求9所述的语音应答方法,其中,第二语音文件是要进入变量分段中的语音,该语音作为文件进行记录。
11、如权利要求8所述的语音应答方法,其中,语音信息包括第一语音文件的文件名称,而且可以基于该文件名称提取第一语音文件。
12、如权利要求8所述的语音应答方法,其中,语音信息包括替换文本,并且基于该替换文本生成语法。
13、如权利要求8所述的语音应答方法,其中,语音信息包括指示是否需要执行有关变量的处理的变量信息。
14、一种在包括应用服务器和语音服务器的语音应答系统中执行语音应答的程序,该应用服务器具有第一语音文件、第二语音文件和语音信息,该程序使语音服务器操作用于:
从应用服务器接收语音信息和第一语音文件,并且基于该语音信息生成语法;
基于该语法执行第一语音文件的语音识别,并且把第一语音文件划分为多个语音文件;以及
用第二语音文件代替至少一个所划分的语音文件。
15、如权利要求14所述的程序,其中,第一语音文件是包括指示变量条目的变量分段并且作为一个文件记录的整个语句。
16、如权利要求15所述的程序,其中,第二语音文件是要进入变量分段中的语音,该语音作为文件进行记录。
17、如权利要求14所述的程序,其中,语音信息包括第一语音文件的文件名称,而且可以基于该文件名称提取第一语音文件。
18、如权利要求14所述的程序,其中,语音信息包括替换文本,并且基于该替换文本生成语法。
19、如权利要求14所述的程序,其中,语音信息包括指示是否需要执行有关变量的处理的变量信息。
20、一种计算机可读记录介质,其上存储了如权利要求14到19中任何一项所述的程序。
21、一种自动执行语音处理的语音服务器,包含:
用于根据替换文本生成语法的装置;
用于基于该语法执行第一语音文件的语音识别、并且把第一语音文件划分为多个语音文件的装置;以及
用于用第二语音文件代替至少一个所划分的语音文件装置。
22、如权利要求21所述的语音服务器,其中,第一语音文件是包括指示变量条目的变量分段并且作为一个文件记录的整个语句。
23、如权利要求22所述的语音服务器,其中,第二语音文件是要进入变量分段中的语音,该语音作为文件进行记录。
24、如权利要求22所述的语音服务器,其中,第二语音文件是要进入变量分段中的语音,该语音通过语音合成生成。
25、如权利要求21所述的语音服务器,其中,用于生成语法的装置通过将替换文本划分为变量分段和除了变量分段之外的分段,并且通过用预定单词代替该变量分段,来生成语法。
26、如权利要求25所述的语音服务器,其中,用于生成语法的装置通过进一步划分通过用单词进行代替而生成的文本文件,并且通过把划分结果改变为可语音识别的形式,来生成语法。
27、一种借助于语音服务器自动地执行语音文件处理的语音文件处理方法,该方法包含以下步骤作为语音服务器中的步骤:
根据替换文本生成语法的步骤;
基于该语法执行第一语音文件的语音识别、并且把第一语音文件划分为多个语音文件的步骤;以及
用第二语音文件代替至少一个所划分的语音文件的步骤。
28、如权利要求27所述的语音文件处理方法,其中,第一语音文件是包括指示变量条目的变量分段并且作为一个文件记录的整个语句。
29、如权利要求28所述的语音文件处理方法,其中,第二语音文件是要进入变量分段中的语音,该语音作为文件进行记录。
30、如权利要求28所述的语音文件处理方法,其中,第二语音文件是要进入变量分段中的语音,该语音通过语音合成生成。
31、如权利要求27所述的语音文件处理方法,其中,在生成语法的步骤中,通过将替换文本划分为变量分段和除了变量分段之外的分段,并且通过用预定单词代替该变量分段,来生成语法。
32、如权利要求31所述的语音文件处理方法,其中,通过进一步划分通过用单词进行代替而生成的文本文件,并且通过把划分结果改变为可语音识别的形式,来生成语法。
33、一种借助于语音服务器自动地执行语音文件处理的程序,该程序使语音服务器操作用于:
根据替换文本生成语法;
基于该语法执行第一语音文件的语音识别,并且把第一语音文件划分为多个语音文件;以及
用第二语音文件代替至少一个所划分的语音文件。
34、如权利要求33所述的语音文件处理方法,其中,第一语音文件是包括指示变量条目的变量分段并且作为一个文件记录的整个语句。
35、如权利要求34所述的程序,其中,第二语音文件是要进入变量分段中的语音,该语音作为文件进行记录。
36、如权利要求34所述的程序,其中,第二语音文件是要进入变量分段中的语音,该语音通过语音合成生成。
37、如权利要求33所述的程序,其中,在生成语法的操作中,通过将替换文本划分为变量分段和除了变量分段之外的分段,并且通过用预定单词代替该变量分段,来生成语法。
38、如权利要求37所述的程序,其中,通过进一步划分通过用单词进行代替而生成的文本文件,并且通过把划分结果改变为可语音识别的形式,来生成语法。
39、一种计算机可读记录介质,其上存储了如权利要求33到38中任何一项所述的程序。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003156714 | 2003-06-02 | ||
JP156714/2003 | 2003-06-02 | ||
PCT/JP2004/007368 WO2004109658A1 (ja) | 2003-06-02 | 2004-05-28 | 音声応答システム、音声応答方法、音声サーバ、音声ファイル処理方法、プログラム及び記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN1830022A true CN1830022A (zh) | 2006-09-06 |
CN1830022B CN1830022B (zh) | 2010-05-05 |
Family
ID=33508327
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200480021899XA Expired - Fee Related CN1830022B (zh) | 2003-06-02 | 2004-05-28 | 语音应答系统及其方法 |
Country Status (8)
Country | Link |
---|---|
EP (1) | EP1632932B1 (zh) |
JP (1) | JP4478647B2 (zh) |
KR (1) | KR100834363B1 (zh) |
CN (1) | CN1830022B (zh) |
AT (1) | ATE381755T1 (zh) |
AU (1) | AU2004246451A1 (zh) |
DE (1) | DE602004010804T2 (zh) |
WO (1) | WO2004109658A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109427325A (zh) * | 2017-08-29 | 2019-03-05 | 株式会社东芝 | 语音合成字典分发装置、语音合成系统以及程序存储介质 |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7181397B2 (en) | 2005-04-29 | 2007-02-20 | Motorola, Inc. | Speech dialog method and system |
WO2010068882A2 (en) * | 2008-12-11 | 2010-06-17 | Nortel Networks Limited | Automated text-based messaging interaction using natural language understanding technologies |
JP5787794B2 (ja) * | 2012-03-05 | 2015-09-30 | 株式会社東芝 | 音声合成システム、音声変換支援装置および音声変換支援方法 |
WO2018133307A1 (zh) | 2017-01-20 | 2018-07-26 | 华为技术有限公司 | 一种实现语音控制的方法和终端 |
CN108090051A (zh) * | 2017-12-20 | 2018-05-29 | 深圳市沃特沃德股份有限公司 | 连续长语音文件的翻译方法与翻译机 |
KR102293772B1 (ko) * | 2018-08-02 | 2021-08-25 | 주식회사 케이티 | 음성 합성 서비스를 제공하는 서버, 사용자 단말 및 방법 |
KR102304993B1 (ko) * | 2018-11-01 | 2021-09-27 | 주식회사 케이티 | Tts 서비스 제공 방법 및 이를 위한 중계 서버 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2554116B2 (ja) * | 1988-01-30 | 1996-11-13 | 日本電気ホームエレクトロニクス株式会社 | テレビジョン受像機 |
US5652789A (en) * | 1994-09-30 | 1997-07-29 | Wildfire Communications, Inc. | Network based knowledgeable assistant |
WO1997033416A1 (en) * | 1996-03-07 | 1997-09-12 | American Express Travel Related Services Company, Inc. | Methods and apparatus for providing a prepaid, remote memory transaction account with voice indicia |
US5970449A (en) * | 1997-04-03 | 1999-10-19 | Microsoft Corporation | Text normalization using a context-free grammar |
JP3472101B2 (ja) * | 1997-09-17 | 2003-12-02 | 株式会社東芝 | 音声入力解釈装置及び音声入力解釈方法 |
US6144938A (en) * | 1998-05-01 | 2000-11-07 | Sun Microsystems, Inc. | Voice user interface with personality |
US6499013B1 (en) * | 1998-09-09 | 2002-12-24 | One Voice Technologies, Inc. | Interactive user interface using speech recognition and natural language processing |
KR100287905B1 (ko) * | 1998-12-31 | 2001-05-02 | 서평원 | 실시간 음성 재생 시스템 및 그를 이용한 음성 재생 방법 |
CZ299508B6 (cs) * | 1999-02-19 | 2008-08-20 | Custom Speech Usa, Inc. | Systém automatické transkripce a zpusob užití dvou stupnu konverze reci a pocítacem podporovaná korekce |
JP2001265376A (ja) * | 2000-03-22 | 2001-09-28 | Pioneer Electronic Corp | 音声合成出力装置ならびに方法および同方法が記録される記録媒体 |
KR100364546B1 (ko) * | 2000-12-29 | 2002-12-18 | 엘지전자 주식회사 | 음성 메일링 시스템의 음성자원 교체방법 |
JP2002221980A (ja) * | 2001-01-25 | 2002-08-09 | Oki Electric Ind Co Ltd | テキスト音声変換装置 |
US7711570B2 (en) * | 2001-10-21 | 2010-05-04 | Microsoft Corporation | Application abstraction with dialog purpose |
JP4554561B2 (ja) * | 2006-06-20 | 2010-09-29 | 株式会社シマノ | 釣り用グローブ |
JP2008002005A (ja) * | 2006-06-21 | 2008-01-10 | Shimada Shoji Kk | 衣服用パッド |
JP4880379B2 (ja) * | 2006-06-23 | 2012-02-22 | 粕谷 普烈 | 型板の緊張度が調節自在な枠体 |
-
2004
- 2004-05-28 AU AU2004246451A patent/AU2004246451A1/en not_active Abandoned
- 2004-05-28 WO PCT/JP2004/007368 patent/WO2004109658A1/ja active IP Right Grant
- 2004-05-28 AT AT04745404T patent/ATE381755T1/de not_active IP Right Cessation
- 2004-05-28 DE DE602004010804T patent/DE602004010804T2/de not_active Expired - Lifetime
- 2004-05-28 KR KR1020057021113A patent/KR100834363B1/ko not_active IP Right Cessation
- 2004-05-28 CN CN200480021899XA patent/CN1830022B/zh not_active Expired - Fee Related
- 2004-05-28 JP JP2005506746A patent/JP4478647B2/ja not_active Expired - Lifetime
- 2004-05-28 EP EP04745404A patent/EP1632932B1/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109427325A (zh) * | 2017-08-29 | 2019-03-05 | 株式会社东芝 | 语音合成字典分发装置、语音合成系统以及程序存储介质 |
Also Published As
Publication number | Publication date |
---|---|
ATE381755T1 (de) | 2008-01-15 |
EP1632932A4 (en) | 2007-05-09 |
JPWO2004109658A1 (ja) | 2006-07-20 |
WO2004109658A1 (ja) | 2004-12-16 |
CN1830022B (zh) | 2010-05-05 |
EP1632932B1 (en) | 2007-12-19 |
JP4478647B2 (ja) | 2010-06-09 |
KR20060014043A (ko) | 2006-02-14 |
AU2004246451A1 (en) | 2004-12-16 |
DE602004010804D1 (de) | 2008-01-31 |
KR100834363B1 (ko) | 2008-06-02 |
DE602004010804T2 (de) | 2008-12-04 |
EP1632932A1 (en) | 2006-03-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1133127C (zh) | 文件检索系统 | |
CN1174332C (zh) | 转换表达方式的方法和装置 | |
US20050143994A1 (en) | Recognizing speech, and processing data | |
CN1652107A (zh) | 语言变换规则产生装置、语言变换装置及程序记录媒体 | |
CN1489089A (zh) | 文件检索系统和问题回答系统 | |
CN101079301A (zh) | 文本映射到音频并动画文本的设备及方法 | |
CN1869976A (zh) | 通过执行不同语言之间的翻译来支持交流的装置和方法 | |
CN1279805A (zh) | 通过听觉表示html数据页的系统和方法 | |
CN1871597A (zh) | 利用一套消歧技术处理文本的系统和方法 | |
CN1542649A (zh) | 自然语言生成系统中用于句子实现中排序的成分结构的语言信息统计模型 | |
CN1368693A (zh) | 用于全球化软件的方法和设备 | |
CN101042867A (zh) | 语音识别设备和方法 | |
CN1842788A (zh) | 对话支援装置 | |
CN1841366A (zh) | 用于通过执行翻译来支持交流的交流支持设备和方法 | |
US9196251B2 (en) | Contextual conversion platform for generating prioritized replacement text for spoken content output | |
CN1744054A (zh) | 一种自动化测试辅助系统及相应的软件自动测试方法 | |
CN1786947A (zh) | 基于网页页面布局提取网页核心内容的系统、方法和程序 | |
CN1551103A (zh) | 用于语音识别和自然语言理解的具有合成统计和基于规则的语法模型的系统 | |
CN1830022A (zh) | 语音应答系统、语音应答方法、话音服务器、话音文件处理方法、程序和记录介质 | |
JP2010198247A (ja) | 支援装置、支援プログラム、および支援方法 | |
CN1584980A (zh) | 在语音合成系统中将提示音与文本语音合成输出的方法 | |
CN100351847C (zh) | Ocr装置、文件检索系统 | |
CN1270687A (zh) | 在语言识别中通过计算机来确定至少两个单词的序列出现概率的方法 | |
CN110335583B (zh) | 一种带隔断标识的复合文件生成及解析方法 | |
CN1168002C (zh) | 测试方案生成的方法及其系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20100505 Termination date: 20110528 |