CN106471569B - 语音合成设备、语音合成方法及其存储介质 - Google Patents

语音合成设备、语音合成方法及其存储介质 Download PDF

Info

Publication number
CN106471569B
CN106471569B CN201580035951.5A CN201580035951A CN106471569B CN 106471569 B CN106471569 B CN 106471569B CN 201580035951 A CN201580035951 A CN 201580035951A CN 106471569 B CN106471569 B CN 106471569B
Authority
CN
China
Prior art keywords
speech
syllables
synthesis apparatus
speech synthesis
reply
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201580035951.5A
Other languages
English (en)
Other versions
CN106471569A (zh
Inventor
松原弘明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of CN106471569A publication Critical patent/CN106471569A/zh
Application granted granted Critical
Publication of CN106471569B publication Critical patent/CN106471569B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • G10L13/047Architecture of speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • G06F40/35Discourse or dialogue representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation

Abstract

一种语音合成设备包括:语音输入器(102),其被配置为输入语音;获取器(22),其被配置为获得对语音输入器(102)输入的语音的首次答复;分析器(112),其被配置为分析该首次答复是否包括重复目标;以及语音合成器(24),其被配置为在所分析的首次答复被确定为包括重复目标的情况下,根据包括重复至少两次的重复目标的二次答复来合成语音以输出语音。

Description

语音合成设备、语音合成方法及其存储介质
技术领域
本发明涉及一种语音合成设备、一种语音合成方法及其存储介质。
背景技术
在近来已提出的各种语音合成技术当中,包括了以下示例:一种用于合成并输出与用户的话音音调或发音特质相对应的语音的技术,其目的是为了使得所得到的语音更加像人的声音(例如,参考专利文献1);以及一种用于分析用户的语音并从而诊断用户的心理或身体状态的技术(例如,参考专利文献2)。也提出了一种交互式语音系统,其用于识别用户输入的语音,并且用于对场景指定的内容进行语音合成和输出以使得能够与用户进行语音交互(例如,参考专利文献3)。
相关技术文献
专利文献
专利文献1:日本专利申请公开公布第2003-271194号
专利文献2:日本专利第4495907号
专利文献3:日本专利第4832097号
发明内容
本发明要解决的问题
当对所述的语音合成技术和交互式语音系统进行结合时,可以设想如下的一种语音合成设备:其响应于用户的语音而搜索数据并对输出语音进行合成。已就这种语音合成设备而指出的一个缺点在于,所输出的合成语音被用户感知为非常不自然;更具体地,所输出的语音听起来就像机器在说话。
鉴于这些状况,本发明的目的在于提供能够产生用户能够感知为自然声音的语音的语音合成设备、语音合成方法及其程序。
解决问题的手段
为了实现所述目的,根据本发明的一方面的语音合成设备包括:语音输入器,其被配置为输入语音;获取器,其被配置为获得对语音输入器输入的语音的首次答复;分析器,其被配置为分析该首次答复是否包括重复目标;以及语音合成器,其被配置为在所分析的首次答复被确定为包括重复目标的情况下,根据包括重复了至少两次的重复目标的二次答复来合成语音以输出语音。在根据本发明的一方面所述的语音合成设备中,当首次答复包括重复目标时,重复该重复目标并且根据所重复的重复目标来合成语音以将其输出。因此,所输出的语音被用户感知为自然声音,达到了给用户留下他们正与人类进行交谈的印象的程度。
在根据本发明的一方面所述的语音合成设备中,重复目标可以是具有2个以下音节的感叹词,并且分析器可以确定首次答复是否包括感叹词,并且在确定首次答复包括感叹词的情况下,分析器可以分析感叹词中的音节数量是否为2个以下。
在根据本发明的一方面的语音合成设备中,获取器可以包括:语言分析器,其被配置为分析语音输入器输入的语音的含义;以及首次答复生成器,其被配置为生成对语言分析器分析的含义做出回应的首次答复。通过该配置,对针对输入语音的适当答复进行语音合成和输出。
根据本发明的一方面的语音合成设备还可以包括:重复器,其被配置为在确定首次答复包括重复目标的情况下,重复该目标至少两次,并且输出所重复的目标。通过该配置,语音合成设备可以对用户给出用户正与人谈话的印象,其中,包括重音,并且尝试与用户建立友好关系。
在语音合成设备包括重复器的配置中,语音合成器可以进行如下操作:在首次答复中所包括的感叹词中的音节数量为2个以下的情况下,根据包括有已通过重复器进行重复的感叹词的二次答复来对语音进行合成;并且在首次答复中所包括的感叹词中的音节数量为3个以上的情况下,将首次答复当作二次答复并且根据二次答复对语音进行合成。当首次答复中所包括的感叹词的音节数量为2个以下时,在二次答复中重复感叹词并且根据二次答复对语音进行合成。当首次答复中所包括的感叹词中的音节数量为3个以上时,将首次答复当作二次答复并且根据二次答复对语音进行合成。
语音合成器可以包括:语音序列生成器,其被配置为根据答复来生成语音序列;以及合成器,其被配置为输出基于语音序列而合成的语音信号。
根据本发明的一方面的语音合成设备可以在第一模式下或在第二模式下进行操作。在第一模式下,首次答复生成器可以被配置为生成包括有感叹词和特定内容的首次答复;而在第二模式下,首次答复生成器被配置为生成仅包括感叹词或仅包括特定内容的首次答复。在第一模式下,生成包括感叹词和特定内容的二次答复,并且当感叹词中的音节的数量为2个以下时,重复感叹词。以该方式,可以与用户建立更好的友好关系。
根据本发明的一方面的语音合成设备可以在禁止模式下进行操作。在禁止模式下,语音合成器可以在不重复具有2个以下的音节的感叹词的情况下对语音进行合成。其原因是,取决于不同的语境,仅仅对感叹词的重复偶尔可能使得用户感到不适。禁止模式的使用使得能够降低引起用户不适的风险。在该配置中,在禁止模式下,重复器可以被配置为取消重复具有2个以下音节的感叹词的功能。
除了语音合成设备外,本发明可以被理解为包括语音合成方法、使得计算机起到语音合成设备的作用的程序以及其上存储有该程序的计算机可读存储介质。
附图说明
图1是示出根据第一实施例的语音合成设备的配置的图。
图2是示出语音合成设备的功能配置的框图。
图3是示出根据第一实施例的语音合成设备的操作的流程图。
图4A是示出用户提出的示例问题的图。
图4B是示出语音合成设备合成的示例答复的图。
图5A是示出用户提出的示例问题的图。
图5B是示出语音合成设备合成的示例答复的图。
图6是示出根据第二实施例的语音合成设备的配置的图。
图7是示出根据第二实施例的语音合成设备的操作的流程图。
图8是示出语音合成设备合成的示例答复的图。
图9是示出语音合成设备合成的示例答复的图。
具体实施方式
首先将描述根据实施例的语音合成设备的概述。
假设在人们进行对话期间,一个人(人“a”)问了问题并且另一人(人“b”)对这些问题做出回应。在这样的状况中,当人“a”提出问题并且人“b”对该问题做出回应时,人“b”有时重复一部分或全部答复而不是仅仅按原样提供答复。例如,在日文中,当人“a”问了问题并且人“b”打算提供肯定答复[ha-i](这里,应注意,声音以罗马字母示出并按音节划分。以下,由方括号“[]”括起的语句按音节划分,并且该形式也可应用于附图中。)时,人“b”有时重复该答复,并因而做出[ha-i-ha-i]的答复,而不是仅仅做出[ha-i]的答复。
也存在人“b”不重复对人“a”提出的问题的答复的情况。例如,当人“a”问了问题并且人“b”打算以日文[i-i-e]提供否定答复时,人“b”几乎不会如以[i-i-e-i-i-e]那样通过重复[i-i-e]进行答复。
尽管事实上可能不存在答复的语义变化,但是取决于对象语言,答复与重复之间的关系可能是相反的。例如,当人“b”以英文“yes(是)”提供肯定答复时,人“b”几乎不会通过如以“yes,yes(是、是)”那样重复“yes(是)”来进行答复。另一方面,当人“b”以英文“no(不)”提供否定答复时,人“b”有时会通过如以“no,no(否、否)”那样重复“no(否)”来进行答复。
在另一种情况下,当人“a”用日文“asu wa hare?”(翻译为英文是“Will be sunnytomorrow(明天是晴天吗)?”)问了问题,并且人“b”打算用日文提供答复[ha-i ha-re-de-su](英文的语义内容为“Yes,it will be sunny(是,将是晴天)”)时,人“b”有时会通过如以[ha-i-ha-i ha-re-de-su]那样重复[ha-i]来进行答复。然而,当人“b”以英文“Yes,itwill be sunny tomorrow(是的,明天将是晴天)”用相同的语义内容来进行答复时,人“b”几乎不会通过如以“Yes,yes,it will be sunny tomorrow(是的、是的,明天将是晴天)”那样重复“yes(是)”来进行答复。
这里,本发明的发明人认为,关于是否重复答复的部分或全部的重要确定因素是:答复中所包括的感叹词中的音节数量是否为2个以下。
这是因为,如在上述示例中那样,重复各个具有2个以下的音节的感叹词(诸如,日文中的[ha-i]或英文中的“no(否)”),而极少重复各个具有3个以上的音节的感叹词(诸如,日文中的[i-i-e]或英文中的“yes(是)”)。
因而,重要的是首先考虑存在于感叹词中的音节数量,而与答复的语言或语义内容(诸如肯定或否定内涵)无关。
大概地,重复具有2个以下音节的感叹词的原因包括:鉴于所使用的词的简明性来自然地且不自觉地进行强调;建立友好关系;传达说话者对其他人所做出的陈述表示同感或者给出肯定加强;以及避免给予冷漠的印象。
这里,感叹词是不具有任何词形变化的词,并且本身可以用来构成句子。感叹词可以包括对情绪、答复或称呼其他人的表达。感叹词的其他示例包括诸如日文中的[fu-mu]或[so-u]、英文中的“Ah”或“Oh”或者中文中的[shi(是)]或[ming-ba-i(明白)]的非正式反馈,并且还包括如稍后所述的动物的呼叫。
音节是说出的声音被划分成的分节。音节是通常由单个元音、或者附于元音的头部和/或尾部的一个或多个辅音构成的声音(或声音组),如在以下描述的模式1至4中那样。音节是指当听见时的一元化的声音。
1.元音(V)
2.辅音+元音(CV)
3.元音+辅音(VC)
4.辅音+元音+辅音(CVC)
日文中的音节包括落入模式1或2内的音节,但不包括落入模式3或4内的音节。
应注意,模式1至4包括对音节进行分类的一种示例方法。根据语言,对一元化声音的感知可以基于辅音而不是元音。在诸如中文的带声调的语言中,每个音节可以由元音与辅音的组合以及通过元音的音调的变换而产生的声调构成。
如上所述,当人们在交谈时,如下情况发生:人“b”通过重复具有2个以下音节的感叹词来对人“a”提出的问题进行答复。为了向用户提供用户正与人交谈的印象,总的来说,根据本发明的实施例的语音合成设备被配置为对语音进行合成以输出对用户提出的问题的答复,其中,如果感叹词中的音节数量为2个以下,则重复包括在答复中的感叹词至少两次。
如上所述,重复各个由2个以下音节组成的感叹词的原因包括:这样的感叹词如此简单以至于它们自然地且不自觉地倾向于被强调。因而,各个由2个以下音节组成的简单单词,不论这些单词是否为感叹词,都倾向于被重复。此外,可能存在为了确认而自然地且不自觉地重复具有3个以上音节的感叹词的情况。稍后将给出进一步考虑这些趋势的描述。
以下,将参照附图描述根据实施例的语音合成设备的细节。
第一实施例
图1是示出根据第一实施例的语音合成设备10的硬件配置的图。
语音合成设备10例如是诸如移动电话的终端装置,并且包括中央处理单元(CPU)11、存储器12、显示器13、触摸面板14、语音输入器102、通信器126和语音输出器142。
CPU 11控制整个语音合成设备10。存储器12被用作CPU 11的主要存储装置,并且存储用于语音合成的应用程序、各种数据等。显示器13例如是液晶显示装置,并且显示各种画面,诸如进行配置和操作所需的画面。触摸面板14检测显示器13显示的画面上的触摸位置并输出指示所检测到的触摸位置的信息。
语音输入器102由诸如以下的元件构成:将语音转换成电信号的麦克风、从所转换的语音信号中截止高频分量的低通滤波器(LPF)以及将高频分量被截止的语音信号转换成数字信号的A/D转换器(省略了对语音输入器102的详细描述)。通信器126经由互联网等与外部服务器进行通信。语音输出器142由诸如以下的元件构成:将合成的语音信号转换成模拟信号的D/A转换器、对已转换成模拟信号的语音信号进行放大的放大器以及对放大后的信号进行声学转换并将其输出的扬声器。
语音合成设备10被配置为通过执行应用程序来实现语音合成和输出对用户提出的问题的答复的功能。换言之,语音合成设备10由与应用程序一起进行操作的处理装置(诸如CPU)来实现。
该应用程序可以经由互联网从特定网站下载以安装在终端装置上,或者可以预先存储在诸如存储卡的计算机可读存储介质上以安装在终端装置上。
在语音合成设备10中,CPU 11通过执行应用程序来构建以下功能块。
图2是示出语音合成设备10的功能配置的框图。
如该图中所示,语音合成设备10包括获取器22、语音合成器24、分析器112、重复器114、语言数据库122、答复数据库124和语音库128。获取器22包括语言分析器108和首次答复生成器110,语音合成器24包括语音序列生成器116和合成器118。以上已给出了对语音输入器102、通信器126和语音输出器142的描述。
语言分析器108通过处理语音信号来分析(识别)语音输入器102输入的语音的语义内容。更具体地,语言分析器108通过参考在语言数据库122中预先创建的音素模型来分析单词的语音内容,以确定语音信号接近哪些音素。例如,隐马尔可夫模型可以用于音素模型。
首次答复生成器110参考答复数据库124和通信器126中的每一个以生成首次答复的文本再现,该首次答复对语言分析器108所分析的语音的语音内容进行答复。
例如,假设存在“现在是几点?”的问题。作为对该问题的响应,首次答复生成器110从内置的实时时钟(附图中未示出)获得时间信息以及从答复数据库124获得其他信息(例如,固定短语)以生成首次答复“现在是xx:xx”。
作为另一示例,假设存在问题“明天的天气如何?”。语音合成设备10无法通过自身来生成首次答复,并且需要访问外部服务器以获得天气信息。如在该情况中,当首次答复生成器110无法仅仅使用答复数据库124来生成首次答复时,通信器126经由互联网访问外部服务器,并且首次答复生成器110获得生成首次答复所需的信息。如目前所述的那样,首次答复生成器110被配置为从答复数据库124或外部服务器获得对问题进行答复的首次答复。
在已获得所需信息的情况下,首次答复生成器110使用固定短语来生成诸如“这是xxx”的首次答复以对问题进行答复。在一些情况下,作为生成具有对问题进行答复的特定内容的首次答复的替代,首次答复生成器110可以利用诸如“是”或“不是”的简单肯定/否定答案或诸如“确实如此”或“很好”的非正式反馈来生成感叹词作为首次答复。
这里所使用的术语“首次答复”是指首次答复生成器110生成的答复,以及是指尚未重复感叹词的答复。这样命名首次答复是为了将其与用于最终进行语音合成的二次答复区分开。
分析器112首先确定首次答复生成器110生成的首次答复是否包括感叹词。在首次答复包括感叹词的情况下,则分析器112分析感叹词中的音节数量。
在分析器112确定首次答复包括感叹词并且感叹词中的音节数量为2个以下的情况下,分析器112将首次答复提供至重复器114。在分析器112确定首次答复不包括感叹词或包括在首次答复中的感叹词中的音节数量为3个以上的情况下,分析器112将首次答复当作二次答复并从而将作为二次答复的首次答复输出至语音序列生成器116。
例如当首次答复生成器110生成的首次答复是诸如“将会是晴天”的陈述时,分析器112确定首次答复不包括感叹词。相反,在首次答复由日文单词[ha-i]组成的情况下,分析器112确定首次答复包括感叹词并且进一步确定感叹词中的音节数量为2个以下。在首次答复为日文单词[i-i-e]的情况下,分析器112确定首次答复包括感叹词并且确定感叹词中的音节数量为3个以上。
类似地,在所生成的首次答复是英文单词“yes(是)”的情况下,分析器112确定首次答复包括感叹词并且确定感叹词中的音节数量为3个以上。在首次答复为英文单词“no(否)”的情况下,分析器112确定首次答复包括感叹词并且确定感叹词中的音节数量为2个以下。
为了确定首次答复是否包括具有2个以下音节的感叹词,分析器112可以分析首次答复的文本再现,或者可以适用以下方法。具体地,首次答复生成器110可以按照使得首次答复中的感叹词与首次答复中的其他部分可区分开的方式来生成首次答复。分析器112可以预先存储有各个具有2个以下音节的不同的感叹词,并且当首次答复包括与预先存储的感叹词中的任一个匹配的可区分感叹词时,可以确定所生成的首次答复包括具有2个以下音节的感叹词。当首次答复不包括可区分感叹词时,或者当包括在首次答复中的可区分感叹词与预先存储的感叹词中的任一个均不匹配时,分析器112可以确定首次答复不包括具有2个以下音节的感叹词。
重复器114多次(在第一实施例中为两次)重复具有2个以下音节的感叹词,并且输出重复的感叹词作为要根据其来合成语音的二次答复。在上述示例中,当首次答复生成器110生成的首次答复由日文单词[ha-i]组成时,重复器114重复[ha-i]两次并且输出二次答复[ha-i-ha-i]。当首次答复由英文单词“no(否)”组成时,重复器114重复“no(否)”两次并输出二次答复“no,no(否、否)”。
语音序列生成器116根据重复器114重复感叹词的二次答复或者根据从分析器112输出的二次答复来生成语音序列。语音序列生成器116将所生成的语音序列提供至合成器118。
这里的术语“语音序列”是指用于根据二次答复对语音进行合成的数据。具体地,语音序列由用于指定根据二次答复要生成语音的时机、音调和音量的数据组成。
合成器118基于语音序列来对语音进行合成,并且以数字形式输出合成的语音信号。
这里,例如,合成器118以如下方式对语音进行合成。合成器118将由语音序列定义的答复的内容转换成语音单位的序列,并且从语音库128选择与各个语音单位对应的语音单位数据。在校正语音单位数据之间的联结以平滑地连接语音单位数据的同时,合成器118在对语音进行合成时针对所连接的语音单位数据将各个音调和音量改变为与由语音序列指定的音调和音量一致。
这里,语音库128是根据语音单位数据来预先编译的数据库,该语音单位数据用于限定各种语音单位的波形,语音单位包括生成语音时用作材料的各个音素和音素之间的变换。
接下来,将描述语音合成设备10的操作。图3是示出语音合成设备10中的处理的流程图。
当用户执行特定操作时,例如,当用户在显示器13上所显示的主菜单画面上选择与交互式处理对应的图标时,CPU 11使得与该处理对应的应用程序被执行。作为执行应用程序的结果,构造图2所示的功能块。
当用户通过语音对语音输入器102提出问题时,即,当用户将语音输入到语音输入器102中时,语音输入器102将语音转换成数字语音信号并将该信号提供至语言分析器108(步骤Sa11)。
接下来,语言分析器108分析问题的语音信号并将其含义作为文本提供至首次答复生成器110(步骤Sa12)。
首次答复生成器110通过参考答复数据库124并且还通过参考根据需要经由通信器126从外部服务器获得的信息来生成对所分析的语音做出回应的首次答复,并且将所生成的首次答复提供至分析器112(步骤Sa13)。
分析器112确定所生成的首次答复是否包括感叹词,并且如果肯定,则进行至确定感叹词中的音节数量是否为2个以下(步骤Sa14)。当确定结果为“是”时,分析器112将首次答复提供至重复器114。重复器114重复具有2个以下音节的感叹词两次,并且将所重复的感叹词提供至语音序列生成器116作为对语音进行合成所依据的二次答复(步骤Sa15)。
另一方面,当所生成的首次答复不包括感叹词时,或者当包括在首次答复中的感叹词的音节数量为3个以上时(即,当在步骤Sa14中的确定结果为“否”时),分析器112将首次答复直接提供至语音序列生成器116作为对语音进行合成所依据的二次答复。
语音序列生成器116生成与已从首次答复生成器110或重复器114输出的二次答复对应的语音序列,并且将语音序列提供至合成器118(步骤Sa16)。这里,由语音序列指定的、要说出答复的时机以及答复的音调和/或音量等可以从数据库中获得(在附图中省略了图示)。
合成器118根据语音序列生成器116生成的语音序列来根据二次答复对语音进行合成(步骤Sa17)。虽然在图中未示出,但是在根据二次答复对语音进行合成和输出之后,CPU 11终止应用程序的执行,并且再次显示菜单画面。
图4A是用户提出的示例问题的图片表示,图4B是对问题的示例答复的图片表示,该答复已由语音合成设备10合成。
如图4A所示,假设用户W将问题“asu wa hare?”(换言之,请求确认明天是否会是晴天的语音)输入到作为终端装置的语音合成设备10中。在这种情况下,我们假设首次答复生成器110生成的对问题的首次答复为作为确认的日文单词[ha-i],因为经由外部服务器获得的天气信息表明是“晴天”。该首次答复包括感叹词,并且该感叹词中的音节数量为2个。因此,如图4B所示,重复确认[ha-i]并且对语音进行合成以产生[ha-i-ha-i]。因此,作为对用户的问题的响应,用户W听见与机械答复相反的自然发声,因而,如同用户W正与人进行交谈。此外,作为重复感叹词的结果,可以与用户W建立更良好的关系。
图5A是用户提出的另一示例问题的图片表示,图5B是对问题的示例答复的图片表示,该答复已由语音合成设备10合成。
在图5A中,假设用户W将问题“asu no tenki wa?”(换言之,请求关于明天的天气将会怎样的特定信息的问题)输入到语音合成设备10中。在这种情况下,假设首次答复生成器110生成的首次答复是日文短语[ha-re-de-su],因为经由外部服务器获得的天气信息表明是“晴天”。由于首次答复不包括感叹词,因此按原样对语音进行合成以产生[ha-re-de-su],如图5B所示。
这里,日文短语[ha-re-de-su]在英文上意思是“It will be sunny(会是晴天)”。
第二实施例
接下来,将给出对第二实施例的描述。以下,用于表示第一实施例中的元件的附图标记用于表示相同或类似元件,并且适当地省略对这样的元件的详细描述。
图6是示出根据第二实施例的语音合成设备10的配置的框图。图6不同于图2之处在于,首次答复生成器110根据在模式设置器130处已配置的模式来生成对语言分析器108分析的问题做出答复的首次答复的文本再现。在第二实施例中,模式设置器130输出用户设置的模式作为CPU 11对从触摸面板14输出的信息执行的处理的结果(参见图1)。
在第二实施例中,存在可对首次答复生成器110进行配置的2种类型的模式:第一模式和第二模式。在第一模式下,即使当生成仅仅包括感叹词的首次答复就足以对用户提出的问题做出回应时,首次答复生成器110也生成包括该感叹词和附于感叹词的末尾的具体内容的首次答复。在第二模式下,当生成仅仅包括感叹词的首次答复就足以对用户提出的问题做出回应时,首次答复生成器110生成仅仅包括该感叹词的首次答复。在第二模式下,当生成仅仅包括感叹词的首次答复并不足以对该问题做出回应时,首次答复生成器110生成仅仅包括对该问题做出回应的特定内容的首次答复。
例如,假设提出问题“asu wa hare?”(“明天会是晴天吗?”)。如果已设置第一模式,则例如当答复是日文并且为肯定时,首次答复生成器110生成的首次答复将是[ha-iha-re-de-su](“是的,会是晴天”)。换言之,首次答复生成器110生成包括日文感叹词[ha-i]和在感叹词之后的、对问题做出回应的具体内容(即,日文短语[ha-re-de-su])的首次答复。
在该示例中,如果已设置第二模式,则例如当答复是日文并且为肯定时,首次答复生成器110生成的首次答复将是[ha-i](“是”)。即,首次答复将仅包括感叹词。假设在第二模式下问了问题“asu no tenki wa?”(“明天会是什么天气?”)。在该情况下,当经由外部服务器获得的天气信息表明是“晴天”时,如在第一实施例中那样,当答复是日文时,首次答复生成器110生成的首次答复将是[ha-re-de-su](“将是晴天”)。
接下来,将描述第二实施例的操作。
图7是示出语音合成设备10中的处理的流程图。
图7不同于图3之处在于,例如,首次答复生成器110在步骤Sa11之前的步骤Sa10中取回所配置的模式,并且在步骤Sa13中,根据所配置的模式,首次答复生成器110生成对语言分析器108分析的语音的含义做出回应的首次答复的文本再现。
在第二实施例中,在步骤Sa14中,如以上在第一实施例中所述,分析器112在第一模式或第二模式下分析首次答复生成器110生成的首次答复,并且如果确定首次答复确实包括感叹词,则分析器112分析感叹词中的音节数量是否为2个以下。
图8是示出根据第二实施例的语音合成设备10合成的示例答复的图。在该示例中,假设用户W输入问题“asu wa hare?”(“明天将是晴天吗?”),如图4A所示。
在该情况下,当经由外部服务器获得的天气信息表明是“晴天”时,并且当已设置第一模式时,将生成日文的首次答复[ha-i ha-re-de-su](“是的,将是晴天”)。应注意,在第二实施例中,重复包括在该首次答复中的感叹词[ha-i]多次,在该示例中为两次,并且对问题做出回应的具体内容[ha-re-de-su]接在重复的感叹词之后。换言之,对语音进行合成以产生[ha-i-ha-i ha-re-de-su]。
在第二实施例中,作为对用户W提出的问题的响应,对重复了具有2个以下音节的感叹词的答复进行语音合成,并且提供对问题进行确认的效果的具体内容接在重复的感叹词之后。以该方式,可以与用户W建立更良好的关系。
在第二实施例中,当经由外部服务器获得的天气信息表明是“晴天”时,并且当已设置第二模式时,将仅仅生成感叹词,例如日文单词[ha-i]。相应地,重复该感叹词[ha-i]多次,在该示例中为两次,并且对语音进行合成以产生[ha-i-ha-i],如图4B所示。
应用和变型
本发明不限于所述的实施例,并且对包括以下描述的各种应用和变型是开放的。以下应用和变型中的至少一个可以适当地与所述实施例中的任一个进行结合。
重复目标
在实施例中,当首次答复包括具有2个以下音节的感叹词时,合成对感叹词重复至少两次的语音。如已所述的那样,各个具有2个以下音节的简单单词,不论这些单词是否为感叹词,都倾向于被重复。此外,甚至各个具有3个以上音节的感叹词也倾向于被重复。
鉴于这些倾向,分析器112可以分析首次答复是否包括诸如以下所述的重复目标(单词),并且在确定所分析的首次答复包括该目标的情况下,分析器112可以将首次答复提供至重复器114。
第一重复目标可以是各个具有2个以下音节的感叹词,如在实施例中那样。第二重复目标可以是各个具有2个以下音节的简单单词,其中,简单单词不限于感叹词。第三重复目标可以是各个具有3个以上音节的感叹词。第一重复目标是最优选的,并且第二重复目标和第三重复目标是第一重复目标的替选。
可以是如下情况:由于各个具有2个以下音节的简单单词本身简单,因此难以分析这些简单单词,并且各个具有3个以上音节且可以重复的感叹词的数量有限。在这样的情况下,分析器112可以分析例如预先存储的目标中的任一个是否包括在首次答复中。
语音输入器等
在实施例中,语音输入器102被配置为将通过麦克风输入的用户的语音转换成语音信号。替选地,语音输入器102可以被配置为输入已由另一处理器处理的语音信号或从另一装置提供(或传递)的语音信号。换言之,这样的布置对于语音输入器102的操作而言是足够的,只要输入器被配置为无论用何种方式都能获得语音即可。
在实施例中,以文本格式生成对语音的语义内容进行回应的首次答复,但可以以除了文本外的数据格式(诸如,以声音波形数据格式)生成首次答复。当声音波形数据用于首次答复时,可以通过处理声音波形数据来分析重复目标的存在。在该情况下,优选的是将声音波形数据格式用于二次答复。
这里,在如在实施例中那样以文本格式生成首次答复时存在优点。例如,增强了分析重复目标的精确性,并且由于二次答复也将具有文本格式,因此该方法便于对语音进行合成。
此外,首次答复生成器110可以从外部服务器直接获得对输入的语音的首次答复,而不是通过参考答复数据库124中的固定短语来生成首次答复。换言之,这样的布置对于首次答复生成器110的操作而言是足够的,只要首次答复生成器110被配置为无论以何种方式都能获得对输入的语音的首次答复即可。
禁止模式
在实施例中,重复各个具有2个以下音节的感叹词两次。然而,在一些情况下,例如当重复[ha-i]并且对语音进行合成和输出以产生[[ha-i-ha-i]时,这样的答复可能听起来无礼,结果,可能在不同语境下对用户引起不适感。
鉴于这样的状况,语音合成设备10可以设置有禁止重复感叹词的操作模式(禁止模式)。在禁止模式下,取消重复感叹词的功能。在取消重复感叹词的功能的示例配置中,当已设置禁止模式时,重复器114可以被配置为禁止重复感叹词的功能。替选地,当已设置禁止模式时,分析器112可以被配置为:即使当包括在首次答复中的感叹词中的音节数量为2个以下时,也将首次答复生成器110生成的首次答复直接提供至语音序列生成器116,而不是将首次答复提供至重复器114。总之,语音合成设备10被配置为不重复各个具有2个以下音节的感叹词。
以该方式,甚至当首次答复生成器110生成的首次答复为具有2个以下音节的[ha-i]时,也不重复[ha-i],因而,将对语音进行合成以产生[ha-i]仅一次,如由首次答复所表示的那样,如图9所示。
禁止模式和第一模式或第二模式可以由用户手动设置,或者可以由设备根据分析输入的语音的内容和/或音量的结果、答复的内容、交谈的历史记录(或状况)等来自动配置。
语音和答复
虽然在实施例中基于人声对答复进行语音合成,但是除了人声外还可以使用动物的叫声。换言之,重复目标可以包括动物叫声以及人声。
例如,当用户将指示“这是美好的一天”的语义内容的语音与语言无关地输入到语音合成设备10中时,语音合成设备10可以重复猫的“meow”声音并执行语音合成以输出例如声音“Meow,meow”。
当语音合成设备10输出基于动物叫声而合成的声音时,用户不能获得他们希望的信息。例如,当用户问了问题“明天将是什么天气?”时,用户无法从这样的答复中获得明天的天气信息。然而,期望通过借助于动物叫声对用户提出的问题进行回应,语音合成设备10能够通过提供如同用户与再现动物叫声的虚拟动物进行交流的印象来向用户提供令人欣慰的效果。
使用语音合成设备10来执行基于动物叫声的语音合成不限于终端装置,并且可适合于模仿再现动物叫声的动物的宠物机器人或者毛绒玩具。
其他变型例
在实施例中,对重复目标重复两次,但可以重复它们三次以上。
CPU 11可以基于输入的语音的内容和/或音量、答复的内容、交谈的历史记录(或状况)等来配置重复次数。
在实施例中,一起构成用于获得对问题的首次答复的元件的语言分析器108、语言数据库122和答复数据库124包括在语音合成设备10中。然而,考虑到终端装置上的处理负荷将很重并且这样的装置具有相对有限的存储容量,这些元件可以包括在外部服务器中。换言之,这样的布置对于语音合成设备10的操作而言是足够的,只要该设备被配置为无论以何种方式都能获得对问题的首次答复即可,并且没有规定首次答复是由语音合成设备10还是由除了语音合成设备10外的另一实体(例如,外部服务器)生成的。
当以这样的方式使用语音合成设备10,使得语音合成设备10可以在不访问外部服务器等的情况下生成对语音的答复时,信息获取器126不是必需的。
根据实施例的语音合成设备10可以由专用电子电路系统或由通用个人计算机、以及由终端装置来实现。当使用个人计算机时,语音合成设备10通过连接至麦克风和扬声器并执行预先安装的应用程序的个人计算机来实现。在该情况下,安装在个人计算机中的应用程序可以经由互联网下载,对于终端装置就是如此,或者可以以其上已存储有应用程序的计算机可读存储介质的形式来提供安装在个人计算机中的应用程序。在本说明书中,存储介质例如是非暂时性存储介质,该非暂时性存储介质的一个很好示例是诸如CD-ROM的光学存储介质(光盘)。这样的存储介质的示例还可以包括半导体存储介质和磁性存储介质。
根据实施例的语音合成设备还可以被实现为用于合成语音的语音合成方法。
附图标记的描述
10语音合成设备;22获取器;24语音合成器;102语音输入器;108语言分析器;110首次答复生成器;112分析器;114重复器;116语音序列生成器;118合成器;126通信器。

Claims (21)

1.一种语音合成设备,包括:
语音输入器,其被配置为输入语音;
获取器,其被配置为获得对所述语音输入器输入的语音的首次答复;
分析器,其被配置为分析所述首次答复是否包括重复目标;以及
语音合成器,其被配置为在所分析的首次答复被确定为包括所述重复目标的情况下,根据包括重复至少两次的所述重复目标的二次答复来合成语音以输出所述语音,
其中,所述重复目标是具有2个以下音节的感叹词,
其中,所述分析器被配置为:
确定所述首次答复是否包括感叹词;以及
在确定所述首次答复包括感叹词的情况下,分析所述感叹词中的音节数量是否为2个以下。
2.根据权利要求1所述的语音合成设备,
其中,所述获取器包括:
语言分析器,其被配置为分析所述语音输入器输入的语音的含义;以及
首次答复生成器,其被配置为生成对所述语言分析器分析的含义做出回应的首次答复。
3.根据权利要求1所述的语音合成设备,还包括:重复器,其被配置为在所述分析器确定所述首次答复中所包括的感叹词中的音节数量为2个以下的情况下,重复所述感叹词至少两次,并且输出所重复的感叹词。
4.根据权利要求2所述的语音合成设备,还包括:重复器,其被配置为在所述分析器确定所述首次答复中所包括的感叹词中的音节数量为2个以下的情况下,重复所述感叹词至少两次,并且输出所重复的感叹词。
5.根据权利要求3所述的语音合成设备,
其中,所述语音合成器被配置为:
在所述首次答复中所包括的感叹词中的音节数量为2个以下的情况下,根据包括有已通过所述重复器进行重复的感叹词的所述二次答复来对语音进行合成;以及
在所述首次答复中所包括的感叹词中的音节数量为3个以上的情况下,将所述首次答复当作所述二次答复并且根据该二次答复对语音进行合成。
6.根据权利要求4所述的语音合成设备,
其中,所述语音合成器被配置为:
在所述首次答复中所包括的感叹词中的音节数量为2个以下的情况下,根据包括有已通过所述重复器进行重复的感叹词的所述二次答复来对语音进行合成;以及
在所述首次答复中所包括的感叹词中的音节数量为3个以上的情况下,将所述首次答复当作所述二次答复并且根据该二次答复对语音进行合成。
7.根据权利要求5所述的语音合成设备,
其中,所述语音合成器包括:
语音序列生成器,其被配置为根据所述二次答复来生成语音序列;以及
合成器,其被配置为输出基于所述语音序列而合成的语音信号。
8.根据权利要求6所述的语音合成设备,
其中,所述语音合成器包括:
语音序列生成器,其被配置为根据所述二次答复来生成语音序列;以及
合成器,其被配置为输出基于所述语音序列而合成的语音信号。
9.根据权利要求2所述的语音合成设备,
其中,所述语音合成设备在第一模式下或在第二模式下进行操作,
其中,所述首次答复生成器被配置为:在所述第一模式下,生成包括有感叹词和特定内容的所述首次答复,并且在所述第二模式下,生成仅包括感叹词或仅包括所述特定内容的首次答复。
10.根据权利要求5所述的语音合成设备,
其中,所述语音合成设备能够在禁止模式下进行操作,
其中,所述语音合成器被配置为在所述禁止模式下,在不重复具有2个以下音节的感叹词的情况下对语音进行合成。
11.根据权利要求6所述的语音合成设备,
其中,所述语音合成设备能够在禁止模式下进行操作,
其中,所述语音合成器被配置为在所述禁止模式下,在不重复具有2个以下音节的感叹词的情况下对语音进行合成。
12.根据权利要求7所述的语音合成设备,
其中,所述语音合成设备能够在禁止模式下进行操作,
其中,所述语音合成器被配置为在所述禁止模式下,在不重复具有2个以下音节的感叹词的情况下对语音进行合成。
13.根据权利要求8所述的语音合成设备,
其中,所述语音合成设备能够在禁止模式下进行操作,
其中,所述语音合成器被配置为在所述禁止模式下,在不重复具有2个以下音节的感叹词的情况下对语音进行合成。
14.根据权利要求9所述的语音合成设备,
其中,所述语音合成设备能够在禁止模式下进行操作,
其中,所述语音合成器被配置为在所述禁止模式下,在不重复具有2个以下音节的感叹词的情况下对语音进行合成。
15.根据权利要求10所述的语音合成设备,其中,所述重复器被配置为在所述禁止模式下,取消重复具有2个以下音节的感叹词的功能。
16.根据权利要求11所述的语音合成设备,其中,所述重复器被配置为在所述禁止模式下,取消重复具有2个以下音节的感叹词的功能。
17.根据权利要求12所述的语音合成设备,其中,所述重复器被配置为在所述禁止模式下,取消重复具有2个以下音节的感叹词的功能。
18.根据权利要求13所述的语音合成设备,其中,所述重复器被配置为在所述禁止模式下,取消重复具有2个以下音节的感叹词的功能。
19.根据权利要求14所述的语音合成设备,其中,所述重复器被配置为在所述禁止模式下,取消重复具有2个以下音节的感叹词的功能。
20.一种语音合成方法,包括:
输入语音;
获得对所输入的语音的首次答复;
分析所述首次答复是否包括重复目标;以及
在所分析的首次答复被确定为包括所述重复目标的情况下,根据包括有重复至少两次的所述重复目标的二次答复来合成语音以输出所述语音,
其中,所述重复目标是具有2个以下音节的感叹词,
其中,所述分析所述首次答复是否包括重复目标包括:
确定所述首次答复是否包括感叹词;以及
在确定所述首次答复包括感叹词的情况下,分析所述感叹词中的音节数量是否为2个以下。
21.一种非暂时性计算机可读存储介质,其上存储有计算机程序,所述程序用于使得计算机用作:
语音输入器,其被配置为输入语音;
获取器,其被配置为获得对所述语音输入器所输入的语音的首次答复;
分析器,其被配置为分析所述首次答复是否包括重复目标;以及
语音合成器,其被配置为在所分析的首次答复被确定为包括所述重复目标的情况下,根据包括有重复至少两次的所述重复目标的二次答复来合成语音以输出所述语音,
其中,所述重复目标是具有2个以下音节的感叹词,
其中,所述分析器被配置为:
确定所述首次答复是否包括感叹词;以及
在确定所述首次答复包括感叹词的情况下,分析所述感叹词中的音节数量是否为2个以下。
CN201580035951.5A 2014-07-02 2015-07-02 语音合成设备、语音合成方法及其存储介质 Active CN106471569B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014-136812 2014-07-02
JP2014136812 2014-07-02
PCT/JP2015/069126 WO2016002879A1 (ja) 2014-07-02 2015-07-02 音声合成装置、音声合成方法およびプログラム

Publications (2)

Publication Number Publication Date
CN106471569A CN106471569A (zh) 2017-03-01
CN106471569B true CN106471569B (zh) 2020-04-28

Family

ID=55019406

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201580035951.5A Active CN106471569B (zh) 2014-07-02 2015-07-02 语音合成设备、语音合成方法及其存储介质

Country Status (5)

Country Link
US (1) US10224021B2 (zh)
EP (1) EP3166104B1 (zh)
JP (2) JP6428774B2 (zh)
CN (1) CN106471569B (zh)
WO (1) WO2016002879A1 (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10943583B1 (en) * 2017-07-20 2021-03-09 Amazon Technologies, Inc. Creation of language models for speech recognition
US10600408B1 (en) * 2018-03-23 2020-03-24 Amazon Technologies, Inc. Content output management based on speech quality
US10530465B2 (en) * 2018-05-30 2020-01-07 Motorola Solutions, Inc. Apparatus, system and method for generating a virtual assistant on a repeater
US11393471B1 (en) * 2020-03-30 2022-07-19 Amazon Technologies, Inc. Multi-device output management based on speech characteristics

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1936983A (zh) * 2006-09-30 2007-03-28 山东建筑大学 智能语音警示系统
JP2010175717A (ja) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp 音声合成装置
CN102324231A (zh) * 2011-08-29 2012-01-18 北京捷通华声语音技术有限公司 一种游戏对话声音合成方法和系统

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05216618A (ja) 1991-11-18 1993-08-27 Toshiba Corp 音声対話システム
DE69232407T2 (de) 1991-11-18 2002-09-12 Toshiba Kawasaki Kk Sprach-Dialog-System zur Erleichterung von Rechner-Mensch-Wechselwirkung
DE19861167A1 (de) * 1998-08-19 2000-06-15 Christoph Buskies Verfahren und Vorrichtung zur koartikulationsgerechten Konkatenation von Audiosegmenten sowie Vorrichtungen zur Bereitstellung koartikulationsgerecht konkatenierter Audiodaten
SE0004221L (sv) 2000-11-17 2002-04-02 Forskarpatent I Syd Ab Metod och anordning för talanalys
JP2002311981A (ja) 2001-04-17 2002-10-25 Sony Corp 自然言語処理装置および自然言語処理方法、並びにプログラムおよび記録媒体
GB0112749D0 (en) 2001-05-25 2001-07-18 Rhetorical Systems Ltd Speech synthesis
GB0113581D0 (en) * 2001-06-04 2001-07-25 Hewlett Packard Co Speech synthesis apparatus
JP2003271194A (ja) 2002-03-14 2003-09-25 Canon Inc 音声対話装置及びその制御方法
JP2004110673A (ja) 2002-09-20 2004-04-08 Nippon Telegr & Teleph Corp <Ntt> 文章スタイル変換方法、文章スタイル変換装置、文章スタイル変換プログラム、文章スタイル変換プログラムを格納した記録媒体
JP4038211B2 (ja) * 2003-01-20 2008-01-23 富士通株式会社 音声合成装置,音声合成方法および音声合成システム
US6955602B2 (en) 2003-05-15 2005-10-18 Zi Technology Corporation Ltd Text entry within a video game
US20050154594A1 (en) * 2004-01-09 2005-07-14 Beck Stephen C. Method and apparatus of simulating and stimulating human speech and teaching humans how to talk
JP2006039120A (ja) * 2004-07-26 2006-02-09 Sony Corp 対話装置および対話方法、並びにプログラムおよび記録媒体
JP2006157538A (ja) * 2004-11-30 2006-06-15 Sony Corp 電話システムおよび電話システムの音声出力方法
JP4832097B2 (ja) 2006-02-13 2011-12-07 富士通テン株式会社 音声対話システム
KR100764174B1 (ko) * 2006-03-03 2007-10-08 삼성전자주식회사 음성 대화 서비스 장치 및 방법
US8930192B1 (en) * 2010-07-27 2015-01-06 Colvard Learning Systems, Llc Computer-based grapheme-to-speech conversion using a pointing device
US9064492B2 (en) * 2012-07-09 2015-06-23 Nuance Communications, Inc. Detecting potential significant errors in speech recognition results
US9799328B2 (en) * 2012-08-03 2017-10-24 Veveo, Inc. Method for using pauses detected in speech input to assist in interpreting the input during conversational interaction for information retrieval
KR101709187B1 (ko) * 2012-11-14 2017-02-23 한국전자통신연구원 계층적 대화 태스크 라이브러리를 이용한 이중 대화관리 기반 음성대화시스템
JP5821824B2 (ja) * 2012-11-14 2015-11-24 ヤマハ株式会社 音声合成装置
US9292488B2 (en) * 2014-02-01 2016-03-22 Soundhound, Inc. Method for embedding voice mail in a spoken utterance using a natural language processing computer system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1936983A (zh) * 2006-09-30 2007-03-28 山东建筑大学 智能语音警示系统
JP2010175717A (ja) * 2009-01-28 2010-08-12 Mitsubishi Electric Corp 音声合成装置
CN102324231A (zh) * 2011-08-29 2012-01-18 北京捷通华声语音技术有限公司 一种游戏对话声音合成方法和系统

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
response timing generation and response type selection for a spontaneous spoken dialog system;Ryota Nishimura;《IEEE Workshop on Automatic speech recognition 2009》;20091231;463 *

Also Published As

Publication number Publication date
JP6428774B2 (ja) 2018-11-28
US20170116978A1 (en) 2017-04-27
EP3166104A4 (en) 2018-03-07
EP3166104A1 (en) 2017-05-10
JP2019045867A (ja) 2019-03-22
JPWO2016002879A1 (ja) 2017-04-27
JP6648805B2 (ja) 2020-02-14
WO2016002879A1 (ja) 2016-01-07
US10224021B2 (en) 2019-03-05
CN106471569A (zh) 2017-03-01
EP3166104B1 (en) 2019-09-18

Similar Documents

Publication Publication Date Title
RU2632424C2 (ru) Способ и сервер для синтеза речи по тексту
KR102582291B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
JP6648805B2 (ja) 音声制御方法、音声制御装置およびプログラム
JP5198046B2 (ja) 音声処理装置及びそのプログラム
JP2008129412A (ja) 半導体集積回路装置、電子機器
JP6127422B2 (ja) 音声認識装置及び方法、並びに、半導体集積回路装置
Shechtman et al. Emphatic speech prosody prediction with deep lstm networks
JP6289950B2 (ja) 読み上げ装置、読み上げ方法及びプログラム
Raveh et al. A Computational Model for Phonetically Responsive Spoken Dialogue Systems.
JP6566076B2 (ja) 音声合成方法およびプログラム
Trouvain et al. Speech synthesis: text-to-speech conversion and artificial voices
Reddy et al. Speech-to-Text and Text-to-Speech Recognition Using Deep Learning
Gahlawat et al. Integrating human emotions with spatial speech using optimized selection of acoustic phonetic units
Padda et al. A Step towards Making an Effective Text to speech Conversion System
JP7162579B2 (ja) 音声合成装置、方法及びプログラム
Bharadwaj et al. Analysis of Prosodic features for the degree of emotions of an Assamese Emotional Speech
JP2011180368A (ja) 合成音声修正装置および合成音声修正方法
Hande A review on speech synthesis an artificial voice production
Tatham et al. Speech synthesis in dialogue systems
Hoffmann Analysis-by-Synthesis in Prosody Research
Morton PALM: psychoacoustic language modelling
KR20220116660A (ko) 인공지능 스피커 기능을 탑재한 텀블러 장치
JP6221267B2 (ja) 音声認識装置及び方法、並びに、半導体集積回路装置
KR20190072777A (ko) 커뮤니케이션 방법 및 장치
Hamad et al. Arabic speech signal processing text-to-speech synthesis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant