CN106875947B - 用于智能机器人的语音输出方法和装置 - Google Patents
用于智能机器人的语音输出方法和装置 Download PDFInfo
- Publication number
- CN106875947B CN106875947B CN201611232261.1A CN201611232261A CN106875947B CN 106875947 B CN106875947 B CN 106875947B CN 201611232261 A CN201611232261 A CN 201611232261A CN 106875947 B CN106875947 B CN 106875947B
- Authority
- CN
- China
- Prior art keywords
- mouth
- opening
- closing
- time length
- word segmentation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000011218 segmentation Effects 0.000 claims abstract description 63
- 230000008451 emotion Effects 0.000 claims description 25
- 230000008569 process Effects 0.000 claims description 5
- 230000003993 interaction Effects 0.000 abstract description 11
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006854 communication Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000002789 length control Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J11/00—Manipulators not otherwise provided for
- B25J11/0005—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means
- B25J11/001—Manipulators having means for high-level communication with users, e.g. speech generator, face recognition means with emotions simulating means
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3343—Query execution using phonetics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Human Computer Interaction (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Acoustics & Sound (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Manipulator (AREA)
- Toys (AREA)
Abstract
本发明公开了一种用于智能机器人的语音输出方法和装置。该方法包括:获取待输出的语音信息对应的文本信息;对所述文本信息进行分词;根据分词结果生成嘴部的张合次数与每次张合的时长,结合所述张合次数和所述时长控制执行语音输出。本发明使得机器人在与用户进行语音交互时,能够根据语音输出内容来改变机器人嘴部状态,给用户带来较好的交互体验,提高机器人的智能性和类人性以及用户与机器人进行交互的意愿。
Description
技术领域
本发明涉及智能机器人领域,尤其涉及一种用于智能机器人的语音输出方法和装置。
背景技术
随着科学技术的不断发展,信息技术、计算机技术以及人工智能技术的引入,机器人的研究已经逐步走出工业领域,逐渐扩展到了医疗、保健、家庭、娱乐以及服务行业等领域。而人们对于机器人的要求也从简单重复的机械动作提升为具有拟人问答、自主性及与其他机器人进行交互的智能机器人,人机交互也就成为决定智能机器人发展的重要因素。
在机器人与用户进行语音交互时,表示机器人嘴部的输出设备通常是保持一定状态不变的,这样会导致给用户带来不好的交互体验,降低用户与机器人进行交互的意愿。而且,机器人的这种状态与其发展趋势——高度拟人存在较大差别,且智能性较差。
综上,需要提供一种能够提高机器人类人性和智能性的、使机器人在与用户进行语音交互时会带来更好的用户体验的方法。
发明内容
本发明所要解决的技术问题之一是需要提供一种能够提高机器人类人性和智能性的、使机器人在与用户进行语音交互时会带来更好的用户体验的解决方案。
为了解决上述技术问题,本申请的实施例首先提供了一种用于智能机器人的语音输出方法,该方法包括:获取待输出的语音信息对应的文本信息;对所述文本信息进行分词;根据分词结果生成嘴部的张合次数与每次张合的时长,结合所述张合次数和所述时长控制执行语音输出。
优选地,在根据分词结果生成嘴部的张合次数与每次张合的时长的步骤中,进一步包括:根据所述分词结果中的词的数量确定所述嘴部的张合次数;基于所述文本信息计算进行语音信息输出所需的总时长,根据所述分词结果和总时长确定所述嘴部每次张合的时长。
优选地,在根据所述分词结果和总时长确定所述嘴部每次张合的时长的步骤中,进一步包括:根据所述分词结果中不同词在文本信息中所代表的成分结构,赋予各个词对应的权重;通过计算所述总时长与每个词对应权重的乘积值确定所述嘴部每次张合的时长。
优选地,该方法进一步还包括:对所述文本信息进行情绪分析,根据情绪分析结果控制进行语音输出时的嘴型状态。
优选地,在结合所述张合次数和所述时长控制执行语音输出的步骤中,进一步包括:上位机结合所述张合次数和所述时长,生成相应的下位机嘴部控制指令并发送给下位机;下位机结合所述嘴部控制指令控制嘴部动画,或者嘴部机械设备配合语音输出进行张合。
根据另一方面,本发明实施例还提供了一种用于智能机器人的语音输出装置,该装置包括:文本信息获取模块,其获取待输出的语音信息对应的文本信息;分词模块,其对所述文本信息进行分词;语音输出模块,其根据分词结果生成嘴部的张合次数与每次张合的时长,结合所述张合次数和所述时长控制执行语音输出。
优选地,所述语音输出模块进一步包括:张合次数确定子模块,其根据所述分词结果中的词的数量确定所述嘴部的张合次数;张合时长确定子模块,其基于所述文本信息计算进行语音信息输出所需的总时长,根据所述分词结果和总时长确定所述嘴部每次张合的时长。
优选地,所述张合时长确定子模块,其进一步根据所述分词结果中不同词在文本信息中所代表的成分结构,赋予各个词对应的权重,通过计算所述总时长与每个词对应权重的乘积值确定所述嘴部每次张合的时长。
优选地,该装置进一步还包括:嘴型状态控制模块,其对所述文本信息进行情绪分析,根据情绪分析结果控制进行语音输出时的嘴型状态。
优选地,所述语音输出模块进一步包括:控制指令发出子模块,其根据所述张合次数和所述时长,生成并发送相应的嘴部控制指令;嘴部控制子模块,其根据所述嘴部控制指令控制嘴部动画,或者嘴部机械设备配合语音输出进行张合。
与现有技术相比,上述方案中的一个或多个实施例可以具有如下优点或有益效果:
在智能机器人进行语音输出时,通过先获取待输出的语音信息对应的文本信息,然后对文本信息进行分词,根据分词结果生成嘴部的张合次数与每次张合的时长,能够结合张合次数和时长控制执行语音输出。因此,在机器人与用户进行交互时,机器人嘴部能够模仿人类在进行语音输出时嘴部的动作,提高机器人的智能性和类人性。
本发明的其它特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明的技术方案而了解。本发明的目的和其他优点可通过在说明书、权利要求书以及附图中所特别指出的结构和/或流程来实现和获得。
附图说明
附图用来提供对本申请的技术方案或现有技术的进一步理解,并且构成说明书的一部分。其中,表达本申请实施例的附图与本申请的实施例一起用于解释本申请的技术方案,但并不构成对本申请技术方案的限制。
图1为根据本发明第一实施例的用于智能机器人的语音输出方法的流程示意图。
图2为根据本发明第一实施例的用于智能机器人的语音输出方法的步骤S130的具体流程示意图。
图3为根据本发明第二实施例的用于智能机器人的语音输出方法的流程示意图。
图4为根据本发明第三实施例的用于智能机器人的语音输出装置300的结构示意图。
图5为根据本发明第四实施例的用于智能机器人的语音输出装置3000的结构示意图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此对本发明如何应用技术手段来解决技术问题,并达成相应技术效果的实现过程能充分理解并据以实施。本申请实施例以及实施例中的各个特征,在不相冲突前提下可以相互结合,所形成的技术方案均在本发明的保护范围之内。
另外,附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行。并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
随着智能机器人产品的普及,越来越多的家庭和商家都需要机器人为其服务。然而,现有技术中,仿真机器人与用户进行语音交互时,机器人嘴部要么保持不动仅输出语音信息,要么嘴部执行预先设定的、与发出的语音信息毫不匹配的嘴部动作,例如,在输出语音时,嘴部总是保持一定频率的一张一合的状态,这多少会给用户带来不好的体验,降低用户与机器人交互的兴趣。因此,亟需一种解决方案来解决上述问题。
本发明实施例的用于智能机器人的语音输出方法提高了机器人的智能性和类人性,使机器人在与用户进行语音交流的过程中,嘴部能够根据发出的语音信息来做出相应的张合动作,提高用户的体验感。具体来说,机器人在输出语音信息之前,对待输出语音信息的文本信息进行分词处理,然后根据分词结果生成嘴部的张合次数和每次张合的时长,并结合张合次数和时长控制执行语音输出,通过上面的方法能够使机器人在发出语音信息的同时保持嘴部的动作与语音信息匹配,使用户感受到机器人的趣味性和类人性。
另外,在本发明实施例中,机器人除了能够根据待输出语音信息的文本信息计算得到张合次数和每次张合的时长,还能够对文本信息进行情绪分析,并根据情绪分析结果控制进行语音输出时的嘴型状态,例如,在情绪分析结果为积极情绪时,则控制嘴部表现出嘴角上扬的状态,在情绪分析结果为消极情绪时,则控制嘴部表现出嘴角下垂的状态。这样能够进一步使机器人在语音输出的过程中,呈现出类人态的表现,提高用户体验。
在本发明实施例中,在计算嘴部的张合次数时,可以根据分词结果中的词的数量来确定;在计算每次张合的时长时,可以基于文本信息计算进行语音信息输出所需的总时长,然后根据分词结果和总时长来确定,更具体地,根据分词结果中不同词在文本信息中所代表的成分结构,赋予各个词对应的权重,通过计算总时长与每个词对应权重的乘积值确定所述嘴部每次张合的时长。由于根据词语的成分结构所对应的权重来计算每次张合的时长,因此机器人在对不同成分的词进行发音时会突出所要表达的重点内容,能够提高机器人的类人性以及用户与机器人的交互体验。
另外,需要说明的是,在机器人内部设置有上位机和下位机,在控制执行语音输出时,上位机结合张合次数和时长,生成相应的下位机嘴部控制指令并发送给下位机,下位机结合嘴部控制指令控制嘴部动画,或者嘴部机械设备配合语音输出进行张合。这样设置能够更好地分工操作,减轻上位机和下位机的数据处理负担。
如上段内容所述,在本发明实施例中,机器人的“嘴部”可以是以动画方式表示的虚拟嘴部,还可以是以机械结构的形式形成的真实的嘴部。
第一实施例
图1为根据本发明第一实施例的用于智能机器人的语音输出方法的流程示意图,该实施例的方法主要包括以下步骤。
首先,在步骤S110中,获取待输出的语音信息对应的文本信息。
需要说明的是,机器人可以自发地向用户发出语音信息,也可以通过与用户进行语音交互,并解析用户输入的语音信息来生成待输出的语音信息对应的文本信息。以语音交互为例,用户与机器人进行语音交互的过程中,用户向机器人发出语音信息,未知语音信号经麦克风、话筒之类的语音信号采集设备变换成电信号后输入到识别系统的输入端再进行处理。在接收到多模态输入信息后,响应该多模态输入数据生成对应的文本信息,然后根据该文本信息生成待输出给用户的语音信息对应的文本信息。
在对语音信息进行解析时,先进行例如去噪之类的预处理,然后将预处理后的语音信息进行语音识别的综合分析,生成与语音信息对应的文本信息。
例如,在对文本信息进行解析后得到用户输入的语音信息是“你今天过的怎么样啊”,生成的待输出的语音信息对应的文本信息可以为“我今天过的很好,你今天过的怎么样啊”。
接着,在步骤S120中,对文本信息进行分词。
“分词”是指以词为基本单位,将文本信息中的词逐个切分出来。以对中文语句进行分词为例,可以采用基于字符串匹配的分词方法、基于统计的分词方法和基于理解的分词方法。其中基于字符串匹配的分词方法分为最大匹配法、最小匹配法和全切分法。最大匹配法可以分为正向最大匹配法(由左到右的方向)、逆向最大匹配法(由右到左的方向)。
另外,在对文本信息进行分词的过程中,根据语法信息库对每个词在句子中的成分结构或词性(例如,主、谓、宾、名词、动词、形容词)进行确定。例如,文本信息“你今天过的怎么样啊”进行分词后的结果是:你(主)/今天(状)/过(谓)/的/怎么样(宾)/啊。
然后,在步骤S130中,根据分词结果生成嘴部的张合次数与每次张合的时长,结合张合次数和时长控制执行语音输出。图2是根据本发明第一实施例的步骤S130的具体流程示意图,下面参考图2详细说明步骤S130的各个子步骤。
在子步骤S1310中,根据分词结果中的词的数量确定嘴部的张合次数。
简而言之,在一个实施例中,可以认为机器人嘴部的张合次数与文本信息中所包含的词的数量一致,以上面例子来说,机器人输出“你今天过的怎么样啊”的语音信息时,由于该文本信息中包含的词的数量为6个,则机器人嘴部的张合次数为6次。当然,为了避免机器人嘴部张合次数过多,在其他实施例中,也可以设定机器人嘴部张合的次数等于分词结果中某些重要成分词的数量值,且对应输出这些重要成分词时嘴部进行张合操作。
在子步骤S1320中,基于文本信息计算进行语音信息输出所需的总时长,根据分词结果和总时长确定嘴部每次张合的时长,结合张合次数和时长控制执行语音输出。在子步骤S1320中,进一步优选地,还包括子步骤S1321、S1322和S1323。
在子步骤S1321中,根据分词结果中不同词在文本信息中所代表的成分结构,赋予各个词对应的权重。
在步骤S120中通过对文本信息进行分词处理,能够获取每个词在文本中表示的成分结构,预先给不同成分结构赋予一定的权重比例(例如,百分比),设定所有词的总和为百分之百。例如,主语成分的词的权重为20%、谓语成分的词的权重为10%......,则上面例子中,各分词所占比例为:你(20%)/今天(20%)/过(10%)/的(10%)/怎么样(30%)/啊(10%)。或者,还可以根据分词结果中不同词在文本信息中的词性(例如,名词、动词、形容词)来赋予各个词对应的权重。
在子步骤S1322中,通过计算总时长与每个词对应权重的乘积值确定嘴部每次张合的时长。
具体地,可以通过如下表达式来得到嘴部每次张合的时长:总时长*每个词的权重。例如,“你今天过的怎么样啊”的TTS合成的音频总时长是4秒,通过利用上面表达式计算得到对应“你”字输出时,嘴部张合的时长是0.8秒、“今天”是0.8秒、“过”是0.4秒、“的”是0.4秒、“怎么样”是1.2秒、“啊”是0.4秒,总共4秒。
在子步骤S1323中,结合张合次数和时长控制执行语音输出。
具体地,机器人内部设置有上位机和下位机,为了更好地分工操作,减轻上位机和下位机的数据处理负担,上位机结合张合次数和时长,生成相应的下位机嘴部控制指令并发送给下位机,下位机结合嘴部控制指令控制嘴部动画,或者嘴部机械设备配合语音输出进行张合。具体来说,上位机发出的下位机嘴部控制指令中包括完成进行语音输出时嘴部张合次数,以及每次张合的时长。下位机在接收到嘴部控制指令后,控制嘴部配合语音输出进行张合。
本发明实施例在智能机器人进行语音输出时,使机器人通过先获取待输出的语音信息对应的文本信息,然后对文本信息进行分词,根据分词结果生成嘴部的张合次数与每次张合的时长,能够结合张合次数和时长控制执行语音输出。因此,在机器人与用户进行交互时,机器人嘴部能够模仿人类在进行语音输出时嘴部的动作,提高机器人的智能性和类人性。
第二实施例
图3为根据本发明第二实施例的用于智能机器人的语音输出方法的流程示意图,该实施例的方法主要包括以下步骤,其中,将与第一实施例相似的步骤以相同的标号标注,且不再赘述其具体内容,仅对区别步骤进行具体描述。
在步骤S110中,获取待输出的语音信息对应的文本信息。
在步骤S120中,对文本信息进行分词。
在步骤S130中,根据分词结果生成嘴部的张合次数与每次张合的时长,结合张合次数和时长控制执行语音输出。
在步骤S140中,对文本信息进行情绪分析,根据情绪分析结果控制进行语音输出时的嘴型状态。
除了获取嘴部的张合次数和每次张合的时长以外,为了更好地提高机器人的类人性,还需要对待输出语音信息对应的文本信息进行情绪分析。例如,可以根据情感词典来解析文本信息中每个词的情绪属性信息,若一句话中包含的某一类情感属性的词较多,则对应该情感属性输出用于控制机器人嘴型状态的控制指令。例如,若文本信息所呈现的情绪为高兴,则输出控制机器人嘴部的嘴角上扬的控制指令,若文本信息所呈现的情绪为悲伤,则输出控制机器人嘴部的嘴角下垂的控制指令。上位机发出嘴型状态的控制指令给下位机,下位机根据控制指令驱动控制构成嘴部的机械结构使嘴部呈现出相应的形态,或者在嘴部为虚拟图像时,下位机控制生成对应形态的虚拟嘴部图像显示在机器人的显示设备上。
需要说明的是,该步骤可以与步骤S130同时执行,也可以在步骤S130后执行,例如,在机器人输出语音信息后进行嘴部形态的控制,此处不做限定。
第三实施例
图4为根据本发明第三实施例的用于智能机器人的语音输出装置300的结构示意图。如图4所示,本实施例的语音输出装置300主要包括:文本信息获取模块310、分词模块320和语音输出模块330。
文本信息获取模块310,其获取待输出的语音信息对应的文本信息。
分词模块320,其与文本信息获取模块310连接,分词模块320对所述文本信息进行分词。
语音输出模块330,与分词模块320连接,语音输出模块330根据分词结果生成嘴部的张合次数与每次张合的时长,结合所述张合次数和所述时长控制执行语音输出。语音输出模块330进一步包括:张合次数确定子模块3310、张合时长确定子模块3320、控制指令发出子模块3330和嘴部控制子模块3340。
张合次数确定子模块3310,其根据所述分词结果中的词的数量确定所述嘴部的张合次数。张合时长确定子模块3320,其基于所述文本信息计算进行语音信息输出所需的总时长,根据所述分词结果和总时长确定所述嘴部每次张合的时长。张合时长确定子模块3320,其进一步根据所述分词结果中不同词在文本信息中所代表的成分结构,赋予各个词对应的权重,通过计算所述总时长与每个词对应权重的乘积值确定所述嘴部每次张合的时长。控制指令发出子模块3330,其根据所述张合次数和所述时长,生成并发送相应的嘴部控制指令。嘴部控制子模块3340,其根据所述嘴部控制指令控制嘴部动画,或者嘴部机械设备配合语音输出进行张合。
通过合理设置,本实施例的语音输出装置300可以执行第一实施例中涉及的语音输出方法的各个步骤,此处不再赘述。
第四实施例
图5为根据本发明第四实施例的用于智能机器人的语音输出装置3000的结构示意图。其中,将与第三实施例功能相似的模块以相同的标号标注,且不再赘述其具体内容,仅对区别模块进行具体描述。
如图5所示,本实施例的语音输出装置3000除了包括第三实施例中涉及的文本信息获取模块310、分词模块320和语音输出模块330以外,还包括嘴型状态控制模块340。嘴型状态控制模块330,其对所述文本信息进行情绪分析,根据情绪分析结果控制进行语音输出时的嘴型状态。
通过合理设置,本实施例的语音输出装置3000可以执行第二实施例中涉及的语音输出方法的各个步骤,此处不再赘述。
由于本发明的方法描述的是在计算机系统中实现的。该计算机系统例如可以设置在机器人的控制核心处理器中。例如,本文所述的方法可以实现为能以控制逻辑来执行的软件,其由机器人操作系统中的CPU来执行。本文所述的功能可以实现为存储在非暂时性有形计算机可读介质中的程序指令集合。当以这种方式实现时,该计算机程序包括一组指令,当该组指令由计算机运行时其促使计算机执行能实施上述功能的方法。可编程逻辑可以暂时或永久地安装在非暂时性有形计算机可读介质中,例如只读存储器芯片、计算机存储器、磁盘或其他存储介质。除了以软件来实现之外,本文所述的逻辑可利用分立部件、集成电路、与可编程逻辑设备(诸如,现场可编程门阵列(FPGA)或微处理器)结合使用的可编程逻辑,或者包括它们任意组合的任何其他设备来体现。所有此类实施例旨在落入本发明的范围之内。
应该理解的是,本发明所公开的实施例不限于这里所公开的特定结构、处理步骤或材料,而应当延伸到相关领域的普通技术人员所理解的这些特征的等同替代。还应当理解的是,在此使用的术语仅用于描述特定实施例的目的,而并不意味着限制。
说明书中提到的“一个实施例”或“实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一个实施例”或“实施例”并不一定均指同一个实施例。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。任何本发明所属技术领域内的技术人员,在不脱离本发明所公开的精神和范围的前提下,可以在实施的形式上及细节上作任何的修改与变化,但本发明的专利保护范围,仍须以所附的权利要求书所界定的范围为准。
Claims (6)
1.一种用于智能机器人的语音输出方法,该方法包括:
获取待输出的语音信息对应的文本信息;
对所述文本信息进行分词;
根据分词结果生成嘴部的张合次数与每次张合的时长,结合所述张合次数和所述时长控制执行语音输出;
其中,控制机器人执行语音输出的过程中还包括:对所述文本信息进行情绪分析,根据情绪分析结果控制进行语音输出时的嘴型状态;
在根据分词结果生成嘴部的张合次数与每次张合的时长的步骤中,包括:
根据所述分词结果中的词的数量确定所述嘴部的张合次数;其中,将分词结果对应的所有词的数量或重要成分词的数量作为嘴部的张合次数;
基于所述文本信息计算进行语音信息输出所需的总时长,根据所述分词结果和总时长确定所述嘴部每次张合的时长。
2.根据权利要求1所述的方法,其特征在于,在根据所述分词结果和总时长确定所述嘴部每次张合的时长的步骤中,进一步包括:
根据所述分词结果中不同词在文本信息中所代表的成分结构,赋予各个词对应的权重;
通过计算所述总时长与每个词对应权重的乘积值确定所述嘴部每次张合的时长。
3.根据权利要求1所述的方法,其特征在于,在结合所述张合次数和所述时长控制执行语音输出的步骤中,进一步包括:
上位机结合所述张合次数和所述时长,生成相应的下位机嘴部控制指令并发送给下位机;
下位机结合所述嘴部控制指令控制嘴部动画,或者嘴部机械设备配合语音输出进行张合。
4.一种用于智能机器人的语音输出装置,该装置包括:
文本信息获取模块,其获取待输出的语音信息对应的文本信息;
分词模块,其对所述文本信息进行分词;
语音输出模块,其根据分词结果生成嘴部的张合次数与每次张合的时长,结合所述张合次数和所述时长控制执行语音输出;
嘴型状态控制模块,其对所述文本信息进行情绪分析,根据情绪分析结果控制进行语音输出时的嘴型状态;
所述语音输出模块包括:
张合次数确定子模块,其根据所述分词结果中的词的数量确定所述嘴部的张合次数;其中,将分词结果对应的所有词的数量或重要成分词的数量作为嘴部的张合次数;
张合时长确定子模块,其基于所述文本信息计算进行语音信息输出所需的总时长,根据所述分词结果和总时长确定所述嘴部每次张合的时长。
5.根据权利要求4所述的装置,其特征在于,
所述张合时长确定子模块,其进一步根据所述分词结果中不同词在文本信息中所代表的成分结构,赋予各个词对应的权重,通过计算所述总时长与每个词对应权重的乘积值确定所述嘴部每次张合的时长。
6.根据权利要求4所述的装置,其特征在于,所述语音输出模块进一步包括:
控制指令发出子模块,其根据所述张合次数和所述时长,生成并发送相应的嘴部控制指令;
嘴部控制子模块,其根据所述嘴部控制指令控制嘴部动画,或者嘴部机械设备配合语音输出进行张合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611232261.1A CN106875947B (zh) | 2016-12-28 | 2016-12-28 | 用于智能机器人的语音输出方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611232261.1A CN106875947B (zh) | 2016-12-28 | 2016-12-28 | 用于智能机器人的语音输出方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106875947A CN106875947A (zh) | 2017-06-20 |
CN106875947B true CN106875947B (zh) | 2021-05-25 |
Family
ID=59165066
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611232261.1A Active CN106875947B (zh) | 2016-12-28 | 2016-12-28 | 用于智能机器人的语音输出方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106875947B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107808191A (zh) * | 2017-09-13 | 2018-03-16 | 北京光年无限科技有限公司 | 虚拟人多模态交互的输出方法和系统 |
CN108174123A (zh) * | 2017-12-27 | 2018-06-15 | 北京搜狐新媒体信息技术有限公司 | 数据处理方法、装置及系统 |
CN108961431A (zh) * | 2018-07-03 | 2018-12-07 | 百度在线网络技术(北京)有限公司 | 人物表情的生成方法、装置及终端设备 |
CN110021297A (zh) * | 2019-04-13 | 2019-07-16 | 上海影隆光电有限公司 | 一种基于音视频识别的智能显示方法及其装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10293860A (ja) * | 1997-02-24 | 1998-11-04 | Nippon Telegr & Teleph Corp <Ntt> | 音声駆動を用いた人物画像表示方法およびその装置 |
EP1113422B1 (en) * | 1999-12-28 | 2005-04-06 | Sony Corporation | Voice driven mouth animation system |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101364309B (zh) * | 2008-10-09 | 2011-05-04 | 中国科学院计算技术研究所 | 一种源虚拟角色上的口形动画生成方法 |
CN101474481B (zh) * | 2009-01-12 | 2010-07-21 | 北京科技大学 | 情感机器人系统 |
CN201432297Y (zh) * | 2009-06-18 | 2010-03-31 | 北京华凯汇信息科技有限公司 | 一种智能机器人 |
CN203648066U (zh) * | 2013-11-11 | 2014-06-18 | 北京华凯汇信息科技有限公司 | 一种仿人机器人嘴巴语音控制系统 |
CN204322085U (zh) * | 2014-12-15 | 2015-05-13 | 山东大学 | 一种面向幼儿的早教陪护机器人 |
CN205340118U (zh) * | 2016-01-20 | 2016-06-29 | 广州今甲智能科技有限公司 | 一种礼仪迎宾机器人 |
CN106041963A (zh) * | 2016-08-12 | 2016-10-26 | 欢乐飞(上海)机器人有限责任公司 | 一种智能机器人头部系统及其操作方法 |
-
2016
- 2016-12-28 CN CN201611232261.1A patent/CN106875947B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10293860A (ja) * | 1997-02-24 | 1998-11-04 | Nippon Telegr & Teleph Corp <Ntt> | 音声駆動を用いた人物画像表示方法およびその装置 |
EP1113422B1 (en) * | 1999-12-28 | 2005-04-06 | Sony Corporation | Voice driven mouth animation system |
Also Published As
Publication number | Publication date |
---|---|
CN106875947A (zh) | 2017-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2022048403A1 (zh) | 基于虚拟角色的多模态交互方法、装置及系统、存储介质、终端 | |
CN106653052B (zh) | 虚拟人脸动画的生成方法及装置 | |
US8224652B2 (en) | Speech and text driven HMM-based body animation synthesis | |
JP7432556B2 (ja) | マンマシンインタラクションのための方法、装置、機器および媒体 | |
CN106875947B (zh) | 用于智能机器人的语音输出方法和装置 | |
CN110688008A (zh) | 虚拟形象交互方法和装置 | |
CN111145322B (zh) | 用于驱动虚拟形象的方法、设备和计算机可读存储介质 | |
CN112650831A (zh) | 虚拟形象生成方法、装置、存储介质及电子设备 | |
US9431027B2 (en) | Synchronized gesture and speech production for humanoid robots using random numbers | |
WO2023124933A1 (zh) | 虚拟数字人的视频生成方法及装置、存储介质、终端 | |
CN112101045B (zh) | 一种多模态语义完整性识别方法、装置及电子设备 | |
CN106502382B (zh) | 用于智能机器人的主动交互方法和系统 | |
CN110148399A (zh) | 一种智能设备的控制方法、装置、设备及介质 | |
CN110853614A (zh) | 虚拟对象口型驱动方法、装置及终端设备 | |
CN110751708A (zh) | 一种实时的语音驱动人脸动画的方法和系统 | |
CN114895817B (zh) | 交互信息处理方法、网络模型的训练方法及装置 | |
KR101089184B1 (ko) | 캐릭터의 발화와 감정표현 제공 시스템 및 방법 | |
CN114357135A (zh) | 交互方法、交互装置、电子设备以及存储介质 | |
US11455510B2 (en) | Virtual-life-based human-machine interaction methods, apparatuses, and electronic devices | |
CN115700772A (zh) | 人脸动画生成方法及装置 | |
Zoric et al. | On creating multimodal virtual humans—real time speech driven facial gesturing | |
CN112329451A (zh) | 手语动作视频生成方法、装置、设备及存储介质 | |
CN112329593A (zh) | 一种基于风格化的手势生成方法及生成系统 | |
Nagy et al. | A framework for integrating gesture generation models into interactive conversational agents | |
JP2015069231A (ja) | キャラクタ生成装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |