CN108538294A - 一种语音交互方法及装置 - Google Patents
一种语音交互方法及装置 Download PDFInfo
- Publication number
- CN108538294A CN108538294A CN201810392723.9A CN201810392723A CN108538294A CN 108538294 A CN108538294 A CN 108538294A CN 201810392723 A CN201810392723 A CN 201810392723A CN 108538294 A CN108538294 A CN 108538294A
- Authority
- CN
- China
- Prior art keywords
- saying
- text
- voice data
- determined
- weak
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 93
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 45
- 230000004044 response Effects 0.000 claims abstract description 29
- 238000012549 training Methods 0.000 claims description 71
- 230000003993 interaction Effects 0.000 claims description 68
- 238000003860 storage Methods 0.000 claims description 11
- 239000013598 vector Substances 0.000 description 37
- 239000000463 material Substances 0.000 description 18
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 11
- 238000004458 analytical method Methods 0.000 description 5
- 238000010276 construction Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- RTZKZFJDLAIYFH-UHFFFAOYSA-N Diethyl ether Chemical compound CCOCC RTZKZFJDLAIYFH-UHFFFAOYSA-N 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 230000001755 vocal effect Effects 0.000 description 2
- 101100323157 Arabidopsis thaliana LAP1 gene Proteins 0.000 description 1
- 241000208340 Araliaceae Species 0.000 description 1
- 244000236521 Bupleurum rotundifolium Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 235000005035 Panax pseudoginseng ssp. pseudoginseng Nutrition 0.000 description 1
- 235000003140 Panax quinquefolius Nutrition 0.000 description 1
- 208000033976 Patient-device incompatibility Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000013399 edible fruits Nutrition 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 235000008434 ginseng Nutrition 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1822—Parsing for meaning understanding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/223—Execution procedure of a spoken command
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了一种语音交互方法,先判断本次接收语音数据是否具有弱说法属性,若本次接收语音数据具有弱说法属性,则进一步判断本次接收语音数据是指令语音还是噪声语音。由于连续两次识别到同一个噪声语音的可能性极低,以及在上一次语音指令不被响应的情况下,用户很可能再次给出相同或相似的语音指令,基于此,如果本次接收语音数据与上一次接收语音数据在语义上完全相同或近似相同,则可以认为本次接收语音数据是指令语音并对其进行指令响应。可见,对于具有弱说法属性的用户语音,能够判断其是否为指令语音,从而对这类指令语音进行响应,进而提升了用户体验。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种语音交互方法及装置。
背景技术
随着语音技术的发展,智能语音技术已经被广泛的应用于生产生活的各个领域,当前的人机语音交互,已经由原先类似指令的语音交互,逐步的发展为自然语言的交互。
用户语音可以分为两类,一类是具有强说法属性的语音,另一类是具有弱说法属性的语音。但是,对于用户的某些指令语音,现有的人机交互设备可能会因为该用户语音是具有弱说法属性的语音,而选择拒识该用户语音,也即不对该用户语音进行指令响应,从而降低了用户体验。
发明内容
有鉴于此,本申请实施例的主要目的在于提供一种语音交互方法及装置,对于具有弱说法属性的用户语音,能够判断其是否为指令语音,从而对这类指令语音进行响应,进而提升了用户体验。
本申请实施例提供了一种语音交互方法,包括:
接收用户的语音数据;
判断本次接收语音数据是否具有弱说法属性;
若所述本次接收语音数据具有弱说法属性,则判断所述本次接收语音数据是否满足预设判定条件,其中,所述预设判定条件包括所述本次接收语音数据与上一次接收语音数据在语义上是否完全相同或近似相同;
若所述本次接收语音数据满足所述预设判定条件,则对所述本次接收语音数据进行指令响应。
可选的,所述预设判定条件还包括:
所述本次接收语音数据与所述上一次接收语音数据之间的时间间隔是否小于预设时长。
可选的,所述判断本次接收语音数据是否具有弱说法属性,包括:
获取所述本次接收语音数据的识别文本,作为本次识别文本;
生成所述本次识别文本对应的说法判定特征;
根据所述本次识别文本对应的说法判定特征,判断所述本次接收语音数据是否具有弱说法属性。
可选的,所述根据所述本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性,包括:
利用预先构建的强弱说法判定模型,来根据所述本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性。
可选的,所述强弱说法判定模型按照以下方式构建:
将当前获取的一条样本文本作为训练文本,并生成所述训练文本对应的说法判定特征;
将所述训练文本对应的说法判定特征输入至当前强弱说法判定模型中,以便当前强弱说法判定模型预测所述训练文本的说法类型,所述说法类型为强说法或弱说法;
获取预先为所述训练文本标注的说法类型;
若所述训练文本的说法类型预测结果和说法类型标注结果不同,则更新当前强弱说法判定模型的模型参数,完成本轮模型训练;
判断是否满足训练结束条件;若是,则结束训练;若否,则获取下一条样本文本并将所述下一条样本文本作为所述训练文本,继续下一轮模型训练。
可选的,所述利用预先构建的强弱说法判定模型,来根据所述本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性,包括:
将所述本次识别文本对应的说法判定特征输入至预先构建的强弱说法判定模型,以获取所述强弱说法判定模型的判定结果,其中,所述判定结果包括第一概率和第二概率,所述第一概率为所述本次接收语音数据具有弱说法属性的概率,所述第二概率为所述本次接收语音数据具有强说法属性的概率;
若所述第一概率大于或等于所述第二概率,则认为所述本次接收语音数据具有弱说法属性;
若所述第一概率小于所述第二概率,则认为所述本次接收语音数据具有强说法属性。
可选的,所述说法判定特征的对应文本作为待判定文本时,所述说法判定特征包括以下至少一种特征值:
根据所述待判定文本的文本长度生成的第一特征值;
根据所述待判定文本的分词个数生成的第二特征值;
根据所述待判定文本的文本成分之间的句法关系生成的第三特征值;
根据所述待判定文本中的业务关键词生成的第四特征值;
根据所述待判定文本与上一待判定文本的相关度生成的第五特征值;
根据所述待判定文本与人机交互设备所提问题的相关度生成的第六特征值,所述待判定文本是对所述人机交互设备所提问题的回答文本。
可选的,所述第五特征值按照下述方式生成:
确定所述待判定文本所属的业务说法模板,作为本次说法模板;
确定所述上一待判定文本所属的业务说法模板,作为上一次说法模板;
确定第一条件概率并将所述第一条件概率作为第五特征值,所述第一条件概率是出现所述上一次说法模板的情况下出现所述本次说法模板的概率。
可选的,所述第六特征值按照下述方式生成:
确定所述待判定文本所属的业务说法模板,作为本次说法模板;
确定所述人机交互设备对所述待判定文本所提问题所属的业务说法模板,作为提问说法模板;
确定第二条件概率并将所述第二条件概率作为第六特征值,所述第二条件概率是出现所述提问说法模板的情况下出现所述本次说法模板的概率。
本申请实施例还提供了一种语音交互装置,包括:
语音接收单元,用于接收用户的语音数据;
说法判定单元,用于判断本次接收语音数据是否具有弱说法属性;
指令判定单元,用于若所述本次接收语音数据具有弱说法属性,则判断所述本次接收语音数据是否满足预设判定条件,其中,所述预设判定条件包括所述本次接收语音数据与上一次接收语音数据在语义上是否完全相同或近似相同;
指令响应单元,用于若所述本次接收语音数据满足所述预设判定条件,则对所述本次接收语音数据进行指令响应。
可选的,所述预设判定条件还包括:
所述本次接收语音数据与所述上一次接收语音数据之间的时间间隔是否小于预设时长。
可选的,所述说法判定单元包括:
文本获取子单元,用于获取所述本次接收语音数据的识别文本,作为本次识别文本;
特征生成子单元,用于生成所述本次识别文本对应的说法判定特征;
说法判定子单元,用于根据所述本次识别文本对应的说法判定特征,判断所述本次接收语音数据是否具有弱说法属性。
可选的,所述说法判定特征的对应文本作为待判定文本时,所述说法判定特征包括以下至少一种特征值:
根据所述待判定文本的文本长度生成的第一特征值;
根据所述待判定文本的分词个数生成的第二特征值;
根据所述待判定文本的文本成分之间的句法关系生成的第三特征值;
根据所述待判定文本中的业务关键词生成的第四特征值;
根据所述待判定文本与上一待判定文本的相关度生成的第五特征值;
根据所述待判定文本与人机交互设备所提问题的相关度生成的第六特征值,所述待判定文本是对人机交互设备所述所提问题的回答文本。
本申请实施例还提供了一种语音交互装置,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行上述语音交互方法中的任意一种实现方式。。
本申请实施例还提供了一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行上述语音交互方法中的任意一种实现方式。
本实施例提供的一种语音交互方法及装置,先判断本次接收语音数据是否具有弱说法属性,若本次接收语音数据具有弱说法属性,则进一步判断本次接收语音数据是指令语音还是噪声语音。由于连续两次识别到同一个噪声语音的可能性极低,以及在上一次语音指令不被响应的情况下,用户很可能再次给出相同或相似的语音指令,基于此,如果本次接收语音数据与上一次接收语音数据在语义上完全相同或近似相同,则可以认为本次接收语音数据是指令语音并对其进行指令响应。可见,对于具有弱说法属性的用户语音,能够判断其是否为指令语音,从而对这类指令语音进行响应,进而提升了用户体验。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种语音交互方法的流程示意图;
图2a为本申请实施例提供的说法判定方法的流程示意图之一;
图2b为本申请实施例提供的说法判定方法的流程示意图之二;
图3为本申请实施例提供的模型训练方法的流程示意图;
图4为本申请实施例提供的一种语音交互装置的组成示意图
图5为本申请实施例提供的一种语音交互装置的硬件结构示意图。
具体实施方式
用户语音可以分为两类,一类是具有强说法属性的语音,另一类是具有弱说法属性的语音。通常情况下,将用户表达中带有交互需求、句式结构比较严格的说法,称之为强说法,比如“我想看中央一套的电视节目”;反之,那些说法比较随意,句式结构要求较低,很难判断出是否有交互需求的说法,称之为弱说法,比如“太好了”。
为了给用户提供更人性化的交互体验,人机交互设备需要支持弱说法,但是,具有弱说法属性的用户语音可能是噪音语音也可能是指令语音,因此,在人机交互设备支持弱说法的情况下,具有弱说法属性的噪音语音很可能会触发交互业务。例如,对于支持歌曲单说的音乐业务,由于歌曲资源很多而且很杂,一旦人机交互设备接收到能匹配歌曲名的噪音语音,比如在交谈中比较容易出现的称谓语“父亲”,由于“父亲”是一首歌曲名,所以将会触发音乐业务,但这可能不是用户的真实意图。
为此,人机交互设备可以不支持或者限制支持弱说法,即尽量减少支持弱说法,以减少噪音语音误触发交互业务的可能性。但是,如果具有弱说法属性的用户语音是指令语音而非噪音语音,这种不支持或者限制支持弱说法的方式,可能不能根据该用户语音触发交互业务,即不能对该用户语音进行及时响应,从而降低了用户体验。
为了解决上述缺陷,本申请实施例提供了一种语音交互方法及装置,对于具有弱说法属性的用户语音,能够判断其是否为指令语音,从而对这类指令语音进行响应,进而提升了用户体验。
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
第一实施例
参见图1,为本实施例提供的一种语音交互方法的流程示意图,该方法可以应用于任意一种具有语音交互功能的智能设备上,比如手机、平板等,后文将该智能设备称为人机交互设备。该语音交互方法可以包括以下步骤:
S101:接收用户的语音数据。
对于接收到的语音数据,可能是用户输入的用于交互的指令语音,也可能是非指令语音也即噪声语音,比如,噪声语音可以是用户与其他人交谈时的人人交谈语音。具有弱说法属性的语音通常情况下为噪声语音。
S102:判断本次接收语音数据是否具有弱说法属性。
针对支持弱说法的人机交互设备,需要有一种措施来判断本次接收语音数据是否具有弱说法属性,具体判断方式请参见第二实施例。
若判断结果为本次接收语音数据具有弱说法属性,则执行后续步骤S103。反之,若判断结果为本次接收语音数据不具有弱说法属性,即具有强说法属性,此时,直接对本次接收语音数据进行指令响应,例如,假设本次接收语音数据为“我想听中央一套的电视节目”,人机交互设备可以对其进行指令响应,并将响应结果反馈给用户,该响应结果可以是播放中央一套的当前电视节目或是回放中央一套的某个电视节目。
S103:若本次接收语音数据具有弱说法属性,则判断本次接收语音数据是否满足预设判定条件。
在本实施例中,由于具有弱说法属性的用户语音,其可能是指令语音也可能是噪声语音,因此,当判断本次接收语音数据具有弱说法属性后,还需要进一步判断本次接收语音数据是指令语音还是噪声语音。
通常情况下,噪声语音是随机出现的,因此,人机交互设备连续两次识别到同一个噪声语音的可能性极低。此外,如果用户的一条语音是指令语音而非噪声语音,则当该条语音被人机交互设备拒识而得不到正常响应之后,用户在不知道人机交互设备的工作原理的情况下,很自然的认为是人机交互设备没有接收到该条语音,从而会很自然的重复该条语音、或以近似相同的语言表达该条语音,以期望被人机交互设备接收到。
基于上述理由,本实施例可以判断本次接收语音数据与上一次接收语音数据在语义上是否完全相同或近似相同,这个判断条件即为S103中的预设判断条件。如果判断结果为“是”,则认为本次接收语音数据是指令语音,因此,可以通过执行后续步骤S104对其进行指令响应,否则,认为本次接收语音数据是噪声语音,可以不对本次接收语音数据进行指令响应。
S104:若本次接收语音数据满足预设判定条件,则对本次接收语音数据进行指令响应。
现举例说明S103-S104,当人机交互设备接收到用户输入语音“父亲”后,在判断其具有弱说法属性的情况下,若在该条语音之前,人机交互设备同样接收到用户输入语音“父亲”或接收到与之语义近似的语音“歌曲父亲”,人机交互设备可以对其进行指令响应,并将响应结果反馈给用户,该响应结果可以是播放歌曲“父亲”。
进一步地,通过对人们的行为揣测可知,实际场景中,用户前后给出上述两条相同语音或类似语音的时间间隔通常会比较短。因此,在本实施例的一种实现方式中,S103中的预设判断条件还可以包括“判断本次接收语音数据与上一次接收语音数据之间的时间间隔是否小于预设时长”,使这两个判断条件组成S103中的预设判断条件。现举例说明,当人机交互设备接收到用户输入语音“父亲”后,在判断其具有弱说法属性的情况下,若在该条语音之前的预设时长(比如5秒)内,人机交互设备同样接收到用户输入语音“父亲”或接收到与之语义近似的语音“歌曲父亲”,人机交互设备可以对其进行指令响应,并将响应结果反馈给用户,该响应结果可以是播放歌曲“父亲”。
在本实施例的一种实现方式中,为了实现步骤S104,即实现“对本次接收语音数据进行指令响应”,需要对本次接收语音数据的识别文本进行语义理解,得到语义理解结果,从而根据语义理解结果对本次接收语音数据进行指令响应,并将响应结果反馈给用户。
具体实现时,先对本次接收语音数据进行语音识别,得到本次识别文本,本实施例不对语音识别方法进行限制,可以采用现有的或未来出现的任一语音识别方法进行语音识别;然后,对本次识别文本进行语义理解,根据语义理解结果确定本次接收语音数据所指的交互请求,以便针对该交互请求进行指令响应。需要说明的是,本实施例不限制语音识别与语义理解步骤的执行顺序,只要在根据语义理解结果进行指令响应之前执行即可,比如在步骤S101之后进行语音识别和语义理解。
在进行语义理解时,可以基于句法的语义分析,比如基于文法规则网络的语义分析方法得到本次识别文本的语义理解结果;也可以通过预先训练的深度神经网络模型得到本次识别文本的语义理解结果,其中,该深度神经网络模型可以是卷积神经网络(Convolutional Neural Network,简称CNN)、或循环神经网络(Recurrent neuralNetwork,简称RNN)等。
其中,语义理解结果可以包含如下重要信息:
业务及业务取值,用于表示当前语义理解结果所属具体业务;
操作及操作取值,用于表示当前语义理解结果触发所属具体业务的具体操作;
语义槽及语义槽取值,用于表示当前语义理解结果所属具体业务中的语义槽以及对应语义槽的取值。
举例说明,假设本次接收语音数据为“我想听刘德华的歌曲”,得到的语义理解结果为“{service:music,operation:play,artist:刘德华}”,其中,service为业务,music为业务取值,operation为操作,play为操作取值,artist为语义槽,刘德华为语义槽取值。
综上,本实施例提供的一种语音交互方法,先判断本次接收语音数据是否具有弱说法属性,若本次接收语音数据具有弱说法属性,则进一步判断本次接收语音数据是指令语音还是噪声语音。由于连续两次识别到同一个噪声语音的可能性极低,以及在上一次语音指令不被响应的情况下,用户很可能再次给出相同或相似的语音指令,基于此,如果本次接收语音数据与上一次接收语音数据在语义上完全相同或近似相同,则可以认为本次接收语音数据是指令语音并对其进行指令响应。可见,对于具有弱说法属性的用户语音,能够判断其是否为指令语音,从而对这类指令语音进行响应,进而提升了用户体验。
第二实施例
本实施例将对第一实施例中S102的具体实施方式进行介绍。
参见图2a所示的说法判定方法的流程示意图,上述步骤S102即“判断本次接收语音数据是否具有弱说法属性”,可以包括以下步骤:
S201:获取本次接收语音数据的识别文本,作为本次识别文本。
如第一实施例所述,本实施例不对语音识别方法进行限制,可以采用现有的或未来出现的任一语音识别方法,对本次接收语音数据进行语音识别,得到本次识别文本。
S202:生成本次识别文本对应的说法判定特征。
在本实施例中,该说法判定特征可以理解为基于本次识别文本生成的、与强弱说法特性相关的文本特征。在生成说法判定特征时,可以按照预设生成规则,来根据本次识别文本生成一条或多条不同类型的特征值。
需要说明的是,当需要生成本次识别文本对应的说法判定特征时,可以将本次识别文本作为待判定文本,按照第三实施例中的具体实施方式,生成本次识别文本对应的说法判定特征。
S203:根据本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性。
当根据本次识别文本生成相应的说法判定特征后,便可以基于该说法判定特征来判断本次接收语音数据具有弱说法属性还是具有强说法属性。
参见图2b所示,在本实施例的一种实现方式中,本步骤S203具体可以包括:利用预先构建的强弱说法判定模型,来根据本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性。在本实现方式中,可以预先构建一种强弱说法判定模型,该强弱说法判定模型可以是模式识别领域中的常用分类模型,比如支持向量机、深度神经网络、决策树等,然后,利用该强弱说法判定模型来判断本次接收语音数据是具有弱说法属性还是具有强说法属性。
为了构建得到强弱说法判定模型,可以建立一初始的强弱说法判定模型,并为模型参数赋予初值。此外,还需要收集大量的样本文本形成样本集合,该样本集合中的这些样本文本,可以直接是文本形式的样本文本、也可以是通过语音识别得到的样本文本,并且,为每条样本文本标注说法类型,说法类型包括两种,一种是“强说法”,另一种是“弱说法”,以便基于这些样本文本以及对这些样本文本的标注结果,对初始建立的强弱说法判定模型进行训练。
参见图3所示的模型训练方法的流程示意图,可以按照以下方式训练强弱说法判定模型:
S301:将当前获取的一条样本文本作为训练文本,并生成该训练文本对应的说法判定特征。
从上述样本集合中提取一条样本文本,将该样本文本作为训练样本,可以按照预设生成规则,来根据训练样本生成一条或多条不同类型的特征值。
需要说明的是,训练文本对应的说法判定特征的生成方式,应与步骤S202中本次识别文本对应的说法判定特征的生成方式相同。此外,当需要生成训练文本对应的说法判定特征时,可以将该训练文本作为待判定文本,按照第三实施例中的具体实施方式,生成该训练文本对应的说法判定特征。
S302:将训练文本对应的说法判定特征输入至当前强弱说法判定模型中,以便当前强弱说法判定模型预测训练文本的说法类型,所述说法类型为强说法或弱说法。
S303:获取预先为训练文本标注的说法类型。
S304:若训练文本的说法类型预测结果和说法类型标注结果不同,则更新当前强弱说法判定模型的模型参数,完成本轮模型训练。
现举例说明步骤S302-S304,假设训练文本为“播放歌曲”,将“播放歌曲”对应的说法判定特征输入至当前强弱说法判定模型中后,强弱说法判定模型便会基于输入特征预测“播放歌曲”的说法类型,比如,预测其为“强说法”。假设预先为“播放歌曲”标注的说法类型为“弱说法”,那么,预测结果与标注结果不同,则可以更新当前强弱说法判定模型的模型参数,比如,可以基于预测其为“强说法”的概率值进行参数更新。
S305:判断是否满足训练结束条件;若是,则结束训练;若否,则获取下一条样本文本并将下一条样本文本作为训练文本,继续下一轮模型训练。
在本实施例中,所述训练结束条件,可以是达到预设训练次数、也可以是模型参数的变化幅度小于预设阈值,等等。如果没有满足训练结束条件,则从上述样本集合中提取下一条样本文本,并将其作为训练文本以开始下一轮模型训练,即,继续执行步骤S301中的“生成该训练文本对应的说法判定特征”及其后续步骤。
在一种实现方式中,当训练得到强弱说法判定模型后,可以利用该强弱说法判定模型按照以下方式实现步骤S203,具体可以包括以下步骤:
S2031:将本次识别文本对应的说法判定特征输入至预先构建的强弱说法判定模型中,以获取该强弱说法判定模型的判定结果。
在本实施例中,直接将本次识别文本对应的说法判定特征作为强弱说法判定模型的输入特征,强弱说法判定模型的输出可以是本次接收语音数据分别为弱说法和强说法的概率,例如,弱说法的概率为0.3,强说法的概率为0.7。
为便于区分,本实施例定义了第一概率和第二概率,第一概率为本次接收语音数据具有弱说法属性的概率,第二概率为本次接收语音数据具有强说法属性的概率,第一概率和第二概率共同作为强弱说法判定模型的判定结果。
S2032:若第一概率大于或等于第二概率,则认为本次接收语音数据具有弱说法属性。
例如,假设第一概率为0.7、第二概率为0.3,则可以认为本次接收语音数据具有弱说法属性。
S2033:若第一概率小于第二概率,则认为本次接收语音数据具有强说法属性。
例如,假设第一概率为0.3、第二概率为0.7,则可以认为本次接收语音数据具有强说法属性。
综上,本实施例提供的一种语音交互方法,可以预先构建一种强弱说法判定模型,在实际交互过程中,先利用强弱说法判定模型判断本次接收语音数据是否具有弱说法属性,若本次接收语音数据具有弱说法属性,则进一步判断本次接收语音数据是指令语音还是噪声语音。可见,在对本次接收语音数据的说法类型进行判断时,本实施例可以通过强弱说法判定模型实现判断。
第三实施例
第二实施例中提到,当需要生成所述本次识别文本对应的说法判定特征时,可以将本次识别文本作为待判定文本;当需要生成所述训练文本对应的说法判定特征时,可以将训练文本作为待判定文本。具体生成时,可以使所述说法判定特征包括以下6种特征值中的至少一种特征值:
1、根据待判定文本的文本长度生成的第一特征值。
可以先确定待判定文本的文本长度L,本实施例不限制文本长度的度量方式,例如,若待判定文本为中文文本,其文本长度L可以是字的个数,若待判定文本为英文文本,其文本长度L可以是字母的个数。然后,根据文本长度L生成一特征值,本实施例将该特征值称为第一特征值。
在一种实现方式中,可以按照下述方式生成第一特征值:
若待判定文本的文本长度小于或等于预设的最大文本长度,则利用待判定文本的文本长度与最大文本长度的比值确定第一特征值,具体可以将该比值与预设系数的乘积作为第一特征值;若待判定文本的文本长度大于最大文本长度,则将预设长度特征值作为第一特征值。
在本实现方式中,可以定义第一特征值的取值范围[0,a],a为大于0的数,比如a=1,并可以将该取值范围的上限值a作为所述预设长度特征值。假设待判定文本的文本长度为L,最大文本长度为Lmax;当L≤Lmax时,将L/Lmax*a作为第一特征值,当L>Lmax时,将a作为第一特征值。例如,假设为中文文本设置的最大文本长度Lmax=20以及a=1,若待判定文本为“请播放张学友的歌”,则其文本长度L=8,因此,L/Lmax*a=8/20,即8/20为第一特征值。
2、根据所述待判定文本的分词个数生成的第二特征值。
可以先确定待判定文本的分词个数N,本实施例不限制分词个数的度量方式,例如,若待判定文本为中文文本,其分词个数N可以是采用现有的或未来出现的分词方法对待判定文本进行分词得到的分词个数,若待判定文本为英文文本,其分词个数可以是单词的个数。然后,根据分词个数N生成一特征值,本实施例将该特征值称为第二特征值。
在一种实现方式中,可以按照下述方式生成第二特征值:
若待判定文本的分词个数小于或等于预设的最大分词个数,则利用待判定文本的分词个数与最大分词个数的比值确定第二特征值,具体可以将该比值与预设系数的乘积作为第二特征值;若所述待判定文本的分词个数大于所述最大分词个数,则将预设个数特征值作为第二特征值。
在本实现方式中,可以定义第二特征值的取值范围[0,b],b为大于0的数,比如b=1,并可以将该取值范围的上限值b作为所述预设个数特征值。假设待判定文本的分词个数为N,最大分词个数为Nmax;当N≤Nmax时,将N/Nmax*b作为第二特征值,当N>Nmax时,将b作为第二特征值。例如,假设为中文文本设置的最大分词个数Nmax=10以及b=1,若待判定文本为“播放歌曲”,则其分词个数N=2,因此,N/Nmax*a=2/10,即2/10为第二特征值。
3、根据待判定文本的文本成分之间的句法关系生成的第三特征值。
当待判定文本是一个句子或几个句子的组合时,待判定文本的不同文本成分之间可能存在一种或多种句法关系,比如,表1所示的“主谓关系”、“动宾关系”、“间宾关系”、“前置宾语”、“兼语”、“定中关系”、“状中结构”、“动补结构”、“并列关系”、“介宾关系”、“左附加关系”、“右附加关系”、“独立结构”、“核心关系”,等等。可以基于待判定文本中存在的这些句法关系生成一特征值,本实施例将该特征值称为第三特征值。
在一种实现方式中,可以按照下述方式生成第三特征值:
步骤a1:确定待判定文本的文本成分之间具有的各种句法关系;
可以预先收集每一语种的句法关系,形成句法关系集合。
在本步骤中,可以先确定待判定文本所属的语种,从而确定该语种对应的句法关系集合;然后,基于该句法关系集合中的句法关系类型,对待判定文本做依存句法分析,得到待判定文本的句法结构,从而确定待判定文本的各个文本成分之间的句法关系。
步骤a2:为各种句法关系分别进行赋值,并利用各种句法关系的赋值结果生成第三特征值。
在本步骤中,需要为待判定文本的各种句法关系分别赋值,例如表1所示,假设待判定文本存在“主谓关系”,可以为其赋值1,对于待判定文本不存在的句法关系,可以为其赋值0。
表1
句法关系编号 | 句法关系 | 句法关系赋值结果 |
1 | 主谓关系 | 1 |
2 | 动宾关系 | 0 |
3 | 间宾关系 | 0 |
4 | 前置宾语 | 0 |
5 | 兼语 | 0 |
6 | 定中关系 | 0 |
7 | 状中结构 | 0 |
8 | 动补结构 | 0 |
9 | 并列关系 | 0 |
10 | 介宾关系 | 0 |
11 | 左附加关系 | 0 |
12 | 右附加关系 | 0 |
13 | 独立结构 | 0 |
14 | 核心关系 | 0 |
在一种实现方式中,步骤a2具体可以包括:利用各种句法关系的赋值结果,更新初始M维向量中与各种句法关系对应的初始向量值,其中,初始M维向量是由M种句法关系分别对应的初始向量值构成的;将更新后的向量值作为第三特征值。
举例说明,假设上述句法关系集合中共存在表1所示的14种句法关系,则可以使M=14,预先构建初始14维向量[0,0,0,0,0,0,0,0,0,0,0,0,0,0],该初始14维向量可以是行向量也可以是列向量,在该初始14维向量中,从左到右的初始向量值0依次对应于表1中编号1-14的句法关系。基于此,假设待判定文本只存在“主谓关系”,可以为“主谓关系”赋值1并更新上述初始14维向量,得到更新后的向量值为[1,0,0,0,0,0,0,0,0,0,0,0,0,0],其中,1代表待判定文本存在表1中编号为1的“主谓关系”,0代表待判定文本不存在表1中编号2-14的句法关系。
在另一种实现方式中,步骤a2可以直接生成一个M维向量作为第三特征值,M表示上述句法关系集合中的句法关系的总个数,使该M维向量表示待判定文本中是否出现相应句法关系。其中,该M维向量中每个元素表示对应句法关系是否出现在待判定文本中,即,当待判定文本中出现相应句法关系时,相应向量元素的取值为1,当待判定文本中未出现相应句法关系时,相应向量元素的取值为0。
需要说明的是,本实施例不限定使用0代表不存在相应句法关系、也不限定使用1代表存在相应句法关系,还可以使用其它的两个不同数值来代替。
4、根据所述待判定文本的业务关键词生成的第四特征值。
可以预先为人机交互业务划分交互业务类型,比如音乐业务、天气业务等。并且,为每一种交互业务类型配置业务关键词,比如音乐业务的关键词可以包括“歌手”、“歌曲”、“专辑”、“想听”、“播放”、“演唱”等,比如天气业务的关键词可以包括“查询”、“天气”、“温度”、“风向”,“PM25”,“雨”、“雪”、“阴”、“晴”等。基于此,可以从待判定文本中提取其对应交互业务类型下的业务关键词,基于这些业务关键词生成一特征值,本实施例将该特征值称为第四特征值。
在一种实现方式中,可以按照下述方式生成第四特征值:
步骤b1:确定待判定文本所属的交互业务类型,所述交互业务类型下包括至少一个关键词。
可以采用第一实施例S104介绍的语义理解方法,对待判定文本进行语义理解,从而确定待判定文本所属的交互业务类型,比如音乐业务、天气业务等。例如,假设待判定文本为“我想听张学友的吻别”,其交互业务类型为音乐业务。
步骤b2:确定待判定文本中属于所述交互业务类型的各个业务关键词。
可以预先收集每一交互业务类型下的业务关键词,形成关键词集合。
可以依次检测待判定文本中的词,确定该词是否出现对应关键词集合(即待判定文本所属的交互业务类型下的关键词集合)中。例如,假设待判定文本为“我想听张学友的吻别”,其涉及的业务关键词包括“歌手”和“歌曲”。
步骤b3:为各个业务关键词分别进行赋值,并利用各个业务关键词的赋值结果生成第四特征值。
在本步骤中,需要为待判定文本的各个业务关键词分别赋值,例如表2所示,假设待判定文本涉及的业务关键词为“歌手”和“歌曲”,可以为其赋值1,对于待判定文本不涉及的业务关键词,可以为其赋值0。
表2
业务关键词编号 | 业务关键词 | 业务关键词赋值结果 |
1 | 歌手 | 1 |
2 | 歌曲 | 1 |
3 | 专辑 | 0 |
4 | 想听 | 0 |
5 | 播放 | 0 |
6 | 演唱 | 0 |
在一种实现方式中,步骤b3具体可以包括:利用各个业务关键词的赋值结果,更新初始N维向量中与各个业务关键词对应的初始向量值,其中,初始N维向量是所述交互业务类型下的N个业务关键词分别对应的初始向量值构成的;将更新后的向量值作为第四特征值。
举例说明,假设待判定文本所属业务交互类型下的关键词集合中,共存在表2所示的6个业务关键词,则可以使N=6,预先构建初始6维向量[0,0,0,0,0,0],该初始6维向量可以是行向量也可以是列向量,在该初始6维向量中,从左到右的初始向量值0依次对应于表2中编号1-6的业务关键词。基于此,假设待判定文本涉及的业务关键词包括“歌手”和“歌曲”,可以为“歌手”和“歌曲”分别赋值1并更新初始6维向量,得到更新后的向量值为[1,1,0,0,0,0],其中,1代表待判定文本涉及表2中编号为1-2的业务关键词,0代表待判定文本不涉及表2中编号为3-6的业务关键词。
在另一种实现方式中,步骤b2可以直接生成一N维向量作为第四征值,N表示上述对应关键词集合中的业务关键词的总个数,使该N维向量表示待判定文本中是否涉及相应的业务关键词。其中,该N维向量中每个元素表示对应业务关键词是否出现在待判定文本中,即,当待判定文本中涉及对应业务关键词时,相应向量元素的取值为1,当待判定文本中未涉及对应业务关键词时,相应向量元素的取值为0。
需要说明的是,本实施例不限定使用0代表不涉及相应业务关键词、也不限定使用1代表涉及相应业务关键词,还可以使用其它的两个不同数值来代替。
5、根据所述待判定文本与上一待判定文本的相关度生成的第五特征值。
当所述待判定文本为本次识别文本(即本次接收语音数据的识别文本)时,则上一待判定文本为上一次识别文本(即上一次接收语音数据的识别文本);当所述待判定文本为本轮模型训练使用的训练文本时,则上一待判定文本为上一轮模型训练使用的训练文本。
需要说明的是,如果不存在上一待判定文本,可以使第五特征值为默认值,比如0。
在一种实现方式中,可以按照下述方式生成第五特征值:
步骤c1:确定待判定文本所属的业务说法模板,作为本次说法模板。
可以采用第一实施例S104介绍的语义理解方法,对待判定文本进行语义理解,从而确定待判定文本所属的交互业务类型,比如音乐业务、天气业务等。然后,从该交互业务类型下找到待判定文本所属的业务说法模板。
例如,假设待判定文本为“我想听刘德华的歌曲”,对其进行语义理解后的语义理解结果为“{service:music,operation:play,artist:刘德华}”,其中“music”为业务取值,表示音乐业务,因此,找到“music”下的说法模板“我想听{$artist}的歌曲”作为待判定文本所属的业务说法模板,其中,{$artist}表示业务说法模板中的语义槽,语义槽取值为“刘德华”。
步骤c2:确定上一待判定文本所属的业务说法模板,作为上一次说法模板。
同样地,可以采用第一实施例S104介绍的语义理解方法,对上一待判定文本进行语义理解,从而确定上一待判定文本所属的交互业务类型,然后,从该交互业务类型下找到上一待判定文本所属的业务说法模板。
步骤c3:确定第一条件概率并将第一条件概率作为第五特征值,所述第一条件概率是出现上一次说法模板的情况下出现本次说法模板的概率。
在本实施例中,可以使用条件概率P(B|A)作为第一条件概率。其中,B表示当前待判定文本所属的业务说法模板,即本次说法模板;A表示上一待判定文本所属的业务说法模板,即上一次说法模板;P(B|A)表示在所述上一次说法模板出现的情况下,出现所述本次说法模板的概率。
在一种实现方式中,所述确定第一条件概率,具体可以包括:在第一样本语料中,确定所述上一次说法模板的出现次数,并确定所述上一次说法模板出现的情况下所述本次说法模板的出现次数;根据确定的出现次数计算第一条件概率。
在本实现方式中,可以预先收集大量的用户语音数据和/或人机交互设备给出的反馈结果,形成第一样本语料,并从第一样本语料中抽象出不同交互业务类型下的业务说法模板。在本实施例中,第一样本语料可以是用于训练强弱说法判定模型的训练数据。
基于第一样本语料以及从中抽象出的业务说法模板,可以按照公式(1)计算第一条件概率:
其中,MAB表示在所述上一次说法模板出现在第一样本语料的情况下,第一样本语料中出现所述本次说法模板的次数;MA表示第一样本语料中出现所述上一次说法模板的次数。
例如,假设上一待判定文本为“我想查询明天合肥的天气情况”,对其进行语义理解后的语义理解结果为“{service:weather,operation:query,time:明天,city:合肥}”,其中“weather”为业务取值,表示天气业务,因此,找到“weather”下的业务说法模板“我想查询{$date}{$city}的天气情况”作为当前待判定文本所属的业务说法模板,其中,{$date}和{$city}表示业务说法模板中的语义槽,语义槽取值为“明天”和“合肥”。假设当前待判定文本为“明天的呢”,其所属的业务说法模板为“{$date}的呢”。
可见,“我想查询{$date}{$city}的天气情况”即为所述上一次说法模板,简称说法模板A,“{$date}的呢”即为所述本次说法模板,简称说法模板B。在第一样本语料中,假设说法模板A出现的总数为8000次,在说法模板A出现的情况下,说法模板B出现的总数为6000次,则根据公式(1)进行计算,即P(B|A)=6000/8000=0.75,该值即为第一条件概率。
6、根据待判定文本与人机交互设备所提问题的相关度生成的第六特征值,其中,待判定文本是对所述人机交互设备所提问题的回答文本。
例如,当人机交互设备向用户提出问题时,比如“你要去哪”,如果用户对该问题进行了语音回答,比如答复语音为“我要去科大”,当答复语音作为所述待判定文本时,可以根据“我要去科大”与“你要去哪”的相关度生成第六特征值。
需要说明的是,如果所述待判定文本不是对所述人机交互设备所提问题的回答文本,可以使第六特征值为默认值,比如0。
在本实施例中,需要判断所述待判定文本是否是对所述人机交互设备所提问题的回答文本。具体地,可以先判断所述待判定文本之前是否存在一条人机交互设备所提的问题,即该问题与所述待判定文本是否相继出现;如果是,则对该问题以及所述待判定文本进行语义分析,根据语义分析结果进行判断。
例如,可以确定该问题中与询问内容相关的语义槽,比如该问题是“你要去哪”,其相关语义槽则为“地理位置”,此时,再分析所述待判定文本是否对相关语义槽“地理位置”进行了填充,比如所述待判定文本为“我要去科大”,而“科大”是对“地理位置”的填充结果,因此,可以判定“我要去科大”是对“你要去哪”的回答文本。
在一种实现方式中,可以按照下述方式生成第六特征值:
步骤d1:确定待判定文本所属的业务说法模板,作为本次说法模板。
需要说明的是,本步骤与上述步骤c1相同,具体实现请参见上述步骤c1的介绍,在此不再赘述。
步骤d2:确定人机交互设备对所述待判定文本所提问题所属的业务说法模板,作为提问说法模板。
需要说明的是,本步骤与上述步骤c1类似,只要将待判定文本替换为人机交互设备所提问题(即问题文本)即可,具体实现请参见上述步骤c1的介绍,在此不再赘述。
步骤d3:确定第二条件概率并将所述第二条件概率作为第六特征值,所述第二条件概率是出现所述提问说法模板的情况下出现所述本次说法模板的概率。
在本实施例中,可以使用条件概率P(B|C)作为第一条件概率。其中,B表示当前待判定文本所属的业务说法模板,即本次说法模板;C表示人机交互设备所提问题所属的业务说法模板,即提问说法模板;P(B|C)表示在所述提问说法模板出现的情况下,出现所述本次说法模板的概率。
在一种实现方式中,所述确定第二条件概率,具体可以包括:在第二样本语料中,确定所述提问说法模板的出现次数,并确定所述提问说法模板出现的情况下所述本次说法模板的出现次数;根据确定的出现次数计算第二条件概率。
在本实现方式中,可以预先收集大量的问答组合,该问答组合包括人机交互设备所提的问题以及用户针对该问题的回答,形成第二样本语料,进一步地,该第二样本语料还可以包括与该问答组合相关的其它用户语音数据和/或人机交互设备给出的反馈结果。并且,还需要从该第二样本语料中抽象出不同交互业务类型下的业务说法模板。
基于第二样本语料以及从中抽象出的业务说法模板,可以按照公式(2)计算第二条件概率:
其中,MCB表示在所述提问说法模板出现在第二样本语料的情况下,第一样本语料中出现所述本次说法模板的次数;MC表示第二样本语料中出现所述提问说法模板的次数。
例如,假设人机交互设备所提问题为“你要去哪”,其所属的业务说法模板为“你要去$where”,假设当前待判定文本为“我要去科大”,其所属的业务说法模板为“去$where”。可见,“你要去哪”即为所述提问说法模板,简称说法模板C,“去$where”即为所述本次说法模板,简称说法模板B,在第二样本语料中,假设说法模板C出现的总数为8000次,在说法模板C出现的情况下,说法模板B出现的总数为5000次,则根据公式(2)进行计算,即P(B|C)=5000/8000=0.625,该值即为第二条件概率。
综上,本实施例提供的一种语音交互方法,先生成本次接收语音数据的识别文本对应的说法判定特征,然后将这些特征作为强弱说法判定模型的输入特征,以利用强弱说法判定模型判断本次接收语音数据是否具有弱说法属性,若本次接收语音数据具有弱说法属性,则进一步判断本次接收语音数据是指令语音还是噪声语音。可见,在对本次接收语音数据的说法类型进行判断时,本实施例可以生成上述6种特征值中的至少一个特征值,使强弱说法判定模型利用这些特征值进行判断。
第四实施例
本实施例将对一种语音交互装置进行介绍,相关内容请参见上述方法实施例。其中,该语音交互装置可以是上述方法实施例中提及的人机交互设备、也可以是上述人机交互设备中的组成部分。
参见图4,为本实施例提供的一种语音交互装置的组成示意图,该语音交互设备400包括:
语音接收单元401,用于接收用户的语音数据;
说法判定单元402,用于判断本次接收语音数据是否具有弱说法属性;
指令判定单元403,用于若所述本次接收语音数据具有弱说法属性,则判断所述本次接收语音数据是否满足预设判定条件,其中,所述预设判定条件包括所述本次接收语音数据与上一次接收语音数据在语义上是否完全相同或近似相同;
指令响应单元404,用于若所述本次接收语音数据满足所述预设判定条件,则对所述本次接收语音数据进行指令响应。
在本实施例的一种实现方式中,所述预设判定条件还包括:
所述本次接收语音数据与所述上一次接收语音数据之间的时间间隔是否小于预设时长。
在本实施例的一种实现方式中,所述说法判定单元包括:
文本获取子单元,用于获取所述本次接收语音数据的识别文本,作为本次识别文本;
特征生成子单元,用于生成所述本次识别文本对应的说法判定特征;
说法判定子单元,用于根据所述本次识别文本对应的说法判定特征,判断所述本次接收语音数据是否具有弱说法属性。
在本实施例的一种实现方式中,所述说法判定子单元,具体用于利用预先构建的强弱说法判定模型,来根据所述本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性。
在本实施例的一种实现方式中,所述强弱说法判定模型通过模型构建单元进行构建;所述模型构建单元包括:
说法特征生成子单元,用于将当前获取的一条样本文本作为训练文本,并生成所述训练文本对应的说法判定特征;
说法类型预测子单元,用于将所述训练文本对应的说法判定特征输入至当前强弱说法判定模型中,以便当前强弱说法判定模型预测所述训练文本的说法类型,所述说法类型为强说法或弱说法;
标注类型获取子单元,用于获取预先为所述训练文本标注的说法类型;
模型参数更新子单元,用于若所述训练文本的说法类型预测结果和说法类型标注结果不同,则更新当前强弱说法判定模型的模型参数,完成本轮模型训练;
结束条件判断子单元,用于判断是否满足训练结束条件;若是,则结束训练;若否,则获取下一条样本文本并将所述下一条样本文本作为所述训练文本,继续下一轮模型训练。
在本实施例的一种实现方式中,所述说法判定子单元包括:
判定结果获取子单元,用于将所述本次识别文本对应的说法判定特征输入至预先构建的强弱说法判定模型,以获取所述强弱说法判定模型的判定结果,其中,所述判定结果包括第一概率和第二概率,所述第一概率为所述本次接收语音数据具有弱说法属性的概率,所述第二概率为所述本次接收语音数据具有强说法属性的概率;
弱说法确定子单元,用于若所述第一概率大于或等于所述第二概率,则认为所述本次接收语音数据具有弱说法属性;
强说法确定子单元,,用于若所述第一概率小于所述第二概率,则认为所述本次接收语音数据具有强说法属性。
在本实施例的一种实现方式中,所述说法判定特征的对应文本作为待判定文本时,所述说法判定特征包括以下至少一种特征值:
根据所述待判定文本的文本长度生成的第一特征值;
根据所述待判定文本的分词个数生成的第二特征值;
根据所述待判定文本的文本成分之间的句法关系生成的第三特征值;
根据所述待判定文本中的业务关键词生成的第四特征值;
根据所述待判定文本与上一待判定文本的相关度生成的第五特征值;
根据所述待判定文本与人机交互设备所提问题的相关度生成的第六特征值,所述待判定文本是对人机交互设备所述所提问题的回答文本。
在本实施例的一种实现方式中,所述第五特征值按照下述方式生成:
确定所述待判定文本所属的业务说法模板,作为本次说法模板;
确定所述上一待判定文本所属的业务说法模板,作为上一次说法模板;
确定第一条件概率并将所述第一条件概率作为第五特征值,所述第一条件概率是出现所述上一次说法模板的情况下出现所述本次说法模板的概率。
在本实施例的一种实现方式中,所述第六特征值按照下述方式生成:
确定所述待判定文本所属的业务说法模板,作为本次说法模板;
确定所述人机交互设备对所述待判定文本所提问题所属的业务说法模板,作为提问说法模板;
确定第二条件概率并将所述第二条件概率作为第六特征值,所述第二条件概率是出现所述提问说法模板的情况下出现所述本次说法模板的概率。
第五实施例
本实施例将对另一种语音交互装置进行介绍,相关内容请参见上述方法实施例。其中,该语音交互装置可以是上述方法实施例中提及的人机交互设备、也可以是上述人机交互设备中的组成部分。
参见图5,为本实施例提供的一种语音交互装置的硬件结构示意图,所述语音交互装置500包括存储器501和接收器502,以及分别与所述存储器501和所述接收器502连接的处理器503,所述存储器501用于存储一组程序指令,所述处理器503用于调用所述存储器501存储的程序指令执行如下操作:
接收用户的语音数据;
判断本次接收语音数据是否具有弱说法属性;
若所述本次接收语音数据具有弱说法属性,则判断所述本次接收语音数据是否满足预设判定条件,其中,所述预设判定条件包括所述本次接收语音数据与上一次接收语音数据在语义上是否完全相同或近似相同;
若所述本次接收语音数据满足所述预设判定条件,则对所述本次接收语音数据进行指令响应。
在本实施例的一种实现方式中,所述预设判定条件还包括:
所述本次接收语音数据与所述上一次接收语音数据之间的时间间隔是否小于预设时长。
在本实施例的一种实现方式中,所述处理器503还用于调用所述存储器501存储的程序指令执行如下操作:
获取所述本次接收语音数据的识别文本,作为本次识别文本;
生成所述本次识别文本对应的说法判定特征;
根据所述本次识别文本对应的说法判定特征,判断所述本次接收语音数据是否具有弱说法属性。
在本实施例的一种实现方式中,所述处理器503还用于调用所述存储器501存储的程序指令执行如下操作:
利用预先构建的强弱说法判定模型,来根据所述本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性。
在本实施例的一种实现方式中,所述处理器503还用于调用所述存储器501存储的程序指令执行如下操作:
将当前获取的一条样本文本作为训练文本,并生成所述训练文本对应的说法判定特征;
将所述训练文本对应的说法判定特征输入至当前强弱说法判定模型中,以便当前强弱说法判定模型预测所述训练文本的说法类型,所述说法类型为强说法或弱说法;
获取预先为所述训练文本标注的说法类型;
若所述训练文本的说法类型预测结果和说法类型标注结果不同,则更新当前强弱说法判定模型的模型参数,完成本轮模型训练;
判断是否满足训练结束条件;若是,则结束训练;若否,则获取下一条样本文本并将所述下一条样本文本作为所述训练文本,继续下一轮模型训练。
在本实施例的一种实现方式中,所述处理器503还用于调用所述存储器501存储的程序指令执行如下操作:
将所述本次识别文本对应的说法判定特征输入至预先构建的强弱说法判定模型,以获取所述强弱说法判定模型的判定结果,其中,所述判定结果包括第一概率和第二概率,所述第一概率为所述本次接收语音数据具有弱说法属性的概率,所述第二概率为所述本次接收语音数据具有强说法属性的概率;
若所述第一概率大于或等于所述第二概率,则认为所述本次接收语音数据具有弱说法属性;
若所述第一概率小于所述第二概率,则认为所述本次接收语音数据具有强说法属性。
在本实施例的一种实现方式中,所述说法判定特征的对应文本作为待判定文本时,所述说法判定特征包括以下至少一种特征值:
根据所述待判定文本的文本长度生成的第一特征值;
根据所述待判定文本的分词个数生成的第二特征值;
根据所述待判定文本的文本成分之间的句法关系生成的第三特征值;
根据所述待判定文本中的业务关键词生成的第四特征值;
根据所述待判定文本与上一待判定文本的相关度生成的第五特征值;
根据所述待判定文本与人机交互设备所提问题的相关度生成的第六特征值,所述待判定文本是对所述人机交互设备所提问题的回答文本。
在本实施例的一种实现方式中,所述处理器503还用于调用所述存储器501存储的程序指令执行如下操作:
确定所述待判定文本所属的业务说法模板,作为本次说法模板;
确定所述上一待判定文本所属的业务说法模板,作为上一次说法模板;
确定第一条件概率并将所述第一条件概率作为第五特征值,所述第一条件概率是出现所述上一次说法模板的情况下出现所述本次说法模板的概率。
在本实施例的一种实现方式中,所述处理器503还用于调用所述存储器501存储的程序指令执行如下操作:
确定所述待判定文本所属的业务说法模板,作为本次说法模板;
确定所述人机交互设备对所述待判定文本所提问题所属的业务说法模板,作为提问说法模板;
确定第二条件概率并将所述第二条件概率作为第六特征值,所述第二条件概率是出现所述提问说法模板的情况下出现所述本次说法模板的概率。
在一些实施方式中,所述处理器503可以为中央处理器(Central ProcessingUnit,CPU),所述存储器501可以为随机存取存储器(Random Access Memory,RAM)类型的内部存储器,所述接收器502可以包含普通物理接口,所述物理接口可以为以太(Ethernet)接口或异步传输模式(Asynchronous Transfer Mode,ATM)接口。所述处理器503、接收器502和存储器501可以集成为一个或多个独立的电路或硬件,如:专用集成电路(ApplicationSpecific Integrated Circuit,ASIC)。
进一步地,本实施例还提供了一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行上述语音交互方法中的任意一种实现方式。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到上述实施例方法中的全部或部分步骤可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者诸如媒体网关等网络通信设备,等等)执行本申请各个实施例或者实施例的某些部分所述的方法。
需要说明的是,本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本申请。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本申请的精神或范围的情况下,在其它实施例中实现。因此,本申请将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (15)
1.一种语音交互方法,其特征在于,包括:
接收用户的语音数据;
判断本次接收语音数据是否具有弱说法属性;
若所述本次接收语音数据具有弱说法属性,则判断所述本次接收语音数据是否满足预设判定条件,其中,所述预设判定条件包括所述本次接收语音数据与上一次接收语音数据在语义上是否完全相同或近似相同;
若所述本次接收语音数据满足所述预设判定条件,则对所述本次接收语音数据进行指令响应。
2.根据权利要求1所述的方法,其特征在于,所述预设判定条件还包括:
所述本次接收语音数据与所述上一次接收语音数据之间的时间间隔是否小于预设时长。
3.根据权利要求1所述的方法,其特征在于,所述判断本次接收语音数据是否具有弱说法属性,包括:
获取所述本次接收语音数据的识别文本,作为本次识别文本;
生成所述本次识别文本对应的说法判定特征;
根据所述本次识别文本对应的说法判定特征,判断所述本次接收语音数据是否具有弱说法属性。
4.根据权利要求3所述的方法,其特征在于,所述根据所述本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性,包括:
利用预先构建的强弱说法判定模型,来根据所述本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性。
5.根据权利要求4所述的方法,其特征在于,所述强弱说法判定模型按照以下方式构建:
将当前获取的一条样本文本作为训练文本,并生成所述训练文本对应的说法判定特征;
将所述训练文本对应的说法判定特征输入至当前强弱说法判定模型中,以便当前强弱说法判定模型预测所述训练文本的说法类型,所述说法类型为强说法或弱说法;
获取预先为所述训练文本标注的说法类型;
若所述训练文本的说法类型预测结果和说法类型标注结果不同,则更新当前强弱说法判定模型的模型参数,完成本轮模型训练;
判断是否满足训练结束条件;若是,则结束训练;若否,则获取下一条样本文本并将所述下一条样本文本作为所述训练文本,继续下一轮模型训练。
6.根据权利要求5所述的方法,其特征在于,所述利用预先构建的强弱说法判定模型,来根据所述本次识别文本对应的说法判定特征,判断本次接收语音数据是否具有弱说法属性,包括:
将所述本次识别文本对应的说法判定特征输入至预先构建的强弱说法判定模型,以获取所述强弱说法判定模型的判定结果,其中,所述判定结果包括第一概率和第二概率,所述第一概率为所述本次接收语音数据具有弱说法属性的概率,所述第二概率为所述本次接收语音数据具有强说法属性的概率;
若所述第一概率大于或等于所述第二概率,则认为所述本次接收语音数据具有弱说法属性;
若所述第一概率小于所述第二概率,则认为所述本次接收语音数据具有强说法属性。
7.根据权利要求3至6任一项所述的方法,其特征在于,所述说法判定特征的对应文本作为待判定文本时,所述说法判定特征包括以下至少一种特征值:
根据所述待判定文本的文本长度生成的第一特征值;
根据所述待判定文本的分词个数生成的第二特征值;
根据所述待判定文本的文本成分之间的句法关系生成的第三特征值;
根据所述待判定文本中的业务关键词生成的第四特征值;
根据所述待判定文本与上一待判定文本的相关度生成的第五特征值;
根据所述待判定文本与人机交互设备所提问题的相关度生成的第六特征值,所述待判定文本是对所述人机交互设备所提问题的回答文本。
8.根据权利要求7所述的方法,其特征在于,所述第五特征值按照下述方式生成:
确定所述待判定文本所属的业务说法模板,作为本次说法模板;
确定所述上一待判定文本所属的业务说法模板,作为上一次说法模板;
确定第一条件概率并将所述第一条件概率作为第五特征值,所述第一条件概率是出现所述上一次说法模板的情况下出现所述本次说法模板的概率。
9.根据权利要求7所述的方法,其特征在于,所述第六特征值按照下述方式生成:
确定所述待判定文本所属的业务说法模板,作为本次说法模板;
确定所述人机交互设备对所述待判定文本所提问题所属的业务说法模板,作为提问说法模板;
确定第二条件概率并将所述第二条件概率作为第六特征值,所述第二条件概率是出现所述提问说法模板的情况下出现所述本次说法模板的概率。
10.一种语音交互装置,其特征在于,包括:
语音接收单元,用于接收用户的语音数据;
说法判定单元,用于判断本次接收语音数据是否具有弱说法属性;
指令判定单元,用于若所述本次接收语音数据具有弱说法属性,则判断所述本次接收语音数据是否满足预设判定条件,其中,所述预设判定条件包括所述本次接收语音数据与上一次接收语音数据在语义上是否完全相同或近似相同;
指令响应单元,用于若所述本次接收语音数据满足所述预设判定条件,则对所述本次接收语音数据进行指令响应。
11.根据权利要求10所述的装置,其特征在于,所述预设判定条件还包括:
所述本次接收语音数据与所述上一次接收语音数据之间的时间间隔是否小于预设时长。
12.根据权利要求10所述的装置,其特征在于,所述说法判定单元包括:
文本获取子单元,用于获取所述本次接收语音数据的识别文本,作为本次识别文本;
特征生成子单元,用于生成所述本次识别文本对应的说法判定特征;
说法判定子单元,用于根据所述本次识别文本对应的说法判定特征,判断所述本次接收语音数据是否具有弱说法属性。
13.根据权利要求10至12任一项所述的装置,其特征在于,所述说法判定特征的对应文本作为待判定文本时,所述说法判定特征包括以下至少一种特征值:
根据所述待判定文本的文本长度生成的第一特征值;
根据所述待判定文本的分词个数生成的第二特征值;
根据所述待判定文本的文本成分之间的句法关系生成的第三特征值;
根据所述待判定文本中的业务关键词生成的第四特征值;
根据所述待判定文本与上一待判定文本的相关度生成的第五特征值;
根据所述待判定文本与人机交互设备所提问题的相关度生成的第六特征值,所述待判定文本是对人机交互设备所述所提问题的回答文本。
14.一种语音交互装置,其特征在于,包括:处理器、存储器、系统总线;
所述处理器以及所述存储器通过所述系统总线相连;
所述存储器用于存储一个或多个程序,所述一个或多个程序包括指令,所述指令当被所述处理器执行时使所述处理器执行如权利要求1-9任一项所述的方法。
15.一种计算机可读存储介质,包括指令,当其在计算机上运行时,使得计算机执行如权利要求1-9任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810392723.9A CN108538294B (zh) | 2018-04-27 | 2018-04-27 | 一种语音交互方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810392723.9A CN108538294B (zh) | 2018-04-27 | 2018-04-27 | 一种语音交互方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108538294A true CN108538294A (zh) | 2018-09-14 |
CN108538294B CN108538294B (zh) | 2020-11-17 |
Family
ID=63479444
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810392723.9A Active CN108538294B (zh) | 2018-04-27 | 2018-04-27 | 一种语音交互方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108538294B (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410933A (zh) * | 2018-10-18 | 2019-03-01 | 珠海格力电器股份有限公司 | 设备的控制方法及装置、存储介质和电子装置 |
CN109584877A (zh) * | 2019-01-02 | 2019-04-05 | 百度在线网络技术(北京)有限公司 | 语音交互控制方法和装置 |
CN109785838A (zh) * | 2019-01-28 | 2019-05-21 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备及存储介质 |
CN109979474A (zh) * | 2019-03-01 | 2019-07-05 | 珠海格力电器股份有限公司 | 语音设备及其用户语速修正方法、装置和存储介质 |
CN111028842A (zh) * | 2019-12-10 | 2020-04-17 | 上海芯翌智能科技有限公司 | 触发语音交互响应的方法及设备 |
CN112735395A (zh) * | 2020-12-25 | 2021-04-30 | 科大讯飞股份有限公司 | 语音识别方法及电子设备、存储装置 |
US11205431B2 (en) | 2019-01-02 | 2021-12-21 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus and device for presenting state of voice interaction device, and storage medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103020047A (zh) * | 2012-12-31 | 2013-04-03 | 威盛电子股份有限公司 | 修正语音应答的方法及自然语言对话系统 |
CN105575386A (zh) * | 2015-12-18 | 2016-05-11 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
US20170213546A1 (en) * | 2006-06-27 | 2017-07-27 | At&T Intellectual Property Ii, L.P. | Learning from interactions for a spoken dialog system |
CN107240398A (zh) * | 2017-07-04 | 2017-10-10 | 科大讯飞股份有限公司 | 智能语音交互方法及装置 |
CN107423363A (zh) * | 2017-06-22 | 2017-12-01 | 百度在线网络技术(北京)有限公司 | 基于人工智能的话术生成方法、装置、设备及存储介质 |
CN107665706A (zh) * | 2016-07-29 | 2018-02-06 | 科大讯飞股份有限公司 | 快速语音交互方法及系统 |
CN107665708A (zh) * | 2016-07-29 | 2018-02-06 | 科大讯飞股份有限公司 | 智能语音交互方法及系统 |
-
2018
- 2018-04-27 CN CN201810392723.9A patent/CN108538294B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20170213546A1 (en) * | 2006-06-27 | 2017-07-27 | At&T Intellectual Property Ii, L.P. | Learning from interactions for a spoken dialog system |
CN103020047A (zh) * | 2012-12-31 | 2013-04-03 | 威盛电子股份有限公司 | 修正语音应答的方法及自然语言对话系统 |
CN105575386A (zh) * | 2015-12-18 | 2016-05-11 | 百度在线网络技术(北京)有限公司 | 语音识别方法和装置 |
CN107665706A (zh) * | 2016-07-29 | 2018-02-06 | 科大讯飞股份有限公司 | 快速语音交互方法及系统 |
CN107665708A (zh) * | 2016-07-29 | 2018-02-06 | 科大讯飞股份有限公司 | 智能语音交互方法及系统 |
CN107423363A (zh) * | 2017-06-22 | 2017-12-01 | 百度在线网络技术(北京)有限公司 | 基于人工智能的话术生成方法、装置、设备及存储介质 |
CN107240398A (zh) * | 2017-07-04 | 2017-10-10 | 科大讯飞股份有限公司 | 智能语音交互方法及装置 |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109410933A (zh) * | 2018-10-18 | 2019-03-01 | 珠海格力电器股份有限公司 | 设备的控制方法及装置、存储介质和电子装置 |
CN109410933B (zh) * | 2018-10-18 | 2021-02-19 | 珠海格力电器股份有限公司 | 设备的控制方法及装置、存储介质和电子装置 |
CN109584877A (zh) * | 2019-01-02 | 2019-04-05 | 百度在线网络技术(北京)有限公司 | 语音交互控制方法和装置 |
US11205431B2 (en) | 2019-01-02 | 2021-12-21 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus and device for presenting state of voice interaction device, and storage medium |
CN109785838A (zh) * | 2019-01-28 | 2019-05-21 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备及存储介质 |
CN109785838B (zh) * | 2019-01-28 | 2021-08-31 | 百度在线网络技术(北京)有限公司 | 语音识别方法、装置、设备及存储介质 |
CN109979474A (zh) * | 2019-03-01 | 2019-07-05 | 珠海格力电器股份有限公司 | 语音设备及其用户语速修正方法、装置和存储介质 |
CN111028842A (zh) * | 2019-12-10 | 2020-04-17 | 上海芯翌智能科技有限公司 | 触发语音交互响应的方法及设备 |
CN111028842B (zh) * | 2019-12-10 | 2021-05-11 | 上海芯翌智能科技有限公司 | 触发语音交互响应的方法及设备 |
CN112735395A (zh) * | 2020-12-25 | 2021-04-30 | 科大讯飞股份有限公司 | 语音识别方法及电子设备、存储装置 |
CN112735395B (zh) * | 2020-12-25 | 2024-05-31 | 科大讯飞股份有限公司 | 语音识别方法及电子设备、存储装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108538294B (zh) | 2020-11-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108509619B (zh) | 一种语音交互方法及设备 | |
CN108538294A (zh) | 一种语音交互方法及装置 | |
CN107832286B (zh) | 智能交互方法、设备及存储介质 | |
US11106983B2 (en) | Intelligent interaction method and intelligent interaction system | |
CN108364650B (zh) | 语音识别结果的调整装置及方法 | |
WO2019084810A1 (zh) | 一种信息处理方法及终端、计算机存储介质 | |
CN110619051B (zh) | 问题语句分类方法、装置、电子设备及存储介质 | |
CN106503184B (zh) | 确定目标文本所属业务类别的方法及装置 | |
CN105334743A (zh) | 一种基于情感识别的智能家居控制方法及其系统 | |
CN103956169A (zh) | 一种语音输入方法、装置和系统 | |
CN107247769A (zh) | 语音点歌方法、装置、终端及存储介质 | |
WO2022178969A1 (zh) | 语音对话数据处理方法、装置、计算机设备及存储介质 | |
CN108920649B (zh) | 一种信息推荐方法、装置、设备和介质 | |
CN108304424B (zh) | 文本关键词提取方法及文本关键词提取装置 | |
CN105469789A (zh) | 一种语音信息的处理方法及终端 | |
CN109979450B (zh) | 信息处理方法、装置及电子设备 | |
CN111178081B (zh) | 语义识别的方法、服务器、电子设备及计算机存储介质 | |
CN112669842A (zh) | 人机对话控制方法、装置、计算机设备及存储介质 | |
CN110851650B (zh) | 一种评论输出方法、装置、以及计算机存储介质 | |
CN111737414A (zh) | 一种歌曲推荐方法及装置、服务器、存储介质 | |
CN110517668A (zh) | 一种中英文混合语音识别系统及方法 | |
CN104766607A (zh) | 一种电视节目推荐方法与系统 | |
CN117253478A (zh) | 一种语音交互方法和相关装置 | |
CN114417827A (zh) | 文本上下文处理方法、装置、电子设备和存储介质 | |
CN114064943A (zh) | 会议管理方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |