CN104571485A - 一种基于Java Map的人机语音交互系统及方法 - Google Patents

一种基于Java Map的人机语音交互系统及方法 Download PDF

Info

Publication number
CN104571485A
CN104571485A CN201310517226.4A CN201310517226A CN104571485A CN 104571485 A CN104571485 A CN 104571485A CN 201310517226 A CN201310517226 A CN 201310517226A CN 104571485 A CN104571485 A CN 104571485A
Authority
CN
China
Prior art keywords
semantic feature
module
user
map
date
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310517226.4A
Other languages
English (en)
Other versions
CN104571485B (zh
Inventor
张艳
马成龙
潘接林
颜永红
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Acoustics CAS
Beijing Kexin Technology Co Ltd
Original Assignee
Institute of Acoustics CAS
Beijing Kexin Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Acoustics CAS, Beijing Kexin Technology Co Ltd filed Critical Institute of Acoustics CAS
Priority to CN201310517226.4A priority Critical patent/CN104571485B/zh
Publication of CN104571485A publication Critical patent/CN104571485A/zh
Application granted granted Critical
Publication of CN104571485B publication Critical patent/CN104571485B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/08Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Abstract

本发明提出了一种基于Java?Map的人机语音交互系统及方法,所述系统包含:语音识别模块,用于接收用户输入的语音信息,并将语音信息识别为文本数据;口语理解模块,用于对文本数据进行语义挖掘,并且转换为机器能够识别的形式,其中语义挖掘中基于Java?Map的上下文关键语义要素的存储与利用策略将会对用户输入的上下文信息进行整合,且所述语义挖掘为将识别的文本进行语义关键要素的抽取;对话管理模块,用于控制人机交互的对话流程;语言生成模块,用于将零碎的答案进行整合,得到通顺、符合人的逻辑语言表示形式的文本;语音合成模块,用于将生成的答案文本转化为语音信息,并将语音信息播报给用户。

Description

一种基于Java Map的人机语音交互系统及方法
技术领域
本发明涉及如何在人机交互中有效地利用用户所提出的上下文信息的计算方法,主要针对利用Java Map对人机交互过程中上下文关键语义要素的存储与利用,具体涉及一种基于Java Map的人机语音交互系统及方法。
背景技术
人机语音交互系统是指用户通过语音控制机器,机器真正地听懂了用户所说的内容并与用户进行交互,真正实现了“君子动口不动手”。典型的人机语音交互系统包括:语音识别、口语理解、对话管理和语音合成四个部分组成。口语理解部分是将语音识别后的文本进行理解,转化成机器能够读懂的机器语言即进行语义挖掘。然而,口语理解通常会遇到这样的问题,有时用户提出的查询并不是一个完整的句子或者用户说的内容需要好几句才能表达完整,这就需要口语理解模块对上下文的语义要素进行保存和整理,进行综合处理。如何能够控制上下文的语义要素并且有效利用它们成为是否能够完整理解用户信息的关键,通常人机语音交互系统是针对某一领域的,并且该领域内的语义要素是可穷举的,针对这种情况,我们提出了基于Java Map的上下文关键语义要素的存储与利用算法。
发明内容
本发明的目的在于,为克服上述技术缺陷,本发明提供一种基于Java Map的人机语音交互系统及方法。
为实现上述目的,本发明提供一种基于Java Map的人机语音交互系统,所述系统包含:
语音识别模块,用于接收用户输入的语音信息,并将语音信息识别为文本数据;
口语理解模块,用于对文本数据进行语义挖掘,并且转换为机器能够识别的形式,其中语义挖掘中基于Java Map的上下文关键语义要素的存储与利用策略将会对用户输入的上下文信息进行整合,且所述语义挖掘为将识别的文本进行语义关键要素的抽取;
对话管理模块,用于控制人机交互的对话流程;
语言生成模块,用于将零碎的答案进行整合,得到通顺、符合人的逻辑语言表示形式的文本;
语音合成模块,用于将生成的答案文本转化为语音信息,并将语音信息播报给用户。
上述Java Map的上下文关键语义要素的存储与利用策略具体采用如下子模块实现:
领域识别子模块,用于识别输入语句所属的领域;
关键语义要素提炼子模块,用于根据用户提出的语句,构建出关键语义要素,并将提取的语义要素存储为Java Map格式;
Java Map语义控制子模块,用于启动两个线程,其中,第一线程实时遍历Java Map中存储的信息,查看存储的信息是否过期,如果过期则进行清空否则跳过继续执行;第二个线程用于关键语义要素提炼子模块输入的Map形式信息进行替换还是合并处理。
上述合并处理采用Java Map语义要素控制器实现,该Java Map语义要素控制器进一步包含:
第一查询模块,基于用户的id编号查找该用户在收到最新的语义要素之前所存储的语义要素,如果该用户之前没有存储相关的语义要素,则启动存储模块;如果已经存储了该最新的语义要素,则启动合并模块;
存储模块,用于将最新的语义要素进行存储;和
合并模块,用于对最新输入的语义要素和之前存储的语义要素进行合并;其中,当语义合并的时候,如果最新输入的语义要素与之前存储的语义要素属于同一领域的,则进行关键语义要素的补充和替换;如果最新输入的语义要素与之前存储的语义要素属于不同的领域,则对之前的语义要素进行清空,并存储最新的语义要素。
此外,本发明还提供了一种基于Java Map的人机语音交互方法,所述方法包含:
步骤101)接收用户输入的语音信息,并将语音信息识别成文本数据;
步骤102)利用口语理解技术将识别的文本数据进行语义挖掘,所述语义挖掘为将识别的文本转化成机器能够读懂的机器语言;
步骤103)基于Java Map的上下文关键语义要素的存储与利用策略将上述得到的关键语义要素进行合并或替换;
步骤104)将关键语义要素送入对话管理模块,控制对话流程;
步骤105)将对话管理模块得到的文本答案片段进行语言生成,并以语音的形式进行播报。
上述Java Map的上下文关键语义要素的存储与利用策略进一步包含如下步骤:
步骤201)根据用户输入的语句进行领域判别,得到该语句所属的领域信息;
步骤202)对输入的语句进行理解,并将关键语义要素采用Map形式进行存储;
步骤203采用第一线程实时遍历Map中存储的信息,查看存储的信息是否过期,如果过期则进行清空否则跳过继续执行;采用第二个线程用于决策对领域识别子模块输入的Map形式信息进行替换还是合并处理。
上述合并处理具体为:
基于用户的id编号查找该用户在收到最新的语义要素之前所存储的语义要素,如果该用户之前没有存储相关的语义要素,将最新的语义要素进行存储;如果已经存储了该最新的语义要素,则对最新输入的语义要素和之前存储的语义要素进行合并;
其中,当语义合并的时候,如果最新输入的语义要素与之前存储的语义要素属于同一领域的,则进行关键语义要素的补充和替换;如果最新输入的语义要素与之前存储的语义要素属于不同的领域,则对之前的语义要素进行清空,并存储最新的语义要素。
与现有技术相比,本发明的技术优势在于:
1、实现方法简单,能够更好地利用上下文信息。
2、便于对语义要素进行控制和管理。
3、对于不同用户的语义要素的保存时间可以根据用户的对话时间间隔习惯进行定制。
附图说明
图1是本发明的系统组成示意图。
图2是本发明提供的一个实施例的实现流程图,该图所属的领域是天气查询,时间是2013年10月26,询问类型是下雨吗。
具体实施方式
下面结合附图和实施例对本发明所述方法进行详细说明。
请结合权利要求的步骤增加一个很具体的实施例!
1、根据领域知识,构建出该领域的关键语义要素。例如,天气领域内,需要知道询问时间、感兴趣的城市和询问类型(有雨吗、温度如何、用带伞吗、PM2.5是多少等)。
2、当用户通过语音输入,识别成文本送入到理解服务器,理解服务器首先对其进行领域判别和理解,例如用户输入“明天下雨吗”,理解服务器对其进行领域识别为天气查询领域,该语句包含的语义关键要素包含“明天”、“下雨吗”。
3、将第二步得到的结果送入Java Map语义要素控制器,由于每个用户的id编号是唯一的,首先查找该用户之前存储的语义要素,如果没有,则将新的语义要素进行存储,如果有,则对其进行合并。语义合并的时候,如果是同一领域,则进行关键语义要素的补充和替换,如果是不同的领域,则对之前的语义要素进行清空,将新的语义要素存储进去。
4、通过第三步则对该用户的真正意图进行了理解,送入给下一步应用。
5、Java Map语义控制随系统启动时分为两个线程,第一个线程实时遍历该Map中存储的信息,查看存储的信息是否过期,如果过期则进行清空否则跳过继续执行。第二个线程便是处理理解服务器送进来的信息进行替换还是合并。
由于每个用户说话习惯不同,有的用户上下语句之间停顿时间长,有的用户则短,并且和用户当前进行的操作有关,有时用户需要对智能语音人机交互系统返回的结果进行查看,这无疑增加了上下语句之间的停顿时间。因此,这个过期时间是由多种因素决定的,需要进行综合判断,对其进行定制。本发明提供的方法面向的研究领域涉及到对天气预报、公交线路查询等语义要素可穷举的领域。其中天气领域内的关键语义要素有时间、地点和天气询问词(例如有雨吗、温度多少啊等),如图2所示。公交线路查询领域内的关键语义要素有起始地、目的地、出行方式(例如步行、公交、驾车等)和询问方式(例如多长时间、距离多远、打车费用等)。
为了更好的理解本方法在整个人机交互系统中的应用,系统框图为图1。
用户通过语音输入,自动语音识别服务器将语音识别为文本送入理解服务器,理解服务器会对该语句进行理解,存储成Map形式,然后再送入Java Map中,查找该用户之前的语义信息,进行判断和整合,最后输出结果。同时,Java Map语义控制器会对存储在Map里的信息进行刷新,如果该用户的语义信息存储时间过长,则进行清空,这个控制时间是根据每个用户对话习惯间隔进行特殊指定的。
总之,本发明采用一种基于Java Map的控制上下文语义要素的算法,即利用JavaMap的键值唯一性,对每一位用户提出的语义要素进行存储,当用户新的语义要素到来时,与之前的语义要素进行比对,如果属于同一领域则进行语义要素之间的判断融合,如果不是同一个领域则进行重写。同时,如果用户长时间不进行操作,则对该用户之前的语义要素进行另存和清空,以便留出内存空间供给其他用户使用,并且这个等待时间是根据用户的口语交互习惯进行量身定制的。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于Java Map的人机语音交互系统,所述系统包含:
语音识别模块,用于接收用户输入的语音信息,并将语音信息识别为文本数据;
口语理解模块,用于对文本数据进行语义挖掘,并且转换为机器能够识别的形式,其中语义挖掘中基于Java Map的上下文关键语义要素的存储与利用策略将会对用户输入的上下文信息进行整合,且所述语义挖掘为将识别的文本进行语义关键要素的抽取;
对话管理模块,用于控制人机交互的对话流程;
语言生成模块,用于将零碎的答案进行整合,得到通顺、符合人的逻辑语言表示形式的文本;
语音合成模块,用于将生成的答案文本转化为语音信息,并将语音信息播报给用户。
2.根据权利要求1所述的基于Java Map的人机语音交互系统,其特征在于,所述Java Map的上下文关键语义要素的存储与利用策略具体采用如下子模块实现:
领域识别子模块,用于识别输入语句所属的领域;
关键语义要素提炼子模块,用于根据用户提出的语句,构建出关键语义要素,并将提取的语义要素存储为Java Map格式;
Java Map语义控制子模块,用于启动两个线程,其中,第一线程实时遍历Java Map中存储的信息,查看存储的信息是否过期,如果过期则进行清空否则跳过继续执行;第二个线程用于关键语义要素提炼子模块输入的Map形式信息进行替换还是合并处理。
3.根据权利要求2所述的基于Java Map的人机语音交互系统,其特征在于,所述合并处理采用Java Map语义要素控制器实现,该Java Map语义要素控制器进一步包含:
第一查询模块,基于用户的id编号查找该用户在收到最新的语义要素之前所存储的语义要素,如果该用户之前没有存储相关的语义要素,则启动存储模块;如果已经存储了该最新的语义要素,则启动合并模块;
存储模块,用于将最新的语义要素进行存储;和
合并模块,用于对最新输入的语义要素和之前存储的语义要素进行合并;其中,当语义合并的时候,如果最新输入的语义要素与之前存储的语义要素属于同一领域的,则进行关键语义要素的补充和替换;如果最新输入的语义要素与之前存储的语义要素属于不同的领域,则对之前的语义要素进行清空,并存储最新的语义要素。
4.一种基于Java Map的人机语音交互方法,所述方法包含:
步骤101)接收用户输入的语音信息,并将语音信息识别成文本数据;
步骤102)利用口语理解将识别的文本数据进行语义挖掘,所述语义挖掘为将识别的文本转化成机器能够读懂的机器语言;
步骤103)基于Java Map的上下文关键语义要素的存储与利用策略将上述得到的关键语义要素进行合并或替换;
步骤104)将关键语义要素送入对话管理模块,控制对话流程;
步骤105)将对话管理模块得到的文本答案片段进行语言生成,并以语音的形式进行播报。
5.根据权利要求1所述的基于Java Map的人机语音交互方法,其特征在于,所述Java Map的上下文关键语义要素的存储与利用策略进一步包含如下步骤:
步骤201)根据用户输入的语句进行领域判别,得到该语句所属的领域信息;
步骤202)对输入的语句进行理解,并将关键语义要素采用Map形式进行存储;
步骤203采用第一线程实时遍历Map中存储的信息,查看存储的信息是否过期,如果过期则进行清空否则跳过继续执行;采用第二个线程用于决策对领域识别子模块输入的Map形式信息进行替换还是合并处理。
6.根据权利要求5所述的基于Java Map的人机语音交互方法,其特征在于,所述合并处理具体为:
基于用户的id编号查找该用户在收到最新的语义要素之前所存储的语义要素,如果该用户之前没有存储相关的语义要素,将最新的语义要素进行存储;如果已经存储了该最新的语义要素,则对最新输入的语义要素和之前存储的语义要素进行合并;
其中,当语义合并的时候,如果最新输入的语义要素与之前存储的语义要素属于同一领域的,则进行关键语义要素的补充和替换;如果最新输入的语义要素与之前存储的语义要素属于不同的领域,则对之前的语义要素进行清空,并存储最新的语义要素。
CN201310517226.4A 2013-10-28 2013-10-28 一种基于Java Map的人机语音交互系统及方法 Expired - Fee Related CN104571485B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310517226.4A CN104571485B (zh) 2013-10-28 2013-10-28 一种基于Java Map的人机语音交互系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310517226.4A CN104571485B (zh) 2013-10-28 2013-10-28 一种基于Java Map的人机语音交互系统及方法

Publications (2)

Publication Number Publication Date
CN104571485A true CN104571485A (zh) 2015-04-29
CN104571485B CN104571485B (zh) 2017-12-12

Family

ID=53087771

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310517226.4A Expired - Fee Related CN104571485B (zh) 2013-10-28 2013-10-28 一种基于Java Map的人机语音交互系统及方法

Country Status (1)

Country Link
CN (1) CN104571485B (zh)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105590626A (zh) * 2015-12-29 2016-05-18 百度在线网络技术(北京)有限公司 持续语音人机交互方法和系统
CN105679314A (zh) * 2015-12-28 2016-06-15 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105845137A (zh) * 2016-03-18 2016-08-10 中国科学院声学研究所 一种语音对话管理系统
CN106055244A (zh) * 2016-05-10 2016-10-26 武汉科技大学 一种基于Kincet和语音的人机交互方法
CN106558309A (zh) * 2015-09-28 2017-04-05 中国科学院声学研究所 一种口语对话策略生成方法及口语对话方法
CN107516516A (zh) * 2017-08-21 2017-12-26 北京格致创想科技有限公司 基于语音交互的仪器智能控制方法及系统
CN107943896A (zh) * 2017-11-16 2018-04-20 百度在线网络技术(北京)有限公司 信息处理方法和装置
CN108073587A (zh) * 2016-11-09 2018-05-25 阿里巴巴集团控股有限公司 一种自动问答方法、装置及电子设备
CN108255934A (zh) * 2017-12-07 2018-07-06 北京奇艺世纪科技有限公司 一种语音控制方法及装置
CN108780644A (zh) * 2016-03-16 2018-11-09 宝马股份公司 运输工具、用于在语音输入范围内调整允许的语音停顿长度的系统和方法
CN110310620A (zh) * 2019-07-23 2019-10-08 苏州派维斯信息科技有限公司 基于原生发音强化学习的语音融合方法
CN111201566A (zh) * 2017-08-10 2020-05-26 费赛特实验室有限责任公司 用于处理数据和输出用户反馈的口语通信设备和计算体系架构以及相关方法
CN111459837A (zh) * 2020-04-16 2020-07-28 大连即时智能科技有限公司 对话策略配置方法及对话系统
CN112204654A (zh) * 2018-02-15 2021-01-08 得麦股份有限公司 用于基于预测的先发式对话内容生成的系统和方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040083092A1 (en) * 2002-09-12 2004-04-29 Valles Luis Calixto Apparatus and methods for developing conversational applications
US20100223599A1 (en) * 2009-02-27 2010-09-02 Fujitsu Limited Efficient symbolic execution of software using static analysis
CN103000052A (zh) * 2011-09-16 2013-03-27 上海先先信息科技有限公司 人机互动的口语对话系统及其实现方法
CN103229162A (zh) * 2010-09-28 2013-07-31 国际商业机器公司 使用候选答案逻辑综合提供问题答案

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040083092A1 (en) * 2002-09-12 2004-04-29 Valles Luis Calixto Apparatus and methods for developing conversational applications
US20100223599A1 (en) * 2009-02-27 2010-09-02 Fujitsu Limited Efficient symbolic execution of software using static analysis
CN103229162A (zh) * 2010-09-28 2013-07-31 国际商业机器公司 使用候选答案逻辑综合提供问题答案
CN103000052A (zh) * 2011-09-16 2013-03-27 上海先先信息科技有限公司 人机互动的口语对话系统及其实现方法

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106558309A (zh) * 2015-09-28 2017-04-05 中国科学院声学研究所 一种口语对话策略生成方法及口语对话方法
CN106558309B (zh) * 2015-09-28 2019-07-09 中国科学院声学研究所 一种口语对话策略生成方法及口语对话方法
CN105679314A (zh) * 2015-12-28 2016-06-15 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN105590626B (zh) * 2015-12-29 2020-03-03 百度在线网络技术(北京)有限公司 持续语音人机交互方法和系统
CN105590626A (zh) * 2015-12-29 2016-05-18 百度在线网络技术(北京)有限公司 持续语音人机交互方法和系统
CN108780644A (zh) * 2016-03-16 2018-11-09 宝马股份公司 运输工具、用于在语音输入范围内调整允许的语音停顿长度的系统和方法
CN105845137A (zh) * 2016-03-18 2016-08-10 中国科学院声学研究所 一种语音对话管理系统
CN105845137B (zh) * 2016-03-18 2019-08-23 中国科学院声学研究所 一种语音对话管理系统
CN106055244A (zh) * 2016-05-10 2016-10-26 武汉科技大学 一种基于Kincet和语音的人机交互方法
CN106055244B (zh) * 2016-05-10 2020-08-04 武汉科技大学 一种基于Kinect和语音的人机交互方法
CN108073587A (zh) * 2016-11-09 2018-05-25 阿里巴巴集团控股有限公司 一种自动问答方法、装置及电子设备
CN108073587B (zh) * 2016-11-09 2022-05-27 阿里巴巴集团控股有限公司 一种自动问答方法、装置及电子设备
CN111201566A (zh) * 2017-08-10 2020-05-26 费赛特实验室有限责任公司 用于处理数据和输出用户反馈的口语通信设备和计算体系架构以及相关方法
CN107516516A (zh) * 2017-08-21 2017-12-26 北京格致创想科技有限公司 基于语音交互的仪器智能控制方法及系统
CN107943896A (zh) * 2017-11-16 2018-04-20 百度在线网络技术(北京)有限公司 信息处理方法和装置
CN108255934A (zh) * 2017-12-07 2018-07-06 北京奇艺世纪科技有限公司 一种语音控制方法及装置
CN108255934B (zh) * 2017-12-07 2020-10-27 北京奇艺世纪科技有限公司 一种语音控制方法及装置
CN112204654A (zh) * 2018-02-15 2021-01-08 得麦股份有限公司 用于基于预测的先发式对话内容生成的系统和方法
CN110310620A (zh) * 2019-07-23 2019-10-08 苏州派维斯信息科技有限公司 基于原生发音强化学习的语音融合方法
CN110310620B (zh) * 2019-07-23 2021-07-13 苏州派维斯信息科技有限公司 基于原生发音强化学习的语音融合方法
CN111459837A (zh) * 2020-04-16 2020-07-28 大连即时智能科技有限公司 对话策略配置方法及对话系统

Also Published As

Publication number Publication date
CN104571485B (zh) 2017-12-12

Similar Documents

Publication Publication Date Title
CN104571485A (zh) 一种基于Java Map的人机语音交互系统及方法
CN110209791B (zh) 一种多轮对话智能语音交互系统及装置
CN102549652B (zh) 信息检索装置
CN107622050A (zh) 基于Bi‑LSTM和CRF的文本序列标注系统及方法
CN108932340A (zh) 一种不良资产经营领域下金融知识图谱的构建方法
CN104679867B (zh) 基于图的地址知识处理方法及装置
CN111666380A (zh) 一种智能呼叫方法、装置、设备和介质
CN107240398A (zh) 智能语音交互方法及装置
CN111462750A (zh) 语义与知识增强的端到端任务型对话系统及方法
CN104391673A (zh) 语音交互方法和装置
EP2851896A1 (en) Speech recognition using phoneme matching
CN103761242A (zh) 检索方法、检索系统以及自然语言理解系统
US20050216254A1 (en) System-resource-based multi-modal input fusion
EP2919097B1 (en) Information processing system and information processing method for character input prediction
CN101075435A (zh) 一种智能聊天系统及其实现方法
CN102968987A (zh) 一种语音识别方法及系统
CN110147553A (zh) 一种基于案件要素的法律文书分析方法
CN108932278A (zh) 基于语义框架的人机对话方法及系统
Varró et al. The politics of spatial policy and governance in post-1990 Hungary: The interplay between European and national discourses of space
CN101446941A (zh) 一种基于历史信息的自然语言层次句法分析方法
CN111128175A (zh) 口语对话管理方法及系统
CN101794304A (zh) 行业信息服务系统及方法
Huang et al. DuIVA: An Intelligent Voice Assistant for Hands-free and Eyes-free Voice Interaction with the Baidu Maps App
Zhang et al. AI-powered text generation for harmonious human-machine interaction: current state and future directions
CN115064168A (zh) 语音交互方法、服务器和存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171212

CF01 Termination of patent right due to non-payment of annual fee