CN109961780B - 一种人机交互方法、装置、服务器和存储介质 - Google Patents
一种人机交互方法、装置、服务器和存储介质 Download PDFInfo
- Publication number
- CN109961780B CN109961780B CN201711404405.1A CN201711404405A CN109961780B CN 109961780 B CN109961780 B CN 109961780B CN 201711404405 A CN201711404405 A CN 201711404405A CN 109961780 B CN109961780 B CN 109961780B
- Authority
- CN
- China
- Prior art keywords
- application scene
- text information
- target text
- user
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 41
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000004458 analytical method Methods 0.000 claims abstract description 72
- 238000004590 computer program Methods 0.000 claims description 24
- 238000010276 construction Methods 0.000 claims description 2
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 238000003058 natural language processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Abstract
本发明涉及人工智能技术领域,提出一种人机交互方法、装置、服务器和计算机存储介质。所述人机交互方法包括:获取用户输入的语音信息;对所述语音信息进行识别,得到目标文本信息;根据所述目标文本信息确定当前所处的应用场景;采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;根据所述语义分析结果生成答复操作;控制机器人执行所述答复操作,以向所述用户反馈答复信息。由于进行语义分析时考虑了当前所处的应用场景,能够识别同一语音信息在不同应用场景下的不同含义,从而能够得到准确的语义分析结果,最终使得用户在各个应用场景下均能获得期望的答复,极大地提高了用户体验。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种人机交互方法、装置、服务器和计算机存储介质。
背景技术
人机交互是指人与计算机之间使用某种对话语言,以一定的交互方式,为完成确定任务的人与计算机之间的信息交换过程。传统的人机交互主要通过键盘、鼠标、显示器等输入输出设备实现,而随着语音识别、自然语言处理等技术的发展,人与机器人之间已经能够通过类似于自然语言的方式进行交互。
目前,用户与机器人的交互过程主要包括:机器人对用户发出的语句进行语音和语义识别,然后从自身的知识库中获取与该语句对应的答复内容并将该答复内容反馈给用户。然而,由于在不同应用场景下的同一句话往往具有不同的含义,采用这种方式可能导致用户无法获得期望的答复,用户体验不佳。
发明内容
有鉴于此,本发明实施例提供了一种人机交互方法、装置、服务器和计算机存储介质,能够使得用户在各个应用场景下均能获得期望的答复,提高用户体验。
本发明实施例的第一方面提供了一种人机交互方法,包括:
获取用户输入的语音信息;
对所述语音信息进行识别,得到目标文本信息;
根据所述目标文本信息确定当前所处的应用场景;
采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;
根据所述语义分析结果生成答复操作;
控制机器人执行所述答复操作,以向所述用户反馈答复信息。
本发明实施例的第二方面提供了一种人机交互装置,包括:
语音获取模块,用于获取用户输入的语音信息;
语音识别模块,用于对所述语音信息进行识别,得到目标文本信息;
应用场景确定模块,用于根据所述目标文本信息确定当前所处的应用场景;
语义分析模块,用于采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;
答复操作生成模块,用于根据所述语义分析结果生成答复操作;
控制模块,用于控制机器人执行所述答复操作,以向所述用户反馈答复信息。
本发明实施例的第三方面提供了一种服务器,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如本发明实施例的第一方面提供的人机交互方法的步骤。
本发明实施例的第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如本发明实施例的第一方面提供的人机交互方法的步骤。
在本发明实施例中,获取用户输入的语音信息;对所述语音信息进行识别,得到目标文本信息;根据所述目标文本信息确定当前所处的应用场景;采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;根据所述语义分析结果生成答复操作;控制机器人执行所述答复操作,以向所述用户反馈答复信息。在进行人机交互时,首先确定当前所处的应用场景,然后采用该应用场景下的语义对用户输入的信息进行语义分析,最后根据该语义分析的结果生成答复操作。由于进行语义分析时考虑了当前所处的应用场景,能够识别同一语音信息在不同应用场景下的不同含义,从而能够得到准确的语义分析结果,最终使得用户在各个应用场景下均能获得期望的答复,极大地提高了用户体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种人机交互方法的第一个实施例的流程图;
图2是本发明实施例提供的一种人机交互方法的第二个实施例的流程图;
图3是本发明实施例提供的一种人机交互装置的一个实施例的结构图;
图4是本发明实施例提供的一种服务器的示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本发明实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
本发明实施例提供了一种人机交互方法、装置、服务器和计算机存储介质,能够使得用户在各个应用场景下均能获得期望的答复,提高用户体验。
请参阅图1,本发明实施例中一种人机交互方法的第一个实施例包括:
101、获取用户输入的语音信息;
在人机交互开始时,由机器人获取用户输入的语音信息。
102、对所述语音信息进行识别,得到目标文本信息;
在获取到语音信息后,对该语音信息进行语音识别,得到对应的文本信息。
103、根据所述目标文本信息确定当前所处的应用场景;
在得到目标文本信息之后,根据该目标文本信息确定当前所处的应用场景。具体的,该应用场景可以包括初始应用场景和自定义应用场景,初始应用场景为机器人初始所处的默认应用场景,一般为不含专业内容的基本对话场景;自定义应用场景则为预定义的各类对话场景,可以为包含各种专业内容的特殊对话场景,比如摄影、舞蹈、教育或者各类运动比赛等场景。人机对话开始时处于初始应用场景,在得到每个所述目标文本信息后,根据该目标文本信息判断是否切换当前的应用场景以及具体切换至哪个应用场景。
具体的,假设当前处于初始应用场景,对获取到的目标文本信息进行分析,判断是否需要切换至某个自定义应用场景,判断的依据可以是目标文本信息中包含的关键词,比如“拍照”、“开始”或“转换”等,若无需切换场景,则仍然停留在初始应用场景;若需切换场景,则根据文本分析的结果切换至对应的某个自定义应用场景,比如目标文本信息为“我要拍照”,则切换至拍照应用场景。假设当前处于某个自定义应用场景,同样可以对获取到的目标文本信息进行分析,根据分析的结果决定停留在该自定义应用场景、切换至初始应用场景或者切换至另一个自定义应用场景。
104、采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;
在确定当前所处的应用场景后,采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果。比如,若当前所处的应用场景为初始应用场景,则采用初始应用场景的语义对该目标文本信息进行分析;若当前所处的应用场景为某个自定义应用场景,则采用该自定义应用场景的语义对该目标文本信息进行分析。通过这样设置,能够有效区分同一文本信息在不同应用场景下的不同含义,比如对于文本信息“今天怎样”,采用初始应用场景的语义分析得到的结果是“今天是什么日期”,而采用“天气预报”的自定义应用场景的语义分析得到的结果则可能是“今天的天气怎样”。
105、根据所述语义分析结果生成答复操作;
在得到语义分析结果后,根据该语义分析结果生成答复操作。答复操作可以是语音回复某个语句,也可以是各种操作动作,比如打开摄像头、挥手、跳舞等。具体的,可以预先设置各种控制逻辑程序,当获得语义分析结果后,结合语义分析结果和控制逻辑程序,生成对应的答复操作。假设语义分析结果是“今天的天气怎样”,则生成的答复操作可以为语音回复“今天是晴天”;若语义分析的结果是“跳舞”,则生成的答复操作可以是执行一套预设的舞蹈动作。
106、控制机器人执行所述答复操作,以向所述用户反馈答复信息。
在生成答复操作后,控制机器人执行所述答复操作,以向所述用户反馈答复信息,从而完成一次人机交互的过程。在实际应用中,一种设计方案为:将场景判断和语义分析功能集成在机器人中,即由机器人执行上述步骤101至106。然而这种设计方案对机器人的硬件性能和信息存储容量的要求极高,故优选采用以下设计方案:机器人作为与用户交互的主体,执行上述步骤101;设置一个云服务器(比如某个语义应用平台),该云服务器负责对话的场景判断、各个场景下的语义分析以及根据语义分析的结果生成答复操作,即执行上述步骤102至106,云服务器和机器人之间可以通过网络建立通信连接。
在本发明实施例中,获取用户输入的语音信息;对所述语音信息进行识别,得到目标文本信息;根据所述目标文本信息确定当前所处的应用场景;采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;根据所述语义分析结果生成答复操作;控制机器人执行所述答复操作,以向所述用户反馈答复信息。在进行人机交互时,首先确定当前所处的应用场景,然后采用该应用场景下的语义对用户输入的信息进行语义分析,最后根据该语义分析的结果生成答复操作。由于进行语义分析时考虑了当前所处的应用场景,能够识别同一语音信息在不同应用场景下的不同含义,从而能够得到准确的语义分析结果,最终使得用户在各个应用场景下均能获得期望的答复,极大地提高了用户体验。
请参阅图2,本发明实施例中一种人机交互方法的第二个实施例包括:
201、获取用户输入的语音信息;
202、对所述语音信息进行识别,得到目标文本信息;
步骤201至202与步骤101至102相同,具体可参照步骤101至102的相关说明。
203、将所述目标文本信息分别和各个目标语句进行匹配,得到各个所述目标语句的匹配度;
在本实施例中,每个自定义应用场景的语义可以通过以下步骤预先设置:
(1)构建与所述自定义应用场景相关的目标语句;
(2)对所述目标语句进行NLP分析,得到NLP分析的结果;
(3)根据NLP分析的结果分别设置每条目标语句对应的属性信息,所述属性信息用于表征每条目标语句在对应的自定义应用场景下的语义。
对于上述步骤(1),所述目标语句是与自定义应用场景相关的语句,可以是各个自定义应用场景中的常用语句,比如对于拍照场景,目标语句可以包括:“我想拍照”,“我准备好拍照了”,“调整角度”以及“将照片发给我”等等。
对于上述步骤(2)和(3),对目标语句进行NLP(即自然语言处理)分析,然后根据NLP分析的结果分别设置每条目标语句对应的属性信息,所述属性信息用于表征每条目标语句在对应的自定义应用场景下的语义。比如对于目标语句“我想拍照”,其对应的自定义应用场景为拍照场景,其属性信息可以包括语句的意图、语句原型以及语句的备注说明等信息。在形式上具体可以表示为:目标语句“我想拍照”,对应的属性信息为domain:photo,intent:start,slots:拍照。其中,domain表示对应的应用场景,intent表示语句意图(start表示语句意图为进入自定义应用场景),slots表示语句原型。
步骤203将所述目标文本信息分别和预设的各个目标语句进行匹配,得到各个所述目标语句的匹配度,进行语句匹配的目的是为了确定与目标文本信息的语义最为接近的目标语句(所述匹配度最高的目标语句)。
204、当当前所处的应用场景为初始应用场景时,若所述目标文本信息中包含用于进入自定义应用场景的第一关键词,则将当前所处的应用场景切换为所述第一关键词对应的自定义应用场景;
当当前所处的应用场景为初始应用场景时,若所述目标文本信息中包含用于进入自定义应用场景的第一关键词,则将当前所处的应用场景切换为所述第一关键词对应的自定义应用场景。比如,若所述目标文本信息中包含“拍照”关键词,则将当前所处的应用场景切换为拍照场景;若所述目标文本信息中包含“瑜伽”关键词,则将当前所处的应用场景切换为瑜伽场景。
为了提高场景切换的准确性,可以利用步骤203的语句匹配结果。具体的,可以利用所述匹配度最高的目标语句所对应的语句意图,若该语句意图为进入自定义应用场景,则判定所述目标文本信息中包含第一关键词,从而准确地进行应用场景的切换。
205、当当前所处的应用场景为自定义应用场景时,若所述目标文本信息中包含用于退出自定义应用场景的第二关键词,则将当前所处的应用场景切换为初始应用场景;
当当前所处的应用场景为自定义应用场景时,若所述目标文本信息中包含用于退出自定义应用场景的第二关键词,则将当前所处的应用场景切换为初始应用场景。比如,若所述目标文本信息中包含“退出”关键词,则将当前所处的应用场景切换为初始应用场景。
为了提高场景切换的准确性,同样可以利用步骤203的语句匹配结果。具体的,可以利用所述匹配度最高的目标语句所对应的语句意图,若该语句意图为退出自定义应用场景,则判定所述目标文本信息中包含第二关键词,从而准确地进行应用场景的切换。
根据步骤204至205可以看出,应用场景之间的切换通过目标文本信息中用于进入或退出应用场景的关键词实现,当进入某个自定义应用场景后,除非检测到用户输入的语音信息中包含退出应用场景的关键词,否则一直处于该自定义应用场景中。
206、采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;
在步骤206中,可以利用步骤203得到的所述匹配度最高的目标语句的属性信息获得语义分析结果。
207、根据所述语义分析结果生成答复操作;
在得到语义分析结果后,根据所述语义分析结果生成答复操作。
进一步的,若当前所处的应用场景为自定义应用场景,则步骤207可以包括:
(1)获取所述匹配度最高的目标语句对应的属性信息;
(2)根据获取到的属性信息确定当前成立的执行条件;
(3)输出所述执行条件对应的答复操作。
对于上述步骤(1)至(3),预先设置每个自定义应用场景下的控制逻辑程序,在控制逻辑程序中目标语句的属性信息可作为已知的输入参数,根据这些输入参数可以确定当前成立的执行条件(比如程序中的某个条件判断语句),最后输出所述执行条件对应的答复操作(即该条件判断语句成立时执行的操作)。
208、控制机器人执行所述答复操作,以向所述用户反馈答复信息。
步骤208与步骤106相同,具体可参照步骤106的相关说明。
本发明实施例的一个实际应用场景如下:
1.用户说“我想拍照”,从初始应用场景进入拍照场景。
2.机器人按照自定义的控制逻辑进行反馈,例如:“准备好了,请说开始,想要退出请说退出”。
3.用户若认为拍照角度不好,可以说:“调整角度”。由于目前是在拍照的应用场景下,机器人能够获知“调整角度”是指调整摄像头的角度,而非调整机器人的站立角度或其他角度。
4.接下来用户可以说:“请发送照片给我”,机器人就会发送上面拍摄的照片给用户,而非普通的对话闲聊。
5.用户说退出,则退出拍照场景。
在本发明实施例中,获取用户输入的语音信息;对所述语音信息进行识别,得到目标文本信息;将所述目标文本信息分别和各个目标语句进行匹配,得到各个所述目标语句的匹配度;当当前所处的应用场景为初始应用场景时,若所述目标文本信息中包含用于进入自定义应用场景的第一关键词,则将当前所处的应用场景切换为所述第一关键词对应的自定义应用场景;当当前所处的应用场景为自定义应用场景时,若所述目标文本信息中包含用于退出自定义应用场景的第二关键词,则将当前所处的应用场景切换为初始应用场景;采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;根据所述语义分析结果生成答复操作;控制机器人执行所述答复操作,以向所述用户反馈答复信息。由于进行语义分析时考虑了当前所处的应用场景,能够识别同一语音信息在不同应用场景下的不同含义,从而能够得到准确的语义分析结果,最终使得用户在各个应用场景下均能获得期望的答复,极大地提高了用户体验。
应理解,上述各个实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
上面主要描述了一种人机交互方法,下面将对一种人机交互装置进行描述。
请参阅图3,本发明实施例中一种人机交互装置的一个实施例包括:
语音获取模块301,用于获取用户输入的语音信息;
语音识别模块302,用于对所述语音信息进行识别,得到目标文本信息;
应用场景确定模块303,用于根据所述目标文本信息确定当前所处的应用场景;
语义分析模块304,用于采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;
答复操作生成模块305,用于根据所述语义分析结果生成答复操作;
控制模块306,用于控制机器人执行所述答复操作,以向所述用户反馈答复信息。
进一步的,所述应用场景确定模块303可以包括:
第一场景切换单元,用于当当前所处的应用场景为初始应用场景时,若所述目标文本信息中包含用于进入自定义应用场景的第一关键词,则将当前所处的应用场景切换为所述第一关键词对应的自定义应用场景;
第二场景切换单元,用于当当前所处的应用场景为自定义应用场景时,若所述目标文本信息中包含用于退出自定义应用场景的第二关键词,则将当前所处的应用场景切换为初始应用场景。
进一步的,所述人机交互装置还可以包括:
目标语句构建模块,用于构建与所述自定义应用场景相关的目标语句;
NLP分析模块,用于对所述目标语句进行NLP分析,得到NLP分析的结果;
属性信息设置模块,用于根据NLP分析的结果分别设置每条目标语句对应的属性信息,所述属性信息用于表征每条目标语句在对应的自定义应用场景下的语义。
本发明实施例还提供一种服务器,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现如图1或图2表示的任意一种人机交互方法的步骤。
本发明实施例还提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如图1或图2表示的任意一种人机交互方法的步骤。
图4是本发明一实施例提供的服务器的示意图。如图4所示,该实施例的服务器4包括:处理器40、存储器41以及存储在所述存储器41中并可在所述处理器40上运行的计算机程序42。所述处理器40执行所述计算机程序42时实现上述各个人机交互方法的实施例中的步骤,例如图1所示的步骤101至106。或者,所述处理器40执行所述计算机程序42时实现上述各装置实施例中各模块/单元的功能,例如图3所示模块301至306的功能。
所述计算机程序42可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器41中,并由所述处理器40执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序42在所述服务器4中的执行过程。
所述服务器4可以是各种类型的手机、桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述服务器可包括,但不仅限于,处理器40、存储器41。本领域技术人员可以理解,图4仅仅是服务器4的示例,并不构成对服务器4的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述服务器4还可以包括输入输出设备、网络接入设备、总线等。
所称处理器40可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器41可以是所述服务器4的内部存储单元,例如服务器4的硬盘或内存。所述存储器41也可以是所述服务器4的外部存储设备,例如所述服务器4上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器41还可以既包括所述服务器4的内部存储单元也包括外部存储设备。所述存储器41用于存储所述计算机程序以及所述服务器所需的其他程序和数据。所述存储器41还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的系统实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。
Claims (6)
1.一种人机交互方法,其特征在于,包括:
获取用户输入的语音信息;
对所述语音信息进行识别,得到目标文本信息;
根据所述目标文本信息确定当前所处的应用场景,所述应用场景包括初始应用场景和自定义应用场景;如果当前处于自定义应用场景,则根据所述目标文本信息选择停留在当前所处的自定义应用场景、切换至初始应用场景或切换至另一个自定义应用场景;
采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;
根据所述语义分析结果生成答复操作;
控制机器人执行所述答复操作,以向所述用户反馈答复信息;
所述根据所述目标文本信息确定当前所处的应用场景包括:
当当前所处的应用场景为初始应用场景时,若所述目标文本信息中包含用于进入自定义应用场景的第一关键词,则将当前所处的应用场景切换为所述第一关键词对应的自定义应用场景;
当当前所处的应用场景为自定义应用场景时,若所述目标文本信息中包含用于退出自定义应用场景的第二关键词,则将当前所处的应用场景切换为初始应用场景;
所述自定义应用场景的语义通过以下步骤预先设置:
构建与所述自定义应用场景相关的目标语句;
对所述目标语句进行NLP分析,得到NLP分析的结果;
根据NLP分析的结果分别设置每条目标语句对应的属性信息,所述属性信息用于表征每条目标语句在对应的自定义应用场景下的语义。
2.如权利要求1所述的人机交互方法,其特征在于,所述属性信息包括语句意图,所述语句意图包括进入自定义应用场景和退出自定义应用场景,在得到目标文本信息之后,所述人机交互方法还包括:
将所述目标文本信息分别和各个所述目标语句进行匹配,得到各个所述目标语句的匹配度;
若所述匹配度最高的目标语句对应的语句意图为进入自定义应用场景,则判定所述目标文本信息中包含所述第一关键词;
若所述匹配度最高的目标语句对应的语句意图为退出自定义应用场景,则判定所述目标文本信息中包含所述第二关键词。
3.如权利要求2所述的人机交互方法,其特征在于,若当前所处的应用场景为自定义应用场景,则所述根据所述语义分析结果生成答复操作包括:
获取所述匹配度最高的目标语句对应的属性信息;
根据获取到的属性信息确定当前成立的执行条件;
输出所述执行条件对应的答复操作。
4.一种人机交互装置,其特征在于,包括:
语音获取模块,用于获取用户输入的语音信息;
语音识别模块,用于对所述语音信息进行识别,得到目标文本信息;
应用场景确定模块,用于根据所述目标文本信息确定当前所处的应用场景,所述应用场景包括初始应用场景和自定义应用场景;如果当前处于自定义应用场景,则根据所述目标文本信息选择停留在当前所处的自定义应用场景、切换至初始应用场景或切换至另一个自定义应用场景;
语义分析模块,用于采用当前所处的应用场景的语义对所述目标文本信息进行分析,得到语义分析结果;
答复操作生成模块,用于根据所述语义分析结果生成答复操作;
控制模块,用于控制机器人执行所述答复操作,以向所述用户反馈答复信息;
所述应用场景确定模块包括:
第一场景切换单元,用于当当前所处的应用场景为初始应用场景时,若所述目标文本信息中包含用于进入自定义应用场景的第一关键词,则将当前所处的应用场景切换为所述第一关键词对应的自定义应用场景;
第二场景切换单元,用于当当前所处的应用场景为自定义应用场景时,若所述目标文本信息中包含用于退出自定义应用场景的第二关键词,则将当前所处的应用场景切换为初始应用场景;
目标语句构建模块,用于构建与所述自定义应用场景相关的目标语句;
NLP分析模块,用于对所述目标语句进行NLP分析,得到NLP分析的结果;
属性信息设置模块,用于根据NLP分析的结果分别设置每条目标语句对应的属性信息,所述属性信息用于表征每条目标语句在对应的自定义应用场景下的语义。
5.一种服务器,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3中任一项所述的人机交互方法的步骤。
6.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至3中任一项所述的人机交互方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711404405.1A CN109961780B (zh) | 2017-12-22 | 2017-12-22 | 一种人机交互方法、装置、服务器和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711404405.1A CN109961780B (zh) | 2017-12-22 | 2017-12-22 | 一种人机交互方法、装置、服务器和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109961780A CN109961780A (zh) | 2019-07-02 |
CN109961780B true CN109961780B (zh) | 2024-02-02 |
Family
ID=67019273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711404405.1A Active CN109961780B (zh) | 2017-12-22 | 2017-12-22 | 一种人机交互方法、装置、服务器和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109961780B (zh) |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110581772B (zh) * | 2019-09-06 | 2020-10-13 | 腾讯科技(深圳)有限公司 | 即时通讯消息的交互方法、装置以及计算机可读存储介质 |
CN110781359A (zh) * | 2019-09-25 | 2020-02-11 | 北京爱接力科技发展有限公司 | 一种基于多平台的交互信息决策方法、装置和机器人 |
CN111785265A (zh) * | 2019-11-26 | 2020-10-16 | 北京沃东天骏信息技术有限公司 | 智能音箱设置方法和装置、控制方法和装置、智能音箱 |
CN111128185B (zh) * | 2019-12-25 | 2022-10-21 | 北京声智科技有限公司 | 一种语音转文字的方法、装置、终端及存储介质 |
CN111179572A (zh) * | 2019-12-31 | 2020-05-19 | 四川声达创新科技有限公司 | 一种引导式智能语音系统 |
CN111563029A (zh) * | 2020-03-13 | 2020-08-21 | 深圳市奥拓电子股份有限公司 | 对话机器人的测试方法、系统、存储介质及计算机设备 |
CN111429907B (zh) * | 2020-03-25 | 2023-10-20 | 北京百度网讯科技有限公司 | 语音服务模式切换方法、装置、设备及存储介质 |
CN111710336B (zh) * | 2020-06-05 | 2023-05-26 | 平安科技(深圳)有限公司 | 语音的意图识别方法、装置、计算机设备及存储介质 |
CN111967334B (zh) * | 2020-07-20 | 2023-04-07 | 中国人民解放军军事科学院国防科技创新研究院 | 一种人体意图识别方法、系统以及存储介质 |
CN112182350A (zh) * | 2020-09-27 | 2021-01-05 | 中国建设银行股份有限公司 | 基于内容库的交互方法、装置、服务器及存储介质 |
CN112163078B (zh) * | 2020-09-29 | 2024-06-07 | 彩讯科技股份有限公司 | 智能应答方法、装置、服务器及存储介质 |
CN112259094A (zh) * | 2020-10-20 | 2021-01-22 | 江苏峰鑫网络科技有限公司 | 一种语音客服机器人系统 |
CN112397061B (zh) * | 2020-11-04 | 2023-10-27 | 中国平安人寿保险股份有限公司 | 线上互动方法、装置、设备和存储介质 |
CN112420049A (zh) * | 2020-11-06 | 2021-02-26 | 平安消费金融有限公司 | 数据处理方法、装置及存储介质 |
CN112669840A (zh) * | 2020-12-17 | 2021-04-16 | 北京梧桐车联科技有限责任公司 | 一种语音处理方法、装置、设备及存储介质 |
CN112908304B (zh) * | 2021-01-29 | 2024-03-26 | 深圳通联金融网络科技服务有限公司 | 一种提高语音识别精准性的方法和装置 |
CN113035200B (zh) * | 2021-03-03 | 2022-08-05 | 科大讯飞股份有限公司 | 基于人机交互场景的语音识别纠错方法、装置以及设备 |
CN113190663A (zh) * | 2021-04-22 | 2021-07-30 | 宁波弘泰水利信息科技有限公司 | 应用于水利场景的智能交互方法、装置、存储介质及计算机设备 |
CN113516986A (zh) * | 2021-07-23 | 2021-10-19 | 上海传英信息技术有限公司 | 语音处理方法、终端及存储介质 |
CN114785842B (zh) * | 2022-06-22 | 2022-08-30 | 北京云迹科技股份有限公司 | 基于语音交换系统的机器人调度方法、装置、设备及介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106406806A (zh) * | 2016-09-19 | 2017-02-15 | 北京智能管家科技有限公司 | 一种用于智能设备的控制方法及装置 |
CN106782538A (zh) * | 2016-12-29 | 2017-05-31 | 广州视声智能科技有限公司 | 一种语音识别控制系统及方法 |
CN107170446A (zh) * | 2017-05-19 | 2017-09-15 | 深圳市优必选科技有限公司 | 语义处理服务器及用于语义处理的方法 |
CN107195301A (zh) * | 2017-05-19 | 2017-09-22 | 深圳市优必选科技有限公司 | 智能机器人语义处理的方法及装置 |
CN107357787A (zh) * | 2017-07-26 | 2017-11-17 | 微鲸科技有限公司 | 语义交互方法、装置及电子设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11397462B2 (en) * | 2012-09-28 | 2022-07-26 | Sri International | Real-time human-machine collaboration using big data driven augmented reality technologies |
-
2017
- 2017-12-22 CN CN201711404405.1A patent/CN109961780B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106406806A (zh) * | 2016-09-19 | 2017-02-15 | 北京智能管家科技有限公司 | 一种用于智能设备的控制方法及装置 |
CN106782538A (zh) * | 2016-12-29 | 2017-05-31 | 广州视声智能科技有限公司 | 一种语音识别控制系统及方法 |
CN107170446A (zh) * | 2017-05-19 | 2017-09-15 | 深圳市优必选科技有限公司 | 语义处理服务器及用于语义处理的方法 |
CN107195301A (zh) * | 2017-05-19 | 2017-09-22 | 深圳市优必选科技有限公司 | 智能机器人语义处理的方法及装置 |
CN107357787A (zh) * | 2017-07-26 | 2017-11-17 | 微鲸科技有限公司 | 语义交互方法、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN109961780A (zh) | 2019-07-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109961780B (zh) | 一种人机交互方法、装置、服务器和存储介质 | |
KR101796401B1 (ko) | 이미지 장면 판정 방법, 장치 및 서버 | |
WO2017185630A1 (zh) | 基于情绪识别的信息推荐方法、装置和电子设备 | |
JP2019535055A (ja) | ジェスチャに基づく操作の実施 | |
EP3168756B1 (en) | Techniques for distributed optical character recognition and distributed machine language translation | |
KR102077198B1 (ko) | 얼굴 검증 방법 및 전자 디바이스 | |
US20150310290A1 (en) | Techniques for distributed optical character recognition and distributed machine language translation | |
CN111209970A (zh) | 视频分类方法、装置、存储介质及服务器 | |
CN110399488B (zh) | 文本分类方法及装置 | |
CN110890088A (zh) | 语音信息反馈方法、装置、计算机设备和存储介质 | |
CN112434556A (zh) | 宠物鼻纹识别方法、装置、计算机设备及存储介质 | |
US20200176019A1 (en) | Method and system for recognizing emotion during call and utilizing recognized emotion | |
CN112532885B (zh) | 防抖方法、装置及电子设备 | |
CN111818385B (zh) | 视频处理方法、视频处理装置及终端设备 | |
CN109947971A (zh) | 图像检索方法、装置、电子设备及存储介质 | |
CN112330534A (zh) | 动物脸风格图像生成方法、模型训练方法、装置和设备 | |
KR102440198B1 (ko) | 시각 검색 방법, 장치, 컴퓨터 기기 및 저장 매체 (video search method and apparatus, computer device, and storage medium) | |
CN112400147A (zh) | 算法配置方法、设备、系统及可移动平台 | |
CN111680514A (zh) | 信息处理和模型训练方法、装置、设备及存储介质 | |
CN111767710B (zh) | 印尼语的情感分类方法、装置、设备及介质 | |
CN110874567B (zh) | 颜值判定方法、装置、电子设备及存储介质 | |
CN111626398B (zh) | 运算方法、装置及相关产品 | |
CN113127058A (zh) | 数据标注方法、相关装置及计算机程序产品 | |
CN111178234A (zh) | 一种图像识别方法、电子设备及存储介质 | |
CN109064416B (zh) | 图像处理方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |