CN110970017A - 人机交互方法及系统、计算机系统 - Google Patents
人机交互方法及系统、计算机系统 Download PDFInfo
- Publication number
- CN110970017A CN110970017A CN201811135742.XA CN201811135742A CN110970017A CN 110970017 A CN110970017 A CN 110970017A CN 201811135742 A CN201811135742 A CN 201811135742A CN 110970017 A CN110970017 A CN 110970017A
- Authority
- CN
- China
- Prior art keywords
- voice information
- user
- voice
- determining
- human
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000003993 interaction Effects 0.000 title claims abstract description 117
- 238000000034 method Methods 0.000 title claims abstract description 61
- 230000002996 emotional effect Effects 0.000 claims abstract description 54
- 230000008451 emotion Effects 0.000 claims description 31
- 238000001228 spectrum Methods 0.000 claims description 13
- 230000015654 memory Effects 0.000 claims description 11
- 230000005540 biological transmission Effects 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 4
- 238000006243 chemical reaction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 238000004590 computer program Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000004806 packaging method and process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000000758 substrate Substances 0.000 description 2
- 230000001960 triggered effect Effects 0.000 description 2
- 108010001267 Protein Subunits Proteins 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开提供了一种人机交互方法,应用于包含语音交互系统和人工干预系统的电子设备,该方法包括:语音交互系统实时接收用户输入的语音信息,其中,语音交互系统用于根据语音信息向用户提供服务;向人工干预系统传输语音信息,并在人工干预系统接收到语音信息的情况下,人工干预系统对语音信息进行分析,确定语音信息所表征的情绪特征;根据语音信息所表征的情绪特征确定是否需要向用户提供人工服务;以及在确定需要向用户提供人工服务的情况下,向用户提供人工服务,以代替语音交互系统向用户提供服务。本公开还提供了一种人机交互系统、一种计算机系统和一种计算机可读存储介质。
Description
技术领域
本公开涉及互联网技术领域,更具体地,涉及一种人机交互方法和人机交互系统、计算机系统和计算机可读存储介质。
背景技术
基于语音识别技术的人机交互在客户服务应用方面越来越广泛,用户通过说出自己的需求,系统可以对用户的语音加以分析,并给出相应的结果。这种方式相对于传统播报语音菜单让用户进行选择来说,用户从被动选择到主动提出需求,改善了用户体验。但是,现有的语音识别技术虽然识别率在不断提高,但对语音进行分析之后,有时还是会识别不出用户的意图,给出的结果不能解决用户的问题,导致需要用户重新输入,或者直接要求用户重新进行语音输入,导致过程重复。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:
基于语音识别技术的人机交互过程中,当不能识别出用户的真实意图时,难以有效的处理用户所提出的需求,导致用户体验差。
发明内容
有鉴于此,本公开提供了一种人机交互方法和人机交互系统、计算机系统和计算机可读存储介质。
本公开的一个方面提供了一种人机交互方法,应用于包含语音交互系统和人工干预系统的电子设备,上述方法包括:上述语音交互系统实时接收用户输入的语音信息,其中,上述语音交互系统用于根据上述语音信息向上述用户提供服务;向上述人工干预系统传输上述语音信息,并在上述人工干预系统接收到上述语音信息的情况下,上述人工干预系统对上述语音信息进行分析,确定上述语音信息所表征的情绪特征;根据上述语音信息所表征的情绪特征确定是否需要向上述用户提供人工服务;以及在确定需要向上述用户提供人工服务的情况下,向上述用户提供人工服务,以代替上述语音交互系统向上述用户提供服务。
根据本公开的实施例,上述方法还包括在向上述人工干预系统传输上述语音信息之前,上述语音交互系统根据上述语音信息判断是否能够向上述用户提供服务;以及在判断不能向上述用户提供服务的情况下,向上述人工干预系统传输上述语音信息。
根据本公开的实施例,上述人工干预系统对上述语音信息进行分析,确定上述语音信息所表征的情绪特征包括:对上述语音信息进行采样,确定上述语音信息的频谱;确定上述频谱中的波峰的曲率;以及根据上述波峰的曲率确定上述语音信息所表征的情绪特征。
根据本公开的实施例,上述人工干预系统对上述语音信息进行分析,确定上述语音信息所表征的情绪特征还包括:将上述语音信息转换为文本信息;确定上述文本信息中所包含的用于表征情绪的情感词;以及根据上述情感词和上述波峰的曲率确定上述语音信息所表征的情绪特征。
根据本公开的实施例,向上述人工干预系统传输上述语音信息包括:在上述语音交互系统实时接收到用户输入的语音信息的情况下,上述语音交互系统实时向上述人工干预系统传输上述语音信息。
本公开的另一个方面提供了一种人机交互系统,包括语音交互系统和人工干预系统,其中,上述语音交互系统包括接收模块和传输模块。接收模块用于实时接收用户输入的语音信息,其中,上述语音交互系统用于根据上述语音信息向上述用户提供服务;传输模块用于向上述人工干预系统传输上述语音信息;上述人工干预系统包括第一确定模块、第二确定模块和转接模块。第一确定模块用于在接收到上述语音信息的情况下,对上述语音信息进行分析,确定上述语音信息所表征的情绪特征;第二确定模块用于根据上述语音信息所表征的情绪特征确定是否需要向上述用户提供人工服务;以及转接模块用于在确定需要向上述用户提供人工服务的情况下,向上述用户提供人工服务,以代替上述语音交互系统向上述用户提供服务。
根据本公开的实施例,上述语音交互系统还包括判断模块,用于在向上述人工干预系统传输上述语音信息之前,根据上述语音信息判断是否能够向上述用户提供服务;以及上述传输模块,还用于在判断不能向上述用户提供服务的情况下,向上述人工干预系统传输上述语音信息。
根据本公开的实施例,上述第一确定模块包括第一确定单元、第二确定单元和第三确定单元。第一确定单元用于对上述语音信息进行采样,确定上述语音信息的频谱;第二确定单元用于确定上述频谱中的波峰的曲率;以及第三确定单元用于根据上述波峰的曲率确定上述语音信息所表征的情绪特征。
根据本公开的实施例,上述第一确定模块还包括转化单元、第四确定单元和第五确定单元。转化单元用于将上述语音信息转换为文本信息;第四确定单元用于确定上述文本信息中所包含的用于表征情绪的情感词;以及第五确定单元用于根据上述情感词和上述波峰的曲率确定上述语音信息所表征的情绪特征。
根据本公开的实施例,上述传输模块还用于在上述语音交互系统实时接收到用户输入的语音信息的情况下,实时向上述人工干预系统传输上述语音信息。
本公开的另一个方面提供了一种计算机系统,包括一个或多个处理器;存储器,用于存储一个或多个程序,其中,当上述一个或多个程序被上述一个或多个处理器执行时,使得上述一个或多个处理器实现如上所述的人机交互方法。
本公开的另一个方面提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现如上所述的人机交互方法。
本公开的另一方面提供了一种计算机程序,上述计算机程序包括计算机可执行指令,上述指令在被执行时用于实现如上所述的人机交互方法。
根据本公开的实施例,因为采用了通过人工干预系统分析用户的情绪特征,根据情绪特征确定是否提供人工服务,其中,语音交互系统和人工干预系统相互独立的技术手段,所以至少部分地克服了基于语音识别技术的人机交互过程中,当不能识别出用户的真实意图时,难以有效的处理用户所提出的需求,导致用户体验差的技术问题,将语音交互系统和人工干预系统分离开,可以使得人工干预系统独立安装在任何一个具有语音交互系统的设备中,提高了人工干预系统的可用性,进而达到了提高用户体验的技术效果。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的可以应用人机交互方法及系统的示例性系统架构;
图2示意性示出了根据本公开实施例的人机交互方法的流程图;
图3示意性示出了根据本公开实施例的交互连接的示意图;
图4示意性示出了根据本公开另一实施例的人机交互方法的流程图;
图5示意性示出了根据本公开实施例的确定语音信息所表征的情绪特征的流程图;
图6示意性示出了根据本公开另一实施例的确定语音信息所表征的情绪特征的流程图;
图7示意性示出了根据本公开实施例的人机交互系统的框图;
图8示意性示出了根据本公开实施例的语音交互系统的框图;
图9示意性示出了根据本公开实施例的第一确定模块的框图;
图10示意性示出了根据本公开实施例的第一确定模块的框图;以及
图11示意性示出了根据本公开实施例的适于实现上文描述的方法的计算机系统的框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。在本公开的实施例中,涉及到的术语包括IVR:Interactive Voice Response即互动式语音应答。ASR:英文的全称是AutomatedSpeech Recognition,即自动语音识别技术,它是一种将人的语音转换为文本的技术。NLP:神经语言程序学(Neuro-Linguistic Programming)的英文缩写。RTP:实时传输协议RTP(Real-time Transport Protocol)。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。在使用类似于“A、B或C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B或C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。本领域技术人员还应理解,实质上任意表示两个或更多可选项目的转折连词和/或短语,无论是在说明书、权利要求书还是附图中,都应被理解为给出了包括这些项目之一、这些项目任一方、或两个项目的可能性。例如,短语“A或B”应当被理解为包括“A”或“B”、或“A和B”的可能性。
本公开的实施例提供了一种人机交互方法及系统,应用于包含语音交互系统和人工干预系统的电子设备,该方法包括:语音交互系统实时接收用户输入的语音信息,其中,语音交互系统用于根据语音信息向用户提供服务;向人工干预系统传输语音信息,并在人工干预系统接收到语音信息的情况下,人工干预系统对语音信息进行分析,确定语音信息所表征的情绪特征;根据语音信息所表征的情绪特征确定是否需要向用户提供人工服务;以及在确定需要向用户提供人工服务的情况下,向用户提供人工服务,以代替语音交互系统向用户提供服务。
图1示意性示出了根据本公开实施例的可以应用人机交互方法及系统的示例性系统架构。需要注意的是,图1所示仅为可以应用本公开实施例的系统架构的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的系统架构100可以包括终端101,网关102,电子设备103和坐席区104。
用户可以使用终端101基于PSTN网络和SIP/RTP网络通过网关102与电子设备103交互,以接收或发送语音消息等。终端设备101上可以安装有各种通讯客户端应用,例如即时通信工具、拨号客户端和/或社交平台软件等(仅为示例)。
终端101可以是支持语音通信的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
电子设备103可以是提供各种服务的设备,电子设备103包含语音交互系统和人工干预系统,例如可以是对用户请求售后服务所提供支持的后台管理服务器(仅为示例),后台管理服务器可以对接收到的用户请求等数据进行分析处理,并将处理结果反馈给终端101。
例如,用户通过终端101与电子设备103进行语音交互,语音交互系统实时接收到用户输入的语音信息,并将语音信息向人工干预系统传输,在人工干预系统的控制模块接收到语音信息的情况下,人工干预系统中的情感分析模块对语音信息进行分析,确定语音信息所表征的情绪特征,如果情绪特征为不满的生气情绪,则确定需要向用户提供人工服务,通过坐席104与终端101连接,向用户提供人工服务,以代替语音交互系统向用户提供服务。例如,SIP控制模块在收到人工干预事件后会向坐席104发出会话申请,通道建立后与原有用户会话通道桥接,通话建立。
需要说明的是,本公开实施例所提供的人机交互方法一般可以由电子设备103执行。相应地,本公开实施例所提供的人机交互系统一般可以设置于电子设备103中。本公开实施例所提供的人机交互方法也可以由不同于电子设备103且能够与终端设备101和/或电子设备103通信的其它电子设备或集群执行。相应地,本公开实施例所提供的人机交互系统也可以设置于不同于电子设备103且能够与终端设备101和/或电子设备103通信的其它电子设备或集群中。
应该理解,图1中的终端、网络和电子设备,坐席的数目仅仅是示意性的,根据实现需要,可以具有任意数目。
图2示意性示出了根据本公开实施例的人机交互方法的流程图。
该方法应用于包含语音交互系统和人工干预系统的电子设备,如图2所示,该方法包括操作S210~S240。
在操作S210,语音交互系统实时接收用户输入的语音信息,其中,语音交互系统用于根据语音信息向用户提供服务。
根据本公开的实施例,用户可以通过终端设备与包含语音交互系统和人工干预系统的电子设备建立通信连接。例如,图3示意性示出了根据本公开实施例的交互连接的示意图。用户使用终端设备通过网络协议与语音交互系统建立通信连接,语音交互系统和人工干预系统也通过网络协议建立通信连接。
在语音交互系统实时接收用户输入的语音信息的情况下,一般情况下,可以由语音交互系统对语音信息进行分析处理,确定用户的需求,根据用户的需求从而向用户提供服务。但是,语音交互系统有时还是会识别不出用户的需求,语音交互系统给出的处理结果不能解决用户的问题,导致用户需要重新输入语音信息,或者直接要求用户重新进行语音输入,导致过程重复。
在操作S220,向人工干预系统传输语音信息,并在人工干预系统接收到语音信息的情况下,人工干预系统对语音信息进行分析,确定语音信息所表征的情绪特征。
根据本公开的实施例,在用户输入语音之后,对语音信息的内容和语调进行分析,如果发现用户不满意或者出现负面情绪的时候可以人工及时介入,处理用户问题。以提高用户的体验。
根据本公开的实施例,在语音交互系统实时接收到用户输入的语音信息的情况下,语音交互系统可以实时向人工干预系统传输语音信息。根据本公开的实施例,如图3所示,用户呼入到语音交互平台,语音交互系统与用户建立会话成功,语音交互系统与人工干预系统建立会话,同时将RTP数据流转发给人工干预系统,人工干预系统接受RTP数据流,并开始分析。
通过本公开的实施例,由于实时向人工干预系统传输语音信息,可以在人机对话中实时检测情绪,减少用户不满意的次数,提高用户体验。
在操作S230,根据语音信息所表征的情绪特征确定是否需要向用户提供人工服务。
在操作S240,在确定需要向用户提供人工服务的情况下,向用户提供人工服务,以代替语音交互系统向用户提供服务。
根据本公开的实施例,参考图1,人工干预系统可以通知坐席与相应的用户建立通信连接,从而向用户提供人工服务。
根据本公开的实施例,因为采用了通过人工干预系统分析用户的情绪特征,根据情绪特征确定是否提供人工服务,其中,语音交互系统和人工干预系统相互独立的技术手段,所以至少部分地克服了基于语音识别技术的人机交互过程中,当不能识别出用户的真实意图时,难以有效的处理用户所提出的需求,导致用户体验差的技术问题,将语音交互系统和人工干预系统分离开,可以使得人工干预系统独立安装在任何一个具有语音交互系统的设备中,提高了人工干预系统的可用性,进而达到了提高用户体验的技术效果。
下面参考图4~图6,结合具体实施例对图2所示的方法做进一步说明。
图4示意性示出了根据本公开另一实施例的人机交互方法的流程图。
如图4所示,该方法包括操作S250~S260。
在操作S250,在向人工干预系统传输语音信息之前,语音交互系统根据语音信息判断是否能够向用户提供服务。
根据本公开的实施例,由语音交互系统对语音信息进行分析处理,确定用户的需求,根据用户的需求确定是否能够向用户提供服务。语音交互系统有时识别不出用户的需求,语音交互系统给出的处理结果不能解决用户的问题的情况下,则判断不能够向用户提供服务。
在操作S260,在判断不能向用户提供服务的情况下,向人工干预系统传输语音信息。
通过本公开的实施例,在向人工干预系统传输语音信息之前,先由语音交互系统对语音信息进行分析处理,只有在语音信息不能够向用户提供服务的情况下,将语音信息传输给人工干预系统,可以减少人工干预的次数,提高处理效率。
图5示意性示出了根据本公开实施例的确定语音信息所表征的情绪特征的流程图。
如图5所示,人工干预系统对语音信息进行分析,确定语音信息所表征的情绪特征包括操作S221~S223。
在操作S221,对语音信息进行采样,确定语音信息的频谱。
在操作S222,确定频谱中的波峰的曲率。
在操作S223,根据波峰的曲率确定语音信息所表征的情绪特征。
根据本公开的实施例,语音信息可以是RTP数据流的形式,人工干预系统接收到RTP数据流形式的语音信息之后,对RTP数据流进行采样,计算得到语音信息的频谱,分析波峰的曲率,如果曲率过高则说明用户语调变化快,反应出用户情绪波动,用户可能就着急生气。
通过本公开的实施例,分析波峰的曲率变化,如果曲率过高则说明用户语调变化快,反应出用户情绪波动较大,可以达到较准确的识别用户情绪。
根据本公开的实施例,如果曲率达到阀值,也可以直接触发人工干预事件,进行人工服务。
图6示意性示出了根据本公开另一实施例的确定语音信息所表征的情绪特征的流程图。
如图6所示,人工干预系统对语音信息进行分析,确定语音信息所表征的情绪特征还包括操作S224~S226。
在操作S224,将语音信息转换为文本信息。
在操作S225,确定文本信息中所包含的用于表征情绪的情感词。
在操作S226,根据情感词和波峰的曲率确定语音信息所表征的情绪特征。
根据本公开的实施例,可以采用ASR技术将语音转换为文字,利用NLP技术对上下文进行情感分析,确定表征情绪的情感词。
根据本公开的实施例,也可以对情感分析结果进行逻辑判断,如果符合人工干预条件,直接触发人工干预事件,进行人工服务。
通过本公开的实施例,将语音信息转换为文本信息,判断文本中是否包含情感词,将语调和语义分析进行结合,达到了对用户情绪的有效分析,提供了一种语调和语义结合的情感分析机制。
图7示意性示出了根据本公开实施例的人机交互系统的框图。
如图7所示,人机交互系统300包括语音交互系统400和人工干预系统500。
语音交互系统400包括接收模块410和传输模块420。接收模块410用于实时接收用户输入的语音信息,其中,语音交互系统400用于根据语音信息向用户提供服务;传输模块420用于向人工干预系统传输语音信息。
人工干预系统500包括第一确定模块510、第二确定模块520和转接模块530。第一确定模块510用于在接收到语音信息的情况下,对语音信息进行分析,确定语音信息所表征的情绪特征;第二确定模块520用于根据语音信息所表征的情绪特征确定是否需要向用户提供人工服务;转接模块530用于在确定需要向用户提供人工服务的情况下,向用户提供人工服务,以代替语音交互系统400向用户提供服务。
根据本公开的实施例,因为采用了通过人工干预系统分析用户的情绪特征,根据情绪特征确定是否提供人工服务,其中,语音交互系统和人工干预系统相互独立的技术手段,所以至少部分地克服了基于语音识别技术的人机交互过程中,当不能识别出用户的真实意图时,难以有效的处理用户所提出的需求,导致用户体验差的技术问题,将语音交互系统和人工干预系统分离开,可以使得人工干预系统独立安装在任何一个具有语音交互系统的设备中,提高了人工干预系统的可用性,进而达到了提高用户体验的技术效果。
图8示意性示出了根据本公开实施例的语音交互系统的框图。
如图8所示,根据本公开的实施例,语音交互系统400还包括判断模块430。
判断模块430用于在向人工干预系统传输语音信息之前,根据语音信息判断是否能够向用户提供服务。
传输模块420还用于在判断不能向用户提供服务的情况下,向人工干预系统传输语音信息。
通过本公开的实施例,在向人工干预系统传输语音信息之前,先由语音交互系统对语音信息进行分析处理,只有在语音信息不能够向用户提供服务的情况下,将语音信息传输给人工干预系统,可以减少人工干预的次数,提高处理效率。
图9示意性示出了根据本公开实施例的第一确定模块的框图。
如图9所示,根据本公开的实施例,第一确定模块510包括第一确定单元511、第二确定单元512和第三确定单元513。
第一确定单元511用于对语音信息进行采样,确定语音信息的频谱。
第二确定单元512用于确定频谱中的波峰的曲率。
第三确定单元513用于根据波峰的曲率确定语音信息所表征的情绪特征。
通过本公开的实施例,分析波峰的曲率变化,如果曲率过高则说明用户语调变化快,反应出用户情绪波动较大,可以达到较准确的识别用户情绪。
图10示意性示出了根据本公开实施例的第一确定模块的框图。
如图10所示,根据本公开的实施例,第一确定模块510还包括转化单元514、第四确定单元515和第五确定单元516。
转化单元514用于将语音信息转换为文本信息。
第四确定单元515用于确定文本信息中所包含的用于表征情绪的情感词。
第五确定单元516用于根据情感词和波峰的曲率确定语音信息所表征的情绪特征。
通过本公开的实施例,将语音信息转换为文本信息,判断文本中是否包含情感词,将语调和语义分析进行结合,达到了对用户情绪的有效分析,提供了一种语调和语义结合的情感分析机制。
根据本公开的实施例,传输模块420还用于在语音交互系统400实时接收到用户输入的语音信息的情况下,实时向人工干预系统500传输语音信息。
通过本公开的实施例,由于实时向人工干预系统传输语音信息,可以在人机对话中实时检测情绪,减少用户不满意的次数,提高用户体验。
根据本公开的实施例的模块、子模块、单元、子单元中的任意多个、或其中任意多个的至少部分功能可以在一个模块中实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以被拆分成多个模块来实现。根据本公开实施例的模块、子模块、单元、子单元中的任意一个或多个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式的硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,根据本公开实施例的模块、子模块、单元、子单元中的一个或多个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
例如,接收模块410、传输模块420、判断模块430、第一确定模块510、第二确定模块520和转接模块530、第一确定单元511、第二确定单元512、第三确定单元513、转化单元514、第四确定单元515和第五确定单元516中的任意多个可以合并在一个模块/单元/子单元中实现,第一确定模块510、第二确定模块520和转接模块530中的任意多个可以合并在一个模块/单元/子单元中实现,或者其中的任意一个模块/单元/子单元可以被拆分成多个模块/单元/子单元。或者,这些模块/单元/子单元中的一个或多个模块/单元/子单元的至少部分功能可以与其他模块/单元/子单元的至少部分功能相结合,并在一个模块/单元/子单元中实现。根据本公开的实施例,接收模块410、传输模块420、判断模块430、第一确定模块510、第二确定模块520和转接模块530、第一确定单元511、第二确定单元512、第三确定单元513、转化单元514、第四确定单元515和第五确定单元516中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,接收模块410、传输模块420、判断模块430、第一确定模块510、第二确定模块520和转接模块530、第一确定单元511、第二确定单元512、第三确定单元513、转化单元514、第四确定单元515和第五确定单元516中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图11示意性示出了根据本公开实施例的适于实现上文描述的方法的计算机系统的框图。图11示出的计算机系统仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图11所示,根据本公开实施例的计算机系统600包括处理器601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。处理器601例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC)),等等。处理器601还可以包括用于缓存用途的板载存储器。处理器601可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 603中,存储有系统600操作所需的各种程序和数据。处理器601、ROM602以及RAM603通过总线604彼此相连。处理器601通过执行ROM 602和/或RAM 603中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 602和RAM 603以外的一个或多个存储器中。处理器601也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,系统600还可以包括输入/输出(I/O)接口605,输入/输出(I/O)接口605也连接至总线604。系统600还可以包括连接至I/O接口605的以下部件中的一项或多项:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
根据本公开的实施例,根据本公开实施例的方法流程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被处理器601执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 602和/或RAM 603和/或ROM 602和RAM 603以外的一个或多个存储器。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (12)
1.一种人机交互方法,应用于包含语音交互系统和人工干预系统的电子设备,所述方法包括:
所述语音交互系统实时接收用户输入的语音信息,其中,所述语音交互系统用于根据所述语音信息向所述用户提供服务;
向所述人工干预系统传输所述语音信息,并在所述人工干预系统接收到所述语音信息的情况下,所述人工干预系统对所述语音信息进行分析,确定所述语音信息所表征的情绪特征;
根据所述语音信息所表征的情绪特征确定是否需要向所述用户提供人工服务;以及
在确定需要向所述用户提供人工服务的情况下,向所述用户提供人工服务,以代替所述语音交互系统向所述用户提供服务。
2.根据权利要求1所述的方法,其中,所述方法还包括:
在向所述人工干预系统传输所述语音信息之前,所述语音交互系统根据所述语音信息判断是否能够向所述用户提供服务;以及
在判断不能向所述用户提供服务的情况下,向所述人工干预系统传输所述语音信息。
3.根据权利要求1所述的方法,其中,所述人工干预系统对所述语音信息进行分析,确定所述语音信息所表征的情绪特征包括:
对所述语音信息进行采样,确定所述语音信息的频谱;
确定所述频谱中的波峰的曲率;以及
根据所述波峰的曲率确定所述语音信息所表征的情绪特征。
4.根据权利要求3所述的方法,其中,所述人工干预系统对所述语音信息进行分析,确定所述语音信息所表征的情绪特征还包括:
将所述语音信息转换为文本信息;
确定所述文本信息中所包含的用于表征情绪的情感词;以及
根据所述情感词和所述波峰的曲率确定所述语音信息所表征的情绪特征。
5.根据权利要求1所述的方法,其中,向所述人工干预系统传输所述语音信息包括:
在所述语音交互系统实时接收到用户输入的语音信息的情况下,所述语音交互系统实时向所述人工干预系统传输所述语音信息。
6.一种人机交互系统,包括语音交互系统和人工干预系统,其中:
所述语音交互系统包括:
接收模块,用于实时接收用户输入的语音信息,其中,所述语音交互系统用于根据所述语音信息向所述用户提供服务;
传输模块,用于向所述人工干预系统传输所述语音信息;
所述人工干预系统包括:
第一确定模块,用于在接收到所述语音信息的情况下,对所述语音信息进行分析,确定所述语音信息所表征的情绪特征;
第二确定模块,用于根据所述语音信息所表征的情绪特征确定是否需要向所述用户提供人工服务;以及
转接模块,用于在确定需要向所述用户提供人工服务的情况下,向所述用户提供人工服务,以代替所述语音交互系统向所述用户提供服务。
7.根据权利要求6所述的人机交互系统,其中,所述语音交互系统还包括:
判断模块,用于在向所述人工干预系统传输所述语音信息之前,根据所述语音信息判断是否能够向所述用户提供服务;以及
所述传输模块,还用于在判断不能向所述用户提供服务的情况下,向所述人工干预系统传输所述语音信息。
8.根据权利要求6所述的人机交互系统,其中,所述第一确定模块包括:
第一确定单元,用于对所述语音信息进行采样,确定所述语音信息的频谱;
第二确定单元,用于确定所述频谱中的波峰的曲率;以及
第三确定单元,用于根据所述波峰的曲率确定所述语音信息所表征的情绪特征。
9.根据权利要求8所述的人机交互系统,其中,所述第一确定模块还包括:
转化单元,用于将所述语音信息转换为文本信息;
第四确定单元,用于确定所述文本信息中所包含的用于表征情绪的情感词;以及
第五确定单元,用于根据所述情感词和所述波峰的曲率确定所述语音信息所表征的情绪特征。
10.根据权利要求6所述的人机交互系统,其中,所述传输模块还用于在所述语音交互系统实时接收到用户输入的语音信息的情况下,实时向所述人工干预系统传输所述语音信息。
11.一种计算机系统,包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器实现权利要求1至5中任一项所述的人机交互方法。
12.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器实现权利要求1至5中任一项所述的人机交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811135742.XA CN110970017B (zh) | 2018-09-27 | 2018-09-27 | 人机交互方法及系统、计算机系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811135742.XA CN110970017B (zh) | 2018-09-27 | 2018-09-27 | 人机交互方法及系统、计算机系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110970017A true CN110970017A (zh) | 2020-04-07 |
CN110970017B CN110970017B (zh) | 2023-06-23 |
Family
ID=70026565
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811135742.XA Active CN110970017B (zh) | 2018-09-27 | 2018-09-27 | 人机交互方法及系统、计算机系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110970017B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111540358A (zh) * | 2020-04-26 | 2020-08-14 | 云知声智能科技股份有限公司 | 人机交互方法、装置、设备和存储介质 |
CN115910110A (zh) * | 2022-11-30 | 2023-04-04 | 杭州网筌科技有限公司 | 一种基于自然语言识别的政务服务系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020032591A1 (en) * | 2000-09-08 | 2002-03-14 | Agentai, Inc. | Service request processing performed by artificial intelligence systems in conjunctiion with human intervention |
CN1838237A (zh) * | 2000-09-13 | 2006-09-27 | 株式会社A·G·I | 情绪探测方法及其系统 |
CN105469797A (zh) * | 2015-12-31 | 2016-04-06 | 广东翼卡车联网服务有限公司 | 一种智能语音识别转接人工服务的控制方法及系统 |
CN105744090A (zh) * | 2014-12-09 | 2016-07-06 | 阿里巴巴集团控股有限公司 | 语音信息处理方法及装置 |
CN106409283A (zh) * | 2016-08-31 | 2017-02-15 | 上海交通大学 | 基于音频的人机混合交互系统及方法 |
CN108197115A (zh) * | 2018-01-26 | 2018-06-22 | 上海智臻智能网络科技股份有限公司 | 智能交互方法、装置、计算机设备和计算机可读存储介质 |
-
2018
- 2018-09-27 CN CN201811135742.XA patent/CN110970017B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020032591A1 (en) * | 2000-09-08 | 2002-03-14 | Agentai, Inc. | Service request processing performed by artificial intelligence systems in conjunctiion with human intervention |
CN1838237A (zh) * | 2000-09-13 | 2006-09-27 | 株式会社A·G·I | 情绪探测方法及其系统 |
CN105744090A (zh) * | 2014-12-09 | 2016-07-06 | 阿里巴巴集团控股有限公司 | 语音信息处理方法及装置 |
CN105469797A (zh) * | 2015-12-31 | 2016-04-06 | 广东翼卡车联网服务有限公司 | 一种智能语音识别转接人工服务的控制方法及系统 |
CN106409283A (zh) * | 2016-08-31 | 2017-02-15 | 上海交通大学 | 基于音频的人机混合交互系统及方法 |
CN108197115A (zh) * | 2018-01-26 | 2018-06-22 | 上海智臻智能网络科技股份有限公司 | 智能交互方法、装置、计算机设备和计算机可读存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111540358A (zh) * | 2020-04-26 | 2020-08-14 | 云知声智能科技股份有限公司 | 人机交互方法、装置、设备和存储介质 |
CN115910110A (zh) * | 2022-11-30 | 2023-04-04 | 杭州网筌科技有限公司 | 一种基于自然语言识别的政务服务系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110970017B (zh) | 2023-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7285949B2 (ja) | 人工知能を介してエージェントを支援するためのシステム及び方法 | |
US10901385B2 (en) | Vehicle electronic receptionist for communications management | |
US20220207392A1 (en) | Generating summary and next actions in real-time for multiple users from interaction records in natural language | |
US10547728B2 (en) | Dynamic agent greeting based on prior call analysis | |
US20220334795A1 (en) | System and method for providing a response to a user query using a visual assistant | |
US10170120B2 (en) | Call management system and its speech recognition control method | |
KR102331793B1 (ko) | 구조화된 오디오 출력을 사용하여 재생 감지 및/또는 무선 스피커에서 비정렬된 재생에 적응 | |
CN110970017B (zh) | 人机交互方法及系统、计算机系统 | |
US20220284888A1 (en) | Method and apparatus for in-vehicle call, device, medium and product | |
US20180336899A1 (en) | Identifying speaker roles in a streaming environment | |
CN114760387A (zh) | 管理保持的方法和装置 | |
CN110223694B (zh) | 语音处理方法、系统和装置 | |
CN113051381B (zh) | 信息质检方法、装置、计算机系统和计算机可读存储介质 | |
US20050177371A1 (en) | Automated speech recognition | |
CN117494715A (zh) | 对话处理方法、装置、电子设备及存储介质 | |
CN109960905B (zh) | 信息处理方法、系统、介质和电子设备 | |
US9842108B2 (en) | Automated escalation agent system for language interpretation | |
WO2020192245A1 (zh) | 应用开启方法、装置和计算机系统及介质 | |
US20230032167A1 (en) | Agent assist design - autoplay | |
CN114582319A (zh) | 语音处理方法、装置、电子设备和存储介质 | |
CN113472957A (zh) | 呼叫处理方法、装置、介质及电子设备 | |
CN118410162A (zh) | 摘要提取方法、装置、设备、介质及程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |