CN111883111B - 话术训练处理方法、装置、计算机设备和可读存储介质 - Google Patents

话术训练处理方法、装置、计算机设备和可读存储介质 Download PDF

Info

Publication number
CN111883111B
CN111883111B CN202010753812.9A CN202010753812A CN111883111B CN 111883111 B CN111883111 B CN 111883111B CN 202010753812 A CN202010753812 A CN 202010753812A CN 111883111 B CN111883111 B CN 111883111B
Authority
CN
China
Prior art keywords
training
node
data
machine
machine node
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010753812.9A
Other languages
English (en)
Other versions
CN111883111A (zh
Inventor
姚凌云
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An International Smart City Technology Co Ltd
Original Assignee
Ping An International Smart City Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An International Smart City Technology Co Ltd filed Critical Ping An International Smart City Technology Co Ltd
Priority to CN202010753812.9A priority Critical patent/CN111883111B/zh
Publication of CN111883111A publication Critical patent/CN111883111A/zh
Application granted granted Critical
Publication of CN111883111B publication Critical patent/CN111883111B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/27Replication, distribution or synchronisation of data between databases or within a distributed database system; Distributed database system architectures therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1822Parsing for meaning understanding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种话术训练处理方法、装置、计算机设备和可读存储介质。该方法包括:确定目标话术训练模型;发送第一机器节点上的第一话术数据至客户端;接收客户端发送的第一用户节点上的第一训练数据;基于第一训练数据,在至少两个机器节点中确定一个机器节点为第二机器节点;发送第二机器节点上的第二话术数据至客户端。此外,本发明涉及区块链技术,话术训练模型和机器节点上的话术数据等,可存储于区块链节点中;本发明还涉及智慧城市技术,在智慧城市服务中,可使用该话术训练处理方法进行相关话术训练。通过本发明,能够根据话术训练数据灵活调整话术训练流程。

Description

话术训练处理方法、装置、计算机设备和可读存储介质
技术领域
本发明涉及区块链和智慧城市技术领域,尤其涉及一种话术训练处理方法、装置、计算机设备和可读存储介质。
背景技术
随着人工智能近三十年来的迅速发展,其在很多学科领域都获得了广泛应用,并取得了丰硕的成果,其中,在机器人领域,人工智能机器人已越来越被人们接受和欢迎。目前的人工智能机器人的应用存在一种话术训练模式,该话术训练模式主要用于实现各行业技术人员语音、语义等话术的训练,人工智能机器人主要用于检测答案,也即,人工智能机器人向用户提出问题,用户进行回答,然后人工智能机器人后台对用户的答案进行评估并给出评估结果,从而用户能够基于评估结果改进话术,达到话术训练的目的。
在该话术训练模式中,大多为固定场景的一问一答,为了丰富话术训练场景,现有技术提出一种具有多种情景模式的话术练习处理方法,在该方法中,后台设置与情景模式相对应的话术数据,基于用户选择的情景模式,将对应的话术数据推至客户端,实现多种情景模式下的话术训练。
但是,发明人研究发现,上述方法实质上仅仅是集成了多个可供用户选择的练习场景,对于单个练习场景而言,练习流程所包括的节点依然是固定的,灵活性差,不能模拟真实情景。
因此,关于现有技术中话术训练流程固定、灵活性差的技术问题,成为本领域亟需解决的技术问题。
发明内容
本发明的目的是提供一种话术训练处理方法、装置、计算机设备和可读存储介质,用于解决现有技术中的上述技术问题。本申请可应用于智慧政务/智慧城管/智慧社区/智慧安防/智慧物流/智慧医疗/智慧教育/智慧环保/智慧交通场景中,从而推动智慧城市的建设。
一方面,为实现上述目的,本发明提供了一种话术训练处理方法。
该话术训练处理方法包括:确定目标话术训练模型,其中,所述目标话术训练模型包括机器节点和用户节点,所述机器节点上设置有话术数据,所述用户节点上接收训练数据;发送第一机器节点上的第一话术数据至客户端;接收所述客户端发送的第一用户节点上的第一训练数据,其中,所述第一机器节点之后为所述第一用户节点,所述第一用户节点之后分支出至少两个所述机器节点;基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;发送所述第二机器节点上的第二话术数据至所述客户端。
进一步地,基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点包括:采用预设的训练评估模型评估所述第一训练数据,得到训练评估结果;基于所述训练评估结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点。
进一步地,基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点包括:采用预设的语义分析模型分析所述第一训练数据的语义,得到语义分析结果;基于所述语义分析结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点。
进一步地,基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点之前,所述话术训练处理方法还包括:获取所述第一用户节点的节点类型,其中,当所述节点类型为随机节点时,所述话术训练处理方法还包括:在所述至少两个所述机器节点中,随机确定一个所述机器节点为第二机器节点;基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点包括:当所述节点类型为意图节点时,采用预设的语义分析模型分析所述第一训练数据的语义,得到语义分析结果,基于所述语义分析结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;当所述节点类型为评分节点时,采用预设的训练评估模型评估所述第一训练数据,得到训练评估结果,基于所述训练评估结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点。
进一步地,所述第一训练数据包括语音数据,所述训练评估结果包括训练评分,采用预设的训练评估模型评估所述第一训练数据,得到训练评估结果包括:在所述语音数据中提取预设关键词,并根据提取到的所述预设关键词的数量计算所述训练评分,其中,提取到的所述预设关键词的数量越大,所述训练评分越高;根据所述语音数据的流利程度、音量和/或发音标准度计算所述训练评分,其中,所述流利程度越高、所述音量越大或所述发音标准度越高,所述训练评分越高。
进一步地,基于所述训练评估结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点包括:判断所述训练评分是否大于预设评分阈值;当所述训练评分大于所述预设评分阈值时,确定所述至少两个所述机器节点中的第一个所述机器节点为所述第二机器节点;当所述训练评分小于所述预设评分阈值时,确定所述至少两个所述机器节点中的第二个所述机器节点为所述第二机器节点。
进一步地,采用预设的语义分析模型分析所述第一训练数据的语义,得到语义分析结果包括:在所述第一训练数据中提取关键词;以及根据预设的词与语义的对应关系,确定所述关键词对应的语义,得到所述语义分析结果。
进一步地,基于所述语义分析结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点包括:根据预设的语义与所述机器节点的对应关系,在所述至少两个机器节点中,确定所述语义分析结果对应的所述机器节点为所述第二机器节点。
进一步地,在确定目标话术训练模型之后,发送第一机器节点上的第一话术数据至客户端之前,所述话术训练处理方法还包括:获取所述目标话术训练模型对应的模型数据包,其中,所述模型数据包包括若干固有机器节点对应的话术数据,所述客户端用于解析所述模型数据包并展示所述固有机器节点;在得到所述第二机器节点之后,发送所述第二机器节点上的第二话术数据至所述客户端之前,所述话术训练处理方法还包括:获取所述第二机器节点对应的话术数据,以得到所述第二话术数据。
进一步地,所述话术数据包括仿真人的语音和表情。
进一步地,所述节点类型还包括旁白节点、固定对白节点、固定问答节点和画图讲解节点。
另一方面,为实现上述目的,本发明提供了另一种话术训练处理方法。
该话术训练处理方法包括:接收服务端发送的目标话术训练模型中第一机器节点上的第一话术数据,其中,所述目标话术训练模型包括机器节点和用户节点,所述机器节点上设置有话术数据,所述用户节点上接收训练数据,所述第一机器节点为所述目标话术训练模型的一个机器节点;展示所述第一机器节点和所述第一机器节点上的所述第一话术数据;通过第一用户节点接收第一训练数据,其中,所述第一机器节点之后为所述第一用户节点,所述第一用户节点之后分支出至少两个所述机器节点;发送所述第一训练数据只数服务端,其中,所述服务端用于基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;接收所述服务端发送的所述第二机器节点上的第二话术数据。
又一方面,为实现上述目的,本发明提供了一种话术训练处理装置。
该话术训练处理装置包括:模型确定模块,用于确定目标话术训练模型,其中,所述目标话术训练模型包括机器节点和用户节点,所述机器节点上设置有话术数据,所述用户节点上接收训练数据;第一话术数据发送模块,用于发送第一机器节点上的第一话术数据至客户端;第一训练数据接收模块,用于接收所述客户端发送的第一用户节点上的第一训练数据,其中,所述第一机器节点之后为所述第一用户节点,所述第一用户节点之后分支出至少两个所述机器节点;第二机器节点确定模块,用于基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;第二话术数据发送模块,用于发送所述第二机器节点上的第二话术数据至所述客户端。
又一方面,为实现上述目的,本发明提供了另一种话术训练处理装置。
该话术训练处理装置包括:第一话术数据接收模块,用于接收服务端发送的目标话术训练模型中第一机器节点上的第一话术数据,其中,所述目标话术训练模型包括机器节点和用户节点,所述机器节点上设置有话术数据,所述用户节点上接收训练数据,所述第一机器节点为所述目标话术训练模型的一个机器节点;第一话术数据展示模块,用于展示所述第一机器节点和所述第一机器节点上的所述第一话术数据;第一训练数据接收模块,用于通过第一用户节点接收第一训练数据,其中,所述第一机器节点之后为所述第一用户节点,所述第一用户节点之后分支出至少两个所述机器节点;第一训练数据发送模块,用于发送所述第一训练数据至所述服务端,其中,所述服务端用于基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;第二话术数据接收模块,用于接收所述服务端发送的所述第二机器节点上的第二话术数据。
为实现上述目的,本发明还提供一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,该处理器执行计算机程序时实现上述方法。
又一方面,为实现上述目的,本发明还提供计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储根据区块链节点的使用所创建的数据,存储程序区存储有计算机程序,其中,该计算机程序被处理器执行时实现上述方法。
本发明提供的话术训练处理方法、装置、计算机设备和可读存储介质,话术训练模型包括机器节点和用户节点,机器节点用于设置话术数据,对用户进行话术训练,用户节点用于接收用户在进行话术训练时反馈的训练数据,确定一个话术训练模型为目标话术训练模型以后,将目标话术训练模型中机器节点上的话术数据发送至客户端,将客户端通过用户节点上接收到的训练数据返回至服务端,当一个用户节点之后包括两个或两个以上的机器节点时,服务端根据该用户节点上接收到的训练数据确定其中的一个机器节点,并将其上的话术数据发送至客户端。其中,第一机器节点为目标话术训练模型中的一个机器节点,该第一机器节点上的话术数据为第一话术数据,该第一机器节点之后的用户节点为第一用户节点,第一用户节点之后至少包括两个机器节点,服务端将第一话术数据发送至客户端后,客户端通过第一机器节点进行展示,通过第一用户节点接收第一训练数据,并将第一训练数据发送至服务端,服务端根据第一训练数据确定第二机器节点,并将第二机器节点上的第二话术数据至客户端。通过本发明,话术训练流程中用户节点之后的机器节点并不是固定的,而是基于用户在该用户节点给出的训练数据来确定,也就是说,在同一个情景模式下的话术训练流程中,机器节点不再固定,可随着训练数据的变化而变化,提升了话术训练流程的灵活性。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1为本发明实施例一提供的话术训练处理方法的流程图;
图2为本发明实施例二提供的话术训练处理方法的流程图;
图3为本发明实施例三提供的话术训练处理方法的流程图;
图4为本发明实施例四提供的话术训练处理方法的流程图;
图5为本发明实施例五提供的话术训练处理方法的流程图;
图6为本发明实施例六提供的话术训练处理方法的流程图;
图7为本发明实施例七提供的话术训练处理装置的框图;
图8为本发明实施例八提供的话术训练处理装置的框图;
图9为本发明实施例九提供的计算机设备的硬件结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了解决现有技术中的技术问题,本发明提出一种话术训练处理方法、装置、计算机设备和可读存储介质,在该话术训练处理方法、装置、计算机设备和可读存储介质中,预置话术训练模型,话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据,若干机器节点以及若干用户节点相互以各种不限定的交叉方式形成一次话术训练流程,因此,用户可基于话术训练模型在客户端实现话术训练,进行话术训练时,首先确定一个目标话术训练模型,在针对该目标话术训练模型训练的过程中,包括以下步骤:服务端发送第一机器节点上的第一话术数据至客户端,其中,该第一机器节点为目标话术训练模型中的一个机器节点,客户端在接收到第一话术数据后,展示第一话术数据,用户对第一话术数据应答,客户端的第一用户节点接收该应答作为第一训练数据,并将接收到的第一训练数据发送至服务端,服务端接收客户端发送的第一用户节点上的第一训练数据,其中,第一机器节点之后为第一用户节点,第一用户节点之后分支出至少两个机器节点,服务端在接收到第一训练数据之后,基于第一训练数据,在该至少两个机器节点中确定一个机器节点为第二机器节点,然后将该第二机器节点上的第二话术数据发送至客户端,客户端通过第二机器节点展示第二话术数据,以使用户对第二话术数据进行应答。从中可以看出,在该发明提供的话术训练处理方法中,第一用户节点之后的机器节点并不是固定的,而是基于用户在第一用户节点给出的第一训练数据来确定,当第一训练数据发生变化,第一用户节点之后的机器节点可随着第一训练数据的变化而变化,也就是说,对于同一个情景下的话术训练模型,话术训练流程不再固定,而是随着训练数据的变化而变化,达到提升话术训练流程灵活性的目的。
关于本发明提供的话术训练处理方法、装置、计算机设备和可读存储介质的具体实施例,将在下文中详细描述。
实施例一
本发明实施例一提供了一种话术训练处理方法,该处理方法应用于服务端,通过与客户端的交互,实现话术训练流程随用户的训练数据进行变化的话术训练处理方法,通过该方法,能够提升话术训练流程的灵活性,具体地,图1为本发明实施例一提供的话术训练处理方法的流程图,如图1所示,该话术训练处理方法包括如下的步骤S101至步骤S105:
步骤S101:确定目标话术训练模型。
其中,目标话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据。该话术数据包括仿真人的语音和表情。
可选地,服务端包括多种话术训练模型,以适配于不同的话术训练场景,服务端可基于用户的选择或配置参数的设定确定目标话术训练模型。
例如,用户在客户端进行选择操作,选定一个话术训练模型,并向服务端发送该话术训练模型对应的模型数据请求,服务端接收到该模型数据请求后,在多种话术训练模型中确定目标话术训练模型。
又如,管理人员在服务端对话术训练任务进行配置,具体配置包括训练角色、训练时间以及话术训练模型的配置,服务端基于该配置、客户端登录的帐号和/或训练时间等,确定目标话术训练模型。
步骤S102:发送第一机器节点上的第一话术数据至客户端。
服务端在确定目标话术训练模型之后,需要将目标话术训练模型对应的模型数据发送至客户端。可选地,可将目标话术训练模型中固定的流程和其中机器节点上固定的话术数据封装为模型数据包,一次性下发至客户端,其中,该模型数据包包括第一机器节点上的第一话术数据;或者,可将目标话术训练模型中固定的流程和其中机器节点上固定的话术数据封装为多个节点数据包,分别下发至客户端,其中,第一机器节点上的第一话术数据被封装为一个节点数据包下发至客户端。
步骤S103:接收客户端发送的第一用户节点上的第一训练数据。
客户端在接收到第一话术数据后,通过第一机器节点展示第一话术数据,用户对该第一话术数据进行回应,其中,第一机器节点之后为第一用户节点,客户端通过第一用户节点接收回应的数据,也即第一训练数据。例如,在一个销售场景的话术训练中,第一话术数据为模拟一个顾客的咨询话术,客户端通过第一机器节点展示该第一话术数据后,用户作为销售员进行话术训练,对该咨询话术进行回应,客户端通过第一用户节点接收到回应的数据,也即第一训练数据,并将接收到的第一训练数据发送至服务端。
其中,第一用户节点之后分支出至少两个机器节点,例如,第一用户节点之后分支出三个机器节点,在当前的话术训练流程中,第一用户节点后具体是哪一个机器节点,需要从上述三个机器节点中确定一个。
步骤S104:基于第一训练数据,在至少两个机器节点中确定一个机器节点为第二机器节点。
在该步骤中,服务端根据第一训练数据从第一用户节点之后的至少两个机器节点确定一个机器节点,也即第二机器节点,作为当前话术训练流程中第一用户节点之后的机器节点。
可选地,在服务端设置确定机器节点的确定规则或算法模型,服务端在接收到第一训练数据之后,对第一训练数据应用确定规则进行计算,或将第一训练数据输入至算法模型中进行计算,以确定第二机器节点。例如,第一用户节点之后分支出三个机器节点,分别为甲、乙和丙,设置一种确定规则,当训练数据包括关键词A时,确定甲为第二机器节点,当训练数据包括关键词B时,确定乙为第二机器节点,当训练数据包括关键词C时,确定丙为第二机器节点。服务端接收到第一训练数据后,先确定第一训练数据中包括关键词A、B还是C,再根据结果确定甲、乙和丙哪一个为第二机器节点。
步骤S105:发送第二机器节点上的第二话术数据至客户端。
服务端在确定第二机器节点后,将该节点上的第二话术数据发送至客户端,客户端通过该第二机器节点展示该第二话术数据,用户对该第二话术数据进行回应,进行话术训练,其中,第二机器节点之后为第二用户节点,客户端通过第二用户节点接收回应的数据,定义为第二训练数据,在第二用户节点之后,可以设置固定的机器节点,或者,第二用户节点之后分支出多个机器节点,服务端根据第二训练数据在该多个机器节点中进行选定。
在该实施例提供的话术训练处理方法中,话术训练模型包括机器节点和用户节点,机器节点用于设置话术数据,对用户进行话术训练,用户节点用于接收用户在进行话术训练时反馈的训练数据,确定一个话术训练模型为目标话术训练模型以后,将目标话术训练模型中机器节点上的话术数据发送至客户端,将客户端通过用户节点上接收到的训练数据返回至服务端,当一个用户节点之后包括两个或两个以上的机器节点时,服务端根据该用户节点上接收到的训练数据确定其中的一个机器节点,并将其上的话术数据发送至客户端。其中,第一机器节点为目标话术训练模型中的一个机器节点,该第一机器节点上的话术数据为第一话术数据,该第一机器节点之后的用户节点为第一用户节点,第一用户节点之后至少包括两个机器节点,服务端将第一话术数据发送至客户端后,客户端通过第一机器节点进行展示,通过第一用户节点接收第一训练数据,并将第一训练数据发送至服务端,服务端根据第一训练数据确定第二机器节点,并将第二机器节点上的第二话术数据至客户端。采用该实施例提供的话术训练处理方法,话术训练流程中用户节点之后的机器节点并不是固定的,而是基于用户在该用户节点给出的训练数据来确定,也就是说,在同一个情景模式下的话术训练流程中,机器节点不再固定,可随着训练数据的变化而变化,提升了话术训练流程的灵活性。
第二实施例
本发明实施例二提供了一种优选的话术训练处理方法,部分技术特征与上述实施例一相同,该处不再详述,具体可参考上述实施例一,此外,该实施例也可与本发明中的其他实施例进行组合。图2为本发明实施例二提供的话术训练处理方法的流程图,如图2所示,该话术训练处理方法包括如下的步骤S201至步骤S206:
步骤S201:确定目标话术训练模型。
其中,目标话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据。
步骤S202:发送第一机器节点上的第一话术数据至客户端。
步骤S203:接收客户端发送的第一用户节点上的第一训练数据。
其中,第一机器节点之后为第一用户节点,第一用户节点之后分支出至少两个机器节点。
步骤S204:采用预设的训练评估模型评估第一训练数据,得到训练评估结果。
具体地,在服务端预先设置训练评估模型,对训练数据进行评估,例如,训练评估模型可从语义、语音、语速、语调等多个维度对训练数据进行评估,评估结果具体可以采用评分、等级等方式体现。在该步骤中,服务端接收到第一训练数据后,采用上述训练评估模型对第一训练数据进行评估,以得到第一训练数据对应的训练评估结果。
可选地,在一种实施例中,第一训练数据包括语音数据,训练评估结果包括训练评分,该步骤S204具体包括步骤S2041、步骤S2042和/或步骤S2043。
步骤S2041:在语音数据中提取预设关键词,并根据提取到的预设关键词的数量计算训练评分。
具体地,可通过预设关键词来标定训练数据的质量,训练数据中包括的预设关键词越多,表示训练数据的质量越好,训练评分越高,基于训练评分设置对应的机器节点,也即训练评分不同,根据训练数据确定的机器节点也不同。基于第一话术数据预设若干关键词的语音,在该步骤S2041中,在第一训练数据包括的语音数据中提取预设关键词的语音,根据提取到的预设关键词的数量计算训练评分,提取到的预设关键词越多,表明训练训练评分越高。
步骤S2042:根据语音数据的流利程度、音量和/或发音标准度计算训练评分。
具体地,可通过流利程度、音量、发音标准度来标定训练数据的质量,训练数据包括的语音数据的流利程度越好、音量越大或发音标准度越高,表示训练数据的质量越好,训练评分越高,基于训练评分设置对应的机器节点,也即训练评分不同,根据训练数据确定的机器节点也不同。在该步骤S2041中,对第一训练数据包括的语音数据在流利程度、音量和/或发音标准度等各个维度上进行评价,计算训练评分。
步骤S2043:将语音数据转换为对应的文本数据,针对文本数据,根据语义分析来对比关键词命中率、与标准答案的相似度、用户的礼貌用语程度、语义连贯性等方面综合计算训练评分。
具体地,可通过关键词命中率、与标准答案的相似度、用户的礼貌用语和/或语义连贯性程度来标定训练数据的质量,训练数据命中的关键词越多、与标准答案的相似度越高、用户的礼貌用语越多和/或语义连贯性程度越好,表示训练数据的质量越好,训练评分越高,基于训练评分设置对应的机器节点,也即训练评分不同,根据训练数据确定的机器节点也不同。
例如,基于第一话术数据预设若干关键词,在该步骤S2041中,对第一训练数据包括的语音数据进行文字识别,并对识别后的文字段落进行分词,将分词结果与预设的关键词进行比对,根据命中的关键词的数量中计算训练评分,命中的关键词的数量越多,表明训练训练评分越高;
再如,基于第一话术数据设置标准答案,在该步骤S2041中,对第一训练数据包括的语音数据进行文字识别,并将识别后的文字段落与标准答案进行匹配,计算二者的相似度,根据相似度计算训练评分,相似度越高,表明训练训练评分越高;
又如,设置礼貌用语库,在该步骤S2041中,对第一训练数据包括的语音数据进行文字识别,并对识别后的文字段落进行分词,将分词结果与礼貌用语库中的礼貌用语进行比对,根据分词结果包括的礼貌用语的数量计算训练评分,包括的礼貌用语的数量越多,表明训练训练评分越高;
又如,在该步骤S2041中,对第一训练数据包括的语音数据进行文字识别,并对识别后的文字段落进行自然语言处理,计算语义连贯性程度,根据语义连贯性程度计算训练评分,语义连贯性程度越高,表明训练训练评分越高。
步骤S205:基于训练评估结果,在至少两个机器节点中确定一个机器节点为第二机器节点。
可选地,该步骤S205具体包括:判断训练评分是否大于预设评分阈值;当训练评分大于预设评分阈值时,确定至少两个机器节点中的第一个机器节点为第二机器节点;当训练评分小于预设评分阈值时,确定至少两个机器节点中的第二个机器节点为第二机器节点。
步骤S206:发送第二机器节点上的第二话术数据至客户端。
在该实施例提供的话术训练处理方法中,根据训练数据确定机器节点时,首先采用预设的训练评估模型对训练数据进行评估,得到训练评估结果,然后根据训练评估结果确定机器节点,从而使得话术训练流程可依据用户的训练数据的评估结果变化而变化,例如,评估结果为用户训练的熟练程度或专业程度,则话术训练流程可依据用户训练的熟练程度或专业程度的不同而变化,使得话术训练流程与用户的贴合度更好,能够个性化的满足用户需要。
第三实施例
本发明实施例三提供了一种优选地话术训练处理方法,部分技术特征与上述实施例一相同,该处不再详述,具体可参考上述实施例一,此外,该实施例也可与本发明中的其他实施例进行组合。图3为本发明实施例三提供的话术训练处理方法的流程图,如图3所示,该话术训练处理方法包括如下的步骤S301至步骤S306:
步骤S301:确定目标话术训练模型。
其中,目标话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据。
步骤S302:发送第一机器节点上的第一话术数据至客户端。
步骤S303:接收客户端发送的第一用户节点上的第一训练数据。
其中,第一机器节点之后为第一用户节点,第一用户节点之后分支出至少两个机器节点。
步骤S304:采用预设的语义分析模型分析第一训练数据的语义,得到语义分析结果。
具体地,根据第一用户节点上的训练数据的语义不同,第一用户节点之后分支出至少两个机器节点,在服务端预先设置语义分析模型,对训练数据的语义进行分析,得到语义分析结果。
可选地,在一种实施例中,该步骤S304具体包括:
步骤S3041:在第一训练数据中提取关键词。
具体地,对第一训练数据进行分词,并在分词后去掉连词、语气助词等无意义的词,然后对同义词进行合并,最终得到的词为关键词。
步骤S3042:根据预设的词与语义的对应关系,确定关键词对应的语义,得到语义分析结果。
具体地,第一用户节点之后分支出N个机器节点,每个机器节点对应一种语义设置,则预设N种语义,然后针对每种语义,预设对应该语义的若干词语,得到N种词与语义的对应关系。在该步骤S3042中,将步骤S3041得到的关键词在词与语义的对应关系中进行遍历,以确定关键词可与哪一种对应关系中的词匹配,进而可确定该中对应关系中的语义即为关键词对应的语义。
步骤S305:基于语义分析结果,在至少两个机器节点中确定一个机器节点为第二机器节点。
其中,在该步骤S305中,预设的语义与机器节点一一对应,因此,在得到语义分析结果后,即可在至少两个机器节点中,确定语义分析结果对应的机器节点,得到第二机器节点。
步骤S306:发送第二机器节点上的第二话术数据至客户端。
在该实施例提供的话术训练处理方法中,根据训练数据确定机器节点时,首先采用预设的语义分析模型对训练数据的语义进行分析,得到语义分析结果,然后根据语义分析结果确定机器节点,从而使得话术训练流程可依据用户的训练数据的语义不同而变化,例如,语义分析结果包括肯定语义和否定语义,则话术训练流程可依据用户给出肯定语义或否定语义的训练数据而相应变化,使得话术训练流程与用户的贴合度更好,能够个性化的满足用户需要。
第四实施例
本发明实施例四提供了一种优选地话术训练处理方法,部分技术特征与上述实施例一至三相同,该处不再详述,具体可参考上述实施例一至三,此外,该实施例也可与本发明中的其他实施例进行组合,图4为本发明实施例四提供的话术训练处理方法的流程图,如图4所示,该话术训练处理方法包括如下的步骤S401至步骤S408:
步骤S401:确定目标话术训练模型。
其中,目标话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据。
步骤S402:发送第一机器节点上的第一话术数据至客户端。
步骤S403:接收客户端发送的第一用户节点上的第一训练数据。
其中,第一机器节点之后为第一用户节点,第一用户节点之后分支出至少两个机器节点。
步骤S404:获取第一用户节点的节点类型。
其中,对于分支出至少两个机器节点,需要根据训练数据选定机器节点的用户节点,其节点类型包括随机节点、意图节点和评分节点,具体地,若用户节点的节点类型为随机节点时,则该用户节点后的机器节点随机选定;若用户节点的节点类型为意图节点时,则该用户节点后的机器节点根据用户节点上训练数据的意图(也即语义分析结果)进行确定;若用户节点的节点类型为评分节点时,则该用户节点后的机器节点根据用户节点上训练数据的训练评估结果进行确定。
对于仅分支出一个机器节点的用户节点,其节点类型包括旁白节点、固定对白节点、固定问答节点和画图讲解节点。
旁白节点是指话术训练流程中作为旁白进行说明解释性的节点;固定对白节点是指用户节点上的训练数据是固定的,无需用户输入;固定问答节点是指用户节点上的训练数据为涉及问题的数据,之后机器节点上的话术数据为对应答案的数据;画图讲解节点是指用户节点上的训练数据需要边画图边讲解。
步骤S405:当节点类型为随机节点时,在至少两个机器节点中,随机确定一个机器节点为第二机器节点。
步骤S406:当节点类型为意图节点时,采用预设的语义分析模型分析第一训练数据的语义,得到语义分析结果,基于语义分析结果,在至少两个机器节点中确定一个机器节点为第二机器节点。
步骤S407:当节点类型为评分节点时,采用预设的训练评估模型评估第一训练数据,得到训练评估结果,基于训练评估结果,在至少两个机器节点中确定一个机器节点为第二机器节点。
步骤S408:发送第二机器节点上的第二话术数据至客户端。
采用该实施例提供的话术训练处理方法,设置不同节点类型的用户节点,进而根据节点类型确定用户节点后的机器节点。
第五实施例
本发明实施例五提供了一种优选地话术训练处理方法,部分技术特征与上述实施例一相同,该处不再详述,具体可参考上述实施例一,此外,该实施例也可与本发明中的其他实施例进行组合,图5为本发明实施例五提供的话术训练处理方法的流程图,如图5所示,该话术训练处理方法包括如下的步骤S501至步骤S507:
步骤S501:确定目标话术训练模型。
其中,目标话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据。
步骤S502:获取目标话术训练模型对应的模型数据包。
其中,模型数据包包括若干固有机器节点对应的话术数据,客户端用于解析模型数据包并展示固有机器节点,固有机器节点也即目标话术训练模型的话术训练流程中一定包括的固定机器节点,该部分话术数据可在确定目标话术训练模型后,直接下发至客户端,话术训练流程中其他不确定的机器节点,可将训练数据上传至服务端,由服务端确定后再下发对应的话术数据至客户端。
步骤S503:发送模型数据包至客户端。
其中,模型数据包包括第一机器节点上的第一话术数据。
步骤S504:接收客户端发送的第一用户节点上的第一训练数据。
其中,第一机器节点之后为第一用户节点,第一用户节点之后分支出至少两个机器节点。
步骤S505:基于第一训练数据,在至少两个机器节点中确定一个机器节点为第二机器节点。
步骤S506:获取第二机器节点对应的话术数据,以得到第二话术数据。
步骤S507:发送第二机器节点上的第二话术数据至客户端。
采用该实施例提供的话术训练处理方法,在一个话术训练流程中,固定机器节点对应的数据一次性下发至客户端,需要根据训练数据确定的机器节点对应的数据,在话术训练过程中实时下发至客户端,能够提升话术训练过程中的数据传输速度,也即提升话术训练过程中的机器反应速度,提升用户体验。
实施例六
本发明实施例六提供了一种话术训练处理方法,该处理方法应用于客户端,通过与服务端的交互,实现话术训练流程随用户的训练数据进行变化的话术训练处理方法,通过该方法,能够提升话术训练流程的灵活性,该实施例中的方法步骤与上述各个实施例中的步骤相对应,相应的技术细节和技术效果可参考上述各个实施例,此处不再详述,具体地,图6为本发明实施例留提供的话术训练处理方法的流程图,如图6所示,该话术训练处理方法包括如下的步骤S601至步骤S605:
步骤S601:接收服务端发送的目标话术训练模型中第一机器节点上的第一话术数据。
其中,目标话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据,第一机器节点为目标话术训练模型的一个机器节点。
步骤S602:展示第一机器节点和第一机器节点上的第一话术数据。
步骤S603:通过第一用户节点接收第一训练数据。
其中,第一机器节点之后为第一用户节点,第一用户节点之后分支出至少两个机器节点;
步骤S604:发送第一训练数据至服务端。
其中,服务端用于基于第一训练数据,在至少两个机器节点中确定一个机器节点为第二机器节点。
步骤S605:接收服务端发送的第二机器节点上的第二话术数据。
可选地,在一种实施例中,步骤S601包括:接收目标话术训练模型对应的模型数据包,该话术训练处理方法还包括:解析模型数据包并展示固有机器节点,其中,模型数据包包括若干固有机器节点对应的话术数据。
实施例七
对应于上述实施例一,本发明实施例七提供了一种话术训练处理装置,相应的技术特征和对应的技术效果可参考上述实施例一,该处不再赘述。图7为本发明实施例七提供的话术训练处理装置的框图,如图7所示,该装置包括模型确定模块701、第一话术数据发送模块702、第一训练数据接收模块703、第二机器节点确定模块704和第二话术数据发送模块705。
其中,模型确定模块701用于确定目标话术训练模型,其中,目标话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据;第一话术数据发送模块702用于发送第一机器节点上的第一话术数据至客户端;第一训练数据接收模块703用于接收客户端发送的第一用户节点上的第一训练数据,其中,第一机器节点之后为第一用户节点,第一用户节点之后分支出至少两个机器节点;第二机器节点确定模块704用于基于第一训练数据,在至少两个机器节点中确定一个机器节点为第二机器节点;第二话术数据发送模块705用于发送第二机器节点上的第二话术数据至客户端。
可选地,在一种实施例中,第二机器节点确定模块704包括评估单元和第一确定单元,其中,评估单元用于采用预设的训练评估模型评估第一训练数据,得到训练评估结果;第一确定单元用于基于训练评估结果,在至少两个机器节点中确定一个机器节点为第二机器节点。
可选地,在一种实施例中,第二机器节点确定模块704包括分析单元和第二确定单元,其中,分析单元用于采用预设的语义分析模型分析第一训练数据的语义,得到语义分析结果;第二确定单元用于基于语义分析结果,在至少两个机器节点中确定一个机器节点为第二机器节点。
可选地,在一种实施例中,话术训练处理装置还包括:节点类型获取模块,用于在第二机器节点确定模块704得到第二机器节点之前获取第一用户节点的节点类型,其中,当节点类型为随机节点时,第二机器节点确定模块704还用于在至少两个机器节点中,随机确定一个机器节点,得到第二机器节点;第二机器节点确定模块704包括分析单元、第二确定单元、评估单元和第一确定单元,其中,分析单元用于当节点类型为意图节点时,采用预设的语义分析模型分析第一训练数据的语义,得到语义分析结果,第二确定单元用于基于语义分析结果,在至少两个机器节点中确定一个机器节点为第二机器节点;评估单元用于当节点类型为评分节点时,采用预设的训练评估模型评估第一训练数据,得到训练评估结果,第一确定单元用于基于训练评估结果,在至少两个机器节点中确定一个机器节点为第二机器节点。
可选地,在一种实施例中,第一训练数据包括语音数据,训练评估结果包括训练评分,评估单元在采用预设的训练评估模型评估第一训练数据,得到训练评估结果是,具体执行:在语音数据中提取预设关键词,并根据提取到的预设关键词的数量计算训练评分,其中,提取到的预设关键词的数量越大,训练评分越高;根据语音数据的流利程度、音量和/或发音标准度计算训练评分,其中,流利程度越高、音量越大或发音标准度越高,训练评分越高。
可选地,在一种实施例中,第一确定单元在基于训练评估结果,在至少两个机器节点中确定一个机器节点为第二机器节点时,具体执行:判断训练评分是否大于预设评分阈值;当训练评分大于预设评分阈值时,确定至少两个机器节点中的第一个机器节点为第二机器节点;当训练评分小于预设评分阈值时,确定至少两个机器节点中的第二个机器节点为第二机器节点。
可选地,在一种实施例中,分析单元在采用预设的语义分析模型分析第一训练数据的语义,得到语义分析结果时,具体执行:在第一训练数据中提取关键词;以及根据预设的词与语义的对应关系,确定关键词对应的语义,得到语义分析结果。
可选地,在一种实施例中,第二确定单元在基于语义分析结果,在至少两个机器节点中确定一个机器节点为第二机器节点时,具体执行:根据预设的语义与机器节点的对应关系,在至少两个机器节点中,确定语义分析结果对应的机器节点,得到第二机器节点。
可选地,在一种实施例中,话术训练处理装置还包括:模型数据包获取模块和第二话术数据获取模块,其中,模型数据包获取模块用于在模型确定模块701确定目标话术训练模型之后,第一话术数据发送模块702发送第一机器节点上的第一话术数据至客户端之前,获取目标话术训练模型对应的模型数据包,其中,模型数据包包括若干固有机器节点对应的话术数据,客户端用于解析模型数据包并展示固有机器节点;第二话术数据获取模块用于在第二机器节点确定模块704得到第二机器节点之后,第二话术数据发送模块705发送第二机器节点上的第二话术数据至客户端之前,获取第二机器节点对应的话术数据,以得到第二话术数据。
可选地,在一种实施例中,话术数据包括仿真人的语音和表情。
可选地,在一种实施例中,节点类型还包括旁白节点、固定对白节点、固定问答节点和画图讲解节点。
实施例八
对应于上述实施例六,本发明实施例八提供了一种话术训练处理装置,相应的技术特征和对应的技术效果可参考上述实施例六,该处不再赘述。图8为本发明实施例八提供的话术训练处理装置的框图,如图8所示,该装置包括:第一话术数据接收模块801、第一话术数据展示模块802、第一训练数据接收模块803、第一训练数据发送模块804和第二话术数据接收模块805。
其中,第一话术数据接收模块801用于接收服务端发送的目标话术训练模型中第一机器节点上的第一话术数据,其中,目标话术训练模型包括机器节点和用户节点,机器节点上设置有话术数据,用户节点上接收训练数据,第一机器节点为目标话术训练模型的一个机器节点;第一话术数据展示模块802用于展示第一机器节点和第一机器节点上的第一话术数据;第一训练数据接收模块803用于通过第一用户节点接收第一训练数据,其中,第一机器节点之后为第一用户节点,第一用户节点之后分支出至少两个机器节点;第一训练数据发送模块804用于发送第一训练数据至服务端,其中,服务端用于基于第一训练数据,在至少两个机器节点中确定一个机器节点为第二机器节点;第二话术数据接收模块805用于接收服务端发送的第二机器节点上的第二话术数据。
实施例九
本实施例九还提供一种计算机设备,如可以执行程序的智能手机、平板电脑、笔记本电脑、台式计算机、机架式服务端、刀片式服务端、塔式服务端或机柜式服务端(包括独立的服务端,或者多个服务端所组成的服务端集群)等。如图9所示,本实施例的计算机设备01至少包括但不限于:可通过系统总线相互通信连接的存储器011、处理器012,如图9所示。需要指出的是,图9仅示出了具有组件存储器011和处理器012的计算机设备01,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。
本实施例中,存储器011(即可读存储介质)包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,存储器011可以是计算机设备01的内部存储单元,例如该计算机设备01的硬盘或内存。在另一些实施例中,存储器011也可以是计算机设备01的外部存储设备,例如该计算机设备01上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,存储器011还可以既包括计算机设备01的内部存储单元也包括其外部存储设备。本实施例中,存储器011通常用于存储安装于计算机设备01的操作系统和各类应用软件,例如实施例提供的话术训练处理装置等。此外,存储器011还可以用于暂时地存储已经输出或者将要输出的各类数据。
处理器012在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器012通常用于控制计算机设备01的总体操作。本实施例中,处理器012用于运行存储器011中存储的程序代码或者处理数据,例如话术训练处理方法等。
实施例十
本实施例十还提供一种计算机可读存储介质,如闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘、服务端、App应用商城等等,其上存储有计算机程序,程序被处理器执行时实现相应功能。本实施例的计算机可读存储介质用于存储话术训练处理装置,该计算机可读存储介质被处理器执行时实现实施例提供的话术训练处理方法。
进一步地,所述计算机可读存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务端计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (10)

1.一种话术训练处理方法,其特征在于,包括:
确定目标话术训练模型,其中,所述目标话术训练模型包括机器节点和用户节点,所述目标话术训练模型适配话术训练场景,所述机器节点上设置有话术数据,所述用户节点上接收训练数据;
发送第一机器节点上的第一话术数据至客户端,其中,将所述第一机器节点上的所述第一话术数据封装为一个节点数据包,发送至所述客户端;
接收所述客户端发送的第一用户节点上的第一训练数据,其中,所述第一机器节点之后为所述第一用户节点,所述第一用户节点之后分支出至少两个所述机器节点,所述第一训练数据为用户对第一话术数据进行回应的数据;
基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;
发送所述第二机器节点上的第二话术数据至所述客户端。
2.根据权利要求1所述的话术训练处理方法,其特征在于,基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点包括:
采用预设的训练评估模型评估所述第一训练数据,得到训练评估结果;
基于所述训练评估结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点。
3.根据权利要求1所述的话术训练处理方法,其特征在于,基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点包括:
采用预设的语义分析模型分析所述第一训练数据的语义,得到语义分析结果;
基于所述语义分析结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点。
4.根据权利要求1所述的话术训练处理方法,其特征在于,基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点之前,所述话术训练处理方法还包括:
获取所述第一用户节点的节点类型,其中,当所述节点类型为随机节点时,所述话术训练处理方法还包括:在所述至少两个所述机器节点中,随机确定一个所述机器节点为第二机器节点;
基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点包括:
当所述节点类型为意图节点时,采用预设的语义分析模型分析所述第一训练数据的语义,得到语义分析结果,基于所述语义分析结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;
当所述节点类型为评分节点时,采用预设的训练评估模型评估所述第一训练数据,得到训练评估结果,基于所述训练评估结果,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点。
5.根据权利要求2或4所述的话术训练处理方法,其特征在于,所述第一训练数据包括语音数据,所述训练评估结果包括训练评分,采用预设的训练评估模型评估所述第一训练数据,得到训练评估结果包括:
在所述语音数据中提取预设关键词,并根据提取到的所述预设关键词的数量计算所述训练评分,其中,提取到的所述预设关键词的数量越大,所述训练评分越高;
根据所述语音数据的流利程度、音量和/或发音标准度计算所述训练评分,其中,所述流利程度越高、所述音量越大或所述发音标准度越高,所述训练评分越高。
6.一种话术训练处理方法,其特征在于,包括:
接收服务端发送的目标话术训练模型中第一机器节点上的第一话术数据,其中,所述目标话术训练模型适配话术训练场景,所述目标话术训练模型包括机器节点和用户节点,所述机器节点上设置有话术数据,所述用户节点上接收训练数据,所述第一机器节点为所述目标话术训练模型的一个机器节点;
展示所述第一机器节点和所述第一机器节点上的所述第一话术数据,其中,将所述第一机器节点上的所述第一话术数据封装为一个节点数据包,发送至客户端;
通过第一用户节点接收第一训练数据,其中,所述第一机器节点之后为所述第一用户节点,所述第一用户节点之后分支出至少两个所述机器节点,所述第一训练数据为用户对第一话术数据进行回应的数据;
发送所述第一训练数据至所述服务端,其中,所述服务端用于基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;
接收所述服务端发送的所述第二机器节点上的第二话术数据。
7.一种话术训练处理装置,其特征在于,包括:
模型确定模块,用于确定目标话术训练模型,其中,所述目标话术训练模型包括机器节点和用户节点,所述目标话术训练模型适配话术训练场景,所述机器节点上设置有话术数据,所述用户节点上接收训练数据;
第一话术数据发送模块,用于发送第一机器节点上的第一话术数据至客户端,其中,将所述第一机器节点上的所述第一话术数据封装为一个节点数据包,发送至所述客户端;
第一训练数据接收模块,用于接收所述客户端发送的第一用户节点上的第一训练数据,其中,所述第一机器节点之后为所述第一用户节点,所述第一用户节点之后分支出至少两个所述机器节点,所述第一训练数据为用户对第一话术数据进行回应的数据;
第二机器节点确定模块,用于基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;
第二话术数据发送模块,用于发送所述第二机器节点上的第二话术数据至所述客户端。
8.一种话术训练处理装置,其特征在于,包括:
第一话术数据接收模块,用于接收服务端发送的目标话术训练模型中第一机器节点上的第一话术数据,其中,所述目标话术训练模型适配话术训练场景,所述目标话术训练模型包括机器节点和用户节点,所述机器节点上设置有话术数据,所述用户节点上接收训练数据,所述第一机器节点为所述目标话术训练模型的一个机器节点;
第一话术数据展示模块,用于展示所述第一机器节点和所述第一机器节点上的所述第一话术数据,其中,将所述第一机器节点上的所述第一话术数据封装为一个节点数据包,发送至客户端;
第一训练数据接收模块,用于通过第一用户节点接收第一训练数据,其中,所述第一机器节点之后为所述第一用户节点,所述第一用户节点之后分支出至少两个所述机器节点,所述第一训练数据为用户对第一话术数据进行回应的数据;
第一训练数据发送模块,用于发送所述第一训练数据至所述服务端,其中,所述服务端用于基于所述第一训练数据,在所述至少两个所述机器节点中确定一个所述机器节点为第二机器节点;
第二话术数据接收模块,用于接收所述服务端发送的所述第二机器节点上的第二话术数据。
9.一种计算机设备,包括存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至6任一项所述方法。
10.一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储根据区块链节点的使用所创建的数据,存储程序区存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至6任一项所述方法。
CN202010753812.9A 2020-07-30 2020-07-30 话术训练处理方法、装置、计算机设备和可读存储介质 Active CN111883111B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010753812.9A CN111883111B (zh) 2020-07-30 2020-07-30 话术训练处理方法、装置、计算机设备和可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010753812.9A CN111883111B (zh) 2020-07-30 2020-07-30 话术训练处理方法、装置、计算机设备和可读存储介质

Publications (2)

Publication Number Publication Date
CN111883111A CN111883111A (zh) 2020-11-03
CN111883111B true CN111883111B (zh) 2024-05-31

Family

ID=73204642

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010753812.9A Active CN111883111B (zh) 2020-07-30 2020-07-30 话术训练处理方法、装置、计算机设备和可读存储介质

Country Status (1)

Country Link
CN (1) CN111883111B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113268763B (zh) * 2020-12-28 2023-09-15 上海零数众合信息科技有限公司 一种基于区块链的分布式隐私数据存储方法

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012170053A1 (en) * 2011-06-09 2012-12-13 Rosetta Stone, Ltd. Producing controlled variations in automated teaching system interactions
CN108763568A (zh) * 2018-06-05 2018-11-06 北京玄科技有限公司 智能机器人交互流程的管理方法、多轮对话方法及装置
CN109460463A (zh) * 2018-11-15 2019-03-12 平安科技(深圳)有限公司 基于数据处理的模型训练方法、装置、终端及存储介质
WO2019133919A1 (en) * 2017-12-29 2019-07-04 Conversica, Inc. Systems and methods for human to ai cooperation in association with machine learning conversations
CN110032630A (zh) * 2019-03-12 2019-07-19 阿里巴巴集团控股有限公司 话术推荐设备、方法及模型训练设备
CN110795529A (zh) * 2019-09-05 2020-02-14 腾讯科技(深圳)有限公司 模型管理方法、装置、存储介质及电子设备
CN111078846A (zh) * 2019-11-25 2020-04-28 青牛智胜(深圳)科技有限公司 一种基于业务场景的多轮对话体系构建方法及系统
CN111160017A (zh) * 2019-12-12 2020-05-15 北京文思海辉金信软件有限公司 关键词抽取方法、话术评分方法以及话术推荐方法
CN111241357A (zh) * 2020-01-14 2020-06-05 中国平安人寿保险股份有限公司 对话训练方法、装置、系统及存储介质
CN111259124A (zh) * 2020-01-14 2020-06-09 中国平安人寿保险股份有限公司 对话管理方法、装置、系统及存储介质
CN111309879A (zh) * 2020-01-20 2020-06-19 北京文思海辉金信软件有限公司 基于知识图谱的人机训练场景构建方法和装置
CN111428023A (zh) * 2020-03-26 2020-07-17 支付宝(杭州)信息技术有限公司 话术推荐方法、装置和电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11397888B2 (en) * 2018-06-14 2022-07-26 Accenture Global Solutions Limited Virtual agent with a dialogue management system and method of training a dialogue management system

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012170053A1 (en) * 2011-06-09 2012-12-13 Rosetta Stone, Ltd. Producing controlled variations in automated teaching system interactions
WO2019133919A1 (en) * 2017-12-29 2019-07-04 Conversica, Inc. Systems and methods for human to ai cooperation in association with machine learning conversations
CN108763568A (zh) * 2018-06-05 2018-11-06 北京玄科技有限公司 智能机器人交互流程的管理方法、多轮对话方法及装置
CN109460463A (zh) * 2018-11-15 2019-03-12 平安科技(深圳)有限公司 基于数据处理的模型训练方法、装置、终端及存储介质
CN110032630A (zh) * 2019-03-12 2019-07-19 阿里巴巴集团控股有限公司 话术推荐设备、方法及模型训练设备
CN110795529A (zh) * 2019-09-05 2020-02-14 腾讯科技(深圳)有限公司 模型管理方法、装置、存储介质及电子设备
CN111078846A (zh) * 2019-11-25 2020-04-28 青牛智胜(深圳)科技有限公司 一种基于业务场景的多轮对话体系构建方法及系统
CN111160017A (zh) * 2019-12-12 2020-05-15 北京文思海辉金信软件有限公司 关键词抽取方法、话术评分方法以及话术推荐方法
CN111241357A (zh) * 2020-01-14 2020-06-05 中国平安人寿保险股份有限公司 对话训练方法、装置、系统及存储介质
CN111259124A (zh) * 2020-01-14 2020-06-09 中国平安人寿保险股份有限公司 对话管理方法、装置、系统及存储介质
CN111309879A (zh) * 2020-01-20 2020-06-19 北京文思海辉金信软件有限公司 基于知识图谱的人机训练场景构建方法和装置
CN111428023A (zh) * 2020-03-26 2020-07-17 支付宝(杭州)信息技术有限公司 话术推荐方法、装置和电子设备

Also Published As

Publication number Publication date
CN111883111A (zh) 2020-11-03

Similar Documents

Publication Publication Date Title
CN112346567B (zh) 基于ai的虚拟交互模型生成方法、装置及计算机设备
CN108121800B (zh) 基于人工智能的信息生成方法和装置
CN107680019B (zh) 一种考试方案的实现方法、装置、设备及存储介质
US11380213B2 (en) Customer care training with situational feedback generation
CN109492164A (zh) 一种简历的推荐方法、装置、电子设备及存储介质
CN114461777B (zh) 智能问答方法、装置、设备及存储介质
CN110234018B (zh) 多媒体内容描述生成方法、训练方法、装置、设备及介质
CN111694937A (zh) 基于人工智能的面试方法、装置、计算机设备及存储介质
CN108960574A (zh) 问答的质量确定方法、装置、服务器和存储介质
CN111177307A (zh) 一种基于语义理解相似度阀值配置的测试方案及系统
WO2022018676A1 (en) Natural language enrichment using action explanations
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN111444729A (zh) 信息处理的方法、装置、设备及可读存储介质
CN117371428A (zh) 基于大语言模型的文本处理方法与装置
CN111883111B (zh) 话术训练处理方法、装置、计算机设备和可读存储介质
CN111931503B (zh) 信息抽取方法及装置、设备、计算机可读存储介质
US20200372356A1 (en) Generating neural network outputs using insertion commands
CN116610784A (zh) 一种保险业务场景问答推荐方法及其相关设备
CN114218288B (zh) 一种行车路线推荐方法、装置、存储介质及终端
CN112231373B (zh) 知识点数据的处理方法、装置、设备和计算机可读介质
CN113724738A (zh) 语音处理方法、决策树模型训练方法、装置、设备及存储介质
CN113590786A (zh) 一种数据预测方法、装置、设备及存储介质
CN112328871A (zh) 一种基于rpa模块的回复生成方法、装置、设备及存储介质
CN109885647A (zh) 用户履历验证方法、装置、电子设备及存储介质
US8504580B2 (en) Systems and methods for creating an artificial intelligence

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant