CN117520490A - 一种人机对话方法、系统以及相关装置 - Google Patents
一种人机对话方法、系统以及相关装置 Download PDFInfo
- Publication number
- CN117520490A CN117520490A CN202311385141.5A CN202311385141A CN117520490A CN 117520490 A CN117520490 A CN 117520490A CN 202311385141 A CN202311385141 A CN 202311385141A CN 117520490 A CN117520490 A CN 117520490A
- Authority
- CN
- China
- Prior art keywords
- user
- basic
- content
- target
- candidate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 51
- 238000011156 evaluation Methods 0.000 claims description 49
- 230000004044 response Effects 0.000 claims description 34
- 230000008451 emotion Effects 0.000 claims description 23
- 230000003993 interaction Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 8
- 238000012545 processing Methods 0.000 description 4
- 230000006835 compression Effects 0.000 description 3
- 238000007906 compression Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004891 communication Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000001105 regulatory effect Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种人机对话方法、系统以及相关装置,该方法包括:获取用户选择的目标角色;其中,所述目标角色对应有个性信息,所述个性信息是基于用户输入的多个类别的参考信息得到的;获取用户输入的第一对话内容;至少基于所述目标角色的所述个性信息和所述第一对话内容,生成用于回复所述第一对话内容的第二对话内容。通过上述方式,本申请能够提高虚拟角色与用户进行对话的灵活性。
Description
技术领域
本申请涉及自然语言技术领域,特别是涉及一种人机对话方法、系统以及相关装置。
背景技术
随着智能分析技术的不断发展,人机对话在越来越多的场景下被应用。目前的人机对话方式,仅基于用户给出的对话内容进行回复,难以根据不同情境做出相应的反应。为优化用户与虚拟角色进行对话时的体验感,如何赋予虚拟角色与人类相似的个性信息,并结合当前具体情境与用户进行对话,成为亟待解决的问题。
发明内容
本申请主要解决的技术问题是提供一种人机对话方法、系统以及相关装置,能够提高虚拟角色与用户进行对话的灵活性。
为解决上述技术问题,本申请采用的一个技术方案是:提供一种人机对话方法,包括:获取用户选择的目标角色;其中,所述目标角色对应有个性信息,所述个性信息是基于用户输入的多个类别的参考信息得到的;获取用户输入的第一对话内容;至少基于所述目标角色的所述个性信息和所述第一对话内容,生成用于回复所述第一对话内容的第二对话内容。
为解决上述技术问题,本申请采用的另一个技术方案是:提供一种人机对话系统,包括:获取模块,用于获取用户选择的目标角色;其中,所述目标角色对应有个性信息,所述个性信息是基于用户输入的多个类别的参考信息得到的;输入模块,用于获取用户输入的第一对话内容;回复模块,至少基于所述目标角色的所述个性信息和所述第一对话内容,生成用于回复所述第一对话内容的第二对话内容。
为解决上述技术问题,本申请采用的又一个技术方案是:提供一种电子设备,包括:相互耦接的存储器和处理器,所述存储器中存储有程序指令,所述处理器用于执行所述程序指令以实现如上述技术方案中提到的人机对话方法。
为解决上述技术问题,本申请采用的又一个技术方案是:提供一种计算机可读存储介质,其上存储有程序指令,所述程序指令被处理器执行时实现如上述技术方案中提到的人机对话方法。
本申请的有益效果是:区别于现有技术的情况,本申请提出的人机对话方法,在获取到用户选择的目标角色以及用户输入的第一对话内容后,基于目标角色的个性化信息以及第一对话内容,生成用于回复第一对话内容的第二对话内容。其中,区别于直接选择某一特定个性作为目标角色的个性信息,本申请中目标角色的个性信息是根据用户输入的多个类别的参考信息,将多个候选个性进行融合得到的,使得该个性信息与用户的需求高度契合,提高了目标角色构建的灵活性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。其中:
图1是本申请人机对话方法一实施方式的流程示意图;
图2是已创建角色的创建步骤对应一实施方式的流程示意图;
图3是步骤S201对应一实施方式的示意图;
图4是步骤S201对应另一实施方式的示意图;
图5是步骤S201对应另一实施方式的示意图;
图6是步骤S201对应又一实施方式的流程示意图;
图7是步骤S103对应另一实施方式的流程示意图;
图8是本申请人机对话系统一实施方式的结构示意图;
图9是本申请电子设备一实施方式的结构示意图;
图10是本申请计算机可读存储介质一实施方式的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性的劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请提出的答复方法依托于对话机器人实现,该对话机器人可以是智能终端上的应用或至少集成有对话功能的智能终端。其中,该智能终端可以是智能办公本、手机、平板电脑、个人电脑或可穿戴智能设备等。
请参阅图1,图1是本申请人机对话方法一实施方式的流程示意图,该方法包括:
S101:获取用户选择的目标角色;其中,所述目标角色对应有个性信息,所述个性信息是基于用户输入的多个类别的参考信息得到的。
在一实施方式中,获取用户从多个已构建角色中选择的目标角色,且该已构建角色为是用户自主构建的。其中,目标角色对应有个性信息,且个性信息是基于多个评价维度的评价结果融合得到的,上述评价结果与用户输入的多种类别的参考信息相关,具体融合过程以及目标角色的构建过程在后续相应实施方式中做详细说明。
在另一实施方式中,上述已构建角色也可以是其他用户或相关技术人员构建后共享的角色。
S102:获取用户输入的第一对话内容。
在一实施方式中,获取用户输入的第一对话内容,该第一对话内容可以是用户输入的对话文本。其中,该对话文本可以是用户通过输入法输入或手写输入的。
在另一实施方式中,也可以获取用户输入的对话音频,通过将该对话音频转换成文本,以得到上述第一对话内容。
S103:至少基于目标角色的个性信息和第一对话内容,生成用于回复第一对话内容的第二对话内容。
在一实施方式中,获取预设模板,基于预设模板、目标角色的个性信息和第一对话内容,生成对应的任务文本。将该任务文本输入至智能分析模型,以生成符合目标角色的第二对话内容。
在一实施场景中,上述智能分析模型为具备较优的信息分析能力的大语言模型,通过将目标角色的个性信息和第一对话内容分别输入至预设模板的相应位置,以生成任务文本,将该任务文本提供给大语言模型,并要求大语言模型根据该任务文本模仿目标角色对用户输入的第一对话内容进行回复。
在一具体应用场景中,上述大语言模型为生成式预训练Transformer模型(Generative Pre-Training,GPT)。
在另一实施方式中,也可以利用预先训练的对话模型对目标角色的个性信息和第一对话内容进行分析,以生成对应的第二对话内容。
具体地,对话模型对第一对话内容进行语义分析,并结合目标角色的个性信息输出对应的第二对话内容。其中,对话模型的具体结构可参照现有的语义分析模型结构,其可以通过多个训练数据进行训练得到,每个训练数据中包括第一训练对话内容以及用于回复该第一训练对话内容的第二训练对话内容,其中第一训练对话内容还标注有对应的个性标签。
本申请提出的人机对话方法,在获取到用户选择的目标角色以及用户输入的第一对话内容后,基于目标角色的个性化信息以及第一对话内容,生成用于回复第一对话内容的第二对话内容。其中,区别于直接选择某一特定个性作为目标角色的个性信息,本申请中目标角色的个性信息是根据用户输入的多个类别的参考信息,将多个候选个性进行融合得到的,使得该个性信息与用户的需求高度契合,提高了目标角色构建的灵活性。
在一实施方式中,请参阅图2,图2是已创建角色的创建步骤对应一实施方式的流程示意图。具体地,当目标角色为用户创建的已创建角色,则该已创建角色的创建步骤包括:
S201:至少获取用户输入的多个基础类别对应的至少部分参考信息;其中,基础类别对应有多个基础项,参考信息包括用户于多个候选选项中选择的参考选项或用户输入的参考描述。
在一实施方式中,为节省创建时间,用户可以选择快速创建角色。
具体地,响应于用户触发快速创建指令,展示与快速创建指令匹配的多个基础类别。响应于用户从正在展示的基础类别中选择任一基础类别,将用户选择的基础类别对应的至少部分基础项进行展示,并获取用户输入的当前展示的基础项对应的参考信息。
在一实施场景中,多个基础类别包括身份类别和个性类别。例如,上述身份类别包括角色信息和角色背景等,上述个性类别包括角色性格等。
需要说明的是,每个上述每个基础类别都对应有多个基础项,多个基础项用于确定对应基础类别的属性特征。但为保证角色创建的效率,在快速创建场景下,只将用户选择的基础类别对应的部分必要的基础项进行展示,并只获取用户输入的展示的部分基础项对应的参考信息。
在一具体实施场景中,请参阅图3和图4,图3和图4都为步骤S201对应一实施方式的示意图。响应于检测到用户在对话机器人的展示界面内点击快速创建,将展示界面跳转至快速创建界面,并展示所有基础类别,即图3和图4中所示的“角色”、“背景”和“性格”。响应于用户点击了“角色”这一基础类别,将对应的基础项展示给用户,即图3中所示的“友伴封面图”、“友伴声音”和“友伴描述”等。响应于用户点击基础项的相应区域,则将该基础项对应的多个候选选项展示给用户,并获取用户选择的候选选项,将其作为该基础项对应的参考信息。例如,当用户点击“友伴声音”时,将多个候选声音作为候选选项展示给用户,且用户可以通过点击任一候选声音以播放该候选声音对应的片段;响应于用户选择任一候选声音并进行确认后,将用户确认的候选声音作为参考信息。以及,对于部分基础项,需要用户输入相应的描述文本,例如,图3中的“友伴描述”这一基础项,通过获取用户在该基础项对应的输入框内输入对期望创建的角色的相关描述,并将用户输入的描述作为该基础项对应的参考信息。
另外,如图4所示,响应于用户点击“性格”这一基础类别,将该基础类别下的多个基础项进行展示,如“外向型”、“抗压性”、“友好度”、“责任感”、“开放性”以及“性格特点”。其中,“外向型”、“抗压性”、“友好度”、“责任感”和“开放性”分别设置有五个可调等级。响应于获取到用户从五个可调等级中选择任一等级,将用户选择的等级作为对应基础项的参考信息。
可选地,在其他具体应用场景中,对于上述“外向型”、“抗压性”、“友好度”、“责任感”和“开放性”基础项,其可以通过获取输入或选择的参数的方式,得到对应的参考信息。例如,对于“外向型”这一基础项,其预设的五个可调等级对应的参数分别为0、0.25、0.5、0.75和1,若用户期望构建的角色在该维度下的参数介于第四等级和第五等级之间时,用户可以通过输入如0.8或0.9等的参数,作为该“外向型”维度下的参数。
在另一实施方式中,在用户触发快速创建指令后,为进一步提高角色创建效率,用户还可以选择在与快速创建指令对应的界面进行随机创建。
具体地,响应于用户在快速创建指令对应的展示界面内触发随机创建指令,从多个候选选项中随机选择参考选项或随机生成参考描述,作为当前展示的基础项对应的参考信息。其中,用户触发随机创建指令的方式包括但不限于点击对话机器人对应的智能终端展示界面上的随机生成按钮;或者,向对话机器人对应的智能终端执行预设手势操作,例如,晃动智能终端等。
在一具体应用场景中,请继续参阅图3或图4,当对话机器人对应的智能终端为手机时,在快速创建指令对应的展示界面内的相应区域内展示有提示用户进行随机创建的提示信息:“晃动手机随机生成角色信息”。响应于获取到用户执行该晃动操作,则针对每个基础类别下设置有多个候选选项的每个基础项,从多个候选选项中随机选择一个作为参考选项,以作为相应的参考信息;针对用于用户输入描述文本的基础项,则随机生成相应的参考描述,以作为相应的参考信息。其中,可以通过将相应的基础项输入至上述提到的智能分析模型,要求智能分析模型生成与该基础项对应的描述文本,并将智能分析模型输出的描述文本作为上述随机生成的参考描述。
在另一实施方式中,为使得创建后的角色与用户的需求契合度较高,用户还可以选择精确创建角色,以输入更为详细的参考信息。
具体地,响应于用户触发精确创建指令,展示与精确创建指令匹配的多个基础类别和拓展类别。其中,拓展类别区别于基础类别,拓展类别对应有多个拓展项。
响应于用户选择基础类别,将用户选择的基础类别对应的所有基础类别进行展示,获取用户输入的当前展示的基础项对应的参考信息。
响应于用户选择拓展类别,将用户选择的拓展类别对应的所有拓展项进行展示,获取用户输入的当前展示的拓展项对应的参考信息。
在一实施场景中,用户在对话机器人对应的智能终端的展示界面选择角色创建后,优先展示快速创建界面,响应于用户在快速创建展示界面内选择精确创建,则将所有基础类别和拓展类别进行展示。
在一具体应用场景中,请结合图3和图4参阅图5,图5是步骤S201对应另一实施方式的示意图。响应于用户在快速创建界面点击“深度定制”,跳转至精确创建界面,并展示所有基础类别以及拓展类别,即“角色”、“背景”、“性格”、“习惯”和“三观”。响应于用户在该精确创建界面点击“角色”这一基础类别,则展示对应的所有基础项;即相比于快速创建界面中“角色”这一基础类别所展示的部分基础项,精确创建界面下,该基础类别还包括如“性别”和“生日”等基础项,以用于获取更丰富的信息来创建用户期望创建的角色。或者,响应于用户点击“性格”这一基础类别,则除了展示上述相应实施方式中提到的相关基础项外,还展示其他更为详细的性格,例如“独立性”和“顺从性”等。
另外,对于“背景”这一拓展类别的至少部分拓展项,以用于用户输入或选择与构建的角色背景相关的描述或选项,例如,生活经历和学历经历等;对于“习惯”这一拓展类别的至少部分拓展项,以用于用户输入或选择与构建的角色习惯相关的描述或选项,例如,多个预设场景下该角色所采取的行为或所说的话术等;对于“三观”这一拓展类别的至少部分拓展项,以用于用户输入或选择相关的描述或选项,来确定构建角色的世界观、价值观和人生观。
S202:基于参考信息,确定已创建角色于多个评价维度下的评价结果;其中,评价维度与预设的候选个性对应,评价结果用于表征已创建角色的个性信息与对应候选个性之间的相关程度。
在一实施方式中,响应于预先确定有多个候选个性,将候选个性作为评价维度,并将多个候选个性以及获取到的用户输入的参考信息输入至上述提到的智能分析模型中,以使得智能分析模型对输入的数据进行分析,并输出该部分参考信息与各个候选个性之间的评价结果。
在一实施场景中,上述评价结果包括对应的评价等级,且评价等级越高则表明用户期望创建角色的个性信息与对应的候选个性之间的相关程度越高。例如,针对每个评价维度都预先设置有五个评价等级,则当获取到的参考信息于当前评价维度下的评价结果为第四等级,则表明用户期望创建角色的个性信息与当前评价维度对应的候选个性之间的相似度较高;或者,当获取到的参考信息于当前评价维度下的评价结果为第二等级,则表明用户期望创建角色的个性信息与当前评价维度对应的候选个性之间的相似度较低。
在另一实施场景中,上述评价结果也可以是对应的评价得分,且评价得分越高,则表明用户期望创建角色的个性信息与对应的候选个性之间的相关程度越高。
在另一实施方式中,多个候选个性是基于心理学中的大五类人格(开放性、责任心、外倾性、宜人性和神经质性)进行分级和融合得到的。
具体地,对大五类人格中的每种人格设置由弱至强的五种等级,将大五类人格输入至智能分析模型中,以使得智能分析模型根据上述大五类人格中每种人格对应的不同等级进行融合,以得到预设数量的典型候选个性。
在一具体应用场景中,为使得不同候选个性之间区别分明,本申请提出的人机交互方法中利用智能分析模型得到的候选个性的数量为17种。当然,在具体应用过程中,也可以预先确定其他数量的候选个性,例如16或18等。
S203:基于所有评价维度下的评价结果,确定个性信息,生成与个性信息相匹配的已创建角色。
在一实施方式中,响应于获得参考信息于所有评价维度下的评价结果,将所有评价结果以及对应的候选个性输入至智能分析模型,以使得智能分析模型根据对应的评价结果将所有候选个性进行融合,以得到与用户提出的参考信息高度匹配的个性信息。
在一实施场景中,针对每个评价维度,将对应的候选个性以及对应的评价结果中的评价等级或评价得分进行相乘,以得到对应的个性组成元素。将所有评价维度对应的个性组成元素相乘,以确定用户构建角色对应的个性信息。
上述方式并非机械地选取任一已有的候选个性作为构建角色的个性信息,而是将多个候选个性作为评价维度,以在不同程度上将所有候选个性进行融合以得到用户构建角色的个性信息,使得该个性信息与用户的期望高度契合,使得每个用户都可以构建具备独一无二的个性信息的角色,提高了虚拟人物的类人化和智能化。
进一步地,结合上述个性信息以及用户输入的参考信息中与构建角色的身份相关的信息,生成与上述个性信息匹配的已创建角色。
具体地,响应于用户输入的参考信息中包括对角色的命名、友伴描述以及形象对应的图像等,结合上述信息生成已创建角色的展示名片,并将该展示名片在对话机器人的已创建角色展示界面进行展示。响应于用户选择已创建角色展示界面内的任一已创建角色,将该已创建角色作为目标角色,并进入与该目标角色对应的对话界面,以由该目标角色与用户进行对话。
进一步地,步骤S203之后还包括:用户可以选择将已创建的角色与其他用户共享。
具体地,响应于用户选择将已创建角色进行共享,将对应的已创建角色发布至共享区域。其中,共享区域内的所有已创建角色能被任一访问共享区域的用户选择。
在一具体应用场景中,请继续参阅图3至图5,在用户选择已创建角色后,在该已创建角色的相关信息展示界面内展示“公开可见”提示。响应于用户选择该提示,并确认将该已创建角色公开,则将已创建角色对应的信息上传至服务器段进行审核。响应于通过审核,则将该已创建角色发布至共享区域。
可选地,在其他实施方式中,用户也可以在输入参考信息时选择将正在构建的角色进行共享,并当完成该角色的构建后,将其发布至共享区域。
在另一实施方式中,请参阅图6,图6是步骤S201对应又一实施方式的流程示意图。在本实施方式中,上述步骤S201也可以是用户对选择的已创建角色的个性信息进行调整的过程。响应于用户选择已创建角色,具体调整过程包括:
S301:至少展示已创建角色对应的基础类别。其中,当已创建角色还设置有拓展类别时,拓展类别与基础类别一同展示,拓展类别区别于基础类别,拓展类别对应有多个拓展项。
在一实施方式中,响应于用户选择的已创建角色是通过快速创建得到的,则展示对应的基础类别。或者,响应于用户选择的已创建角色是通过精确创建得到的,则展示对应的基础类别和拓展类别。
S302:响应于用户选择基础类别,将用户选择的基础类别对应的所有基础项进行展示,获取用户调整的当前展示的至少部分基础项对应的参考信息。
在一实施方式中,响应于已创建角色是快速创建得到的,将用户选择的基础类别对应的部分基础项进行展示,并当用户对展示的基础项中的部分进行调整时,获取用户调整后的参考信息。
或者,响应于已创建角色是精确创建得到的,将用户选择的基础类别对应的所有基础项进行展示,并获取用户调整的当前展示的至少部分基础项对应的参考信息。
其中,针对预先设置有多个候选选项的基础项,可以通过获取用户与多个候选选项中重新选择的参考选项,以作为用户调整的参考信息;针对需要用户输入文字描述的基础项,则通过获取用户修改后的参考描述或用户重新输入的参考描述,以作为用户调整的参考信息。
S303:响应于用户选择拓展类别,将用户选择的拓展类别对应的所有拓展项进行展示,获取用户调整的当前展示的至少部分拓展项对应的参考信息。
在一实施方式中,响应于已创建角色是精确创建得到的,且用户选择展示的拓展类别,将该拓展类别对应的所有拓展项进行展示,并获取用户调整的当前展示的至少部分拓展项对应的参考信息。其中,调整的具体过程可参照上述对应实施方式。
在另一实施方式中,请参阅图7,图7是步骤S103对应另一实施方式的流程示意图。具体地,步骤S103的实施过程还包括:
S401:获取与第一对话内容相匹配的目标情绪、参考对话内容和目标语言风格。其中,参考对话内容包括时序在第一对话内容之前的至少部分历史对话内容。
在一实施方式中,上述步骤S401包括以下步骤A至C,具体而言:
A:获取第一对话内容之前与目标角色产生的至少部分历史对话内容,作为参考对话内容。
在一实施方式中,用户与当前目标角色进行对话的过程时,将用户最新输入的对话内容作为第一对话内容,以及将对应时序在第一对话内容之前的对话内容作为历史对话内容,并将历史对话内容中的部分作为参考对话内容。
B:基于个性信息和第一对话内容,从多个候选情绪中选择一个候选情绪作为目标情绪。
在一实施方式中,将用户选择的目标角色的个性信息和第一对话内容输入至上述提到的智能分析模型,以使得智能分析模型结合目标角色的个性信息从多个预先确定的候选情绪中选择与当前对话情境匹配的目标角色的目标情绪。通过确定目标角色当前的目标情绪,以使得对话机器人在与用户的对话过程中可以结合目标情绪,使得对话机器人给出的答复与当前情境的契合度更高。
在另一实施方式中,在确定目标情绪时,还可以结合部分参考对话内容,即将目标角色的个性信息、第一对话内容和参考对话内容输入至智能分析模型,以确定目标情绪。其中,参考对话内容可以是第一对话内容之前预设轮次内的历史对话内容,一个轮次的历史对话内容包括用户输入的对话内容以及对话机器人回复的对话内容。
在又一实施方式中,在确定目标情绪时,参考对话内容也可以是与第一对话内容相关的部分历史对话内容中,并且可以通过智能分析模型对历史对话内容和第一对话内容进行分析,以确定与第一对话内容相关的参考对话内容。
C:基于第一对话内容,从多个候选语言风格中选择一个候选语言风格作为目标语言风格。
在一实施方式中,用户选择的目标角色对应有多个候选语言风格,该多个候选语言风格是根据该目标角色在被创建时用户输入的参考信息确定的。
在一实施场景中,响应于上述目标角色对应的多个参考信息中包括用户输入的多个候选话术,利用智能分析模型结合候选话术以及其他参考信息,确定对应的多个候选语言风格。其中,每个候选语言风格与至少部分候选话术对应。
在另一实施场景中,响应于上述目标角色对应的多个参考信息中未包括用户输入的候选话术,则利用智能分析模型根据目标角色对应的多个参考信息随机生成多个候选话术,并再结合随机生成的候选话术,确定目标角色对应的多个候选语言风格。
进一步地,将第一对话内容以及多个候选语言风格输入至智能分析模型,以使得智能分析模型选择一个候选语言风格作为目标角色的目标语言风格。
在另一实施方式中,上述步骤C的实施过程还可以包括:基于第一对话内容,从所有候选话术中确定与第一对话内容匹配的至少一个目标话术。将目标话术对应的候选语言风格,作为目标语言风格。
在一实施场景中,响应于每个候选话术对应有候选场景,智能分析模型通过确定第一对话内容对应的候选场景,从而获取与将该候选场景对应的候选话术,并将对应的候选语言风格作为上述目标语言风格。
需要说明的是,本申请对上述步骤A、步骤B和步骤C的执行顺序不作限定,其可以是在获取到用户当前输入的第一对话内容后同时执行的,或者按照一定的顺序依次执行。
S402:基于第一对话内容、个性信息、目标情绪、参考对话内容和目标语言风格,生成第二对话内容。
在一实施方式中,将第一对话内容、目标角色的个性信息、目标情绪、参考对话内容和目标语言风格分别输入至预设模板的相应位置,以生成任务文本,将该任务文本提供给大语言模型,并要求大语言模型根据该任务文本模仿目标角色输出第二对话内容,以对用户输入的第一对话内容进行回复。
请参阅图8,图8是本申请人机对话系统一实施方式的结构示意图。该人机对话系统包括相互耦接的获取模块10、输入模块20和回复模块30。
具体而言,获取模块10用于获取用户选择的目标角色;其中,目标角色对应有个性信息,个性信息是基于用户输入的多个类别的参考信息得到的。
输入模块20用于获取用户输入的第一对话内容。
回复模块30至少基于目标角色的个性信息和第一对话内容,生成用于回复第一对话内容的第二对话内容。
在一实施方式中,请继续参阅图8,本申请提出的人机对话系统还包括与获取模块10耦接的角色创建模块40。响应于上述目标角色为用户创建的已创建角色,角色创建模块40创建已创建角色的步骤包括:至少获取用户输入的多个基础类别对应的至少部分参考信息;其中,基础类别对应有多个基础项,参考信息包括用户于多个候选选项中选择的参考选项或用户输入的参考描述;基于参考信息,确定已创建角色于多个评价维度下的评价结果;其中,评价维度与预设的候选个性对应,评价结果用于表征已创建角色的个性信息与对应候选个性之间的相关程度;基于所有评价维度下的评价结果,确定个性信息,生成与个性信息相匹配的已创建角色。
在一实施场景中,响应于用户触发快速创建指令,角色创建模块40至少获取用户输入的多个基础类别对应的至少部分参考信息,包括:展示与快速创建指令匹配的多个基础类别;响应于用户选择基础类别,将用户选择的基础类别对应的至少部分基础项进行展示,获取用户输入的当前展示的基础项对应的参考信息。
在一实施场景中,响应于用户触发随机创建指令,角色创建模块40至少获取用户输入的多个基础类别对应的至少部分参考信息,包括:从多个候选选项中随机选择参考选项或随机生成参考描述,作为当前展示的基础项对应的参考信息。
在一实施场景中,响应于用户触发精确创建指令,角色创建模块40至少获取用户输入的多个基础类别对应的至少部分参考信息,包括:展示与精确创建指令匹配的多个基础类别和拓展类别;其中,拓展类别区别于基础类别,拓展类别对应有多个拓展项;响应于用户选择基础类别,将用户选择的基础类别对应的所有基础项进行展示,获取用户输入的当前展示的基础项对应的参考信息;响应于用户选择拓展类别,将用户选择的拓展类别对应的所有拓展项进行展示,获取用户输入的当前展示的拓展项对应的参考信息。
在一实施场景中,响应于用户选择已创建角色,角色创建模块40至少获取用户输入的多个基础类别对应的至少部分参考信息,包括:至少展示已创建角色对应的基础类别;其中,当已创建角色还设置有拓展类别时,拓展类别与基础类别一同展示,拓展类别区别于基础类别,拓展类别对应有多个拓展项;响应于用户选择基础类别,将用户选择的基础类别对应的至少部分基础项进行展示,获取用户调整的当前展示的至少部分基础项对应的参考信息;响应于用户选择拓展类别,将用户选择的拓展类别对应的所有拓展项进行展示,获取用户调整的当前展示的至少部分拓展项对应的参考信息。
在一实施场景中,请继续参阅图8,本申请提出的人机对话系统还包括与角色创建模块40耦接的共享模块50,响应于用户选择将已创建角色进行共享,该共享模块50用于将对应的已创建角色发布至共享区域;其中,共享区域内的所有已创建角色能够被任一访问共享区域的用户选择。
在一实施方式中,回复模块30至少基于目标角色的个性信息和第一对话内容,生成用于回复第一对话内容的第二对话内容,包括:获取与第一对话内容相匹配的目标情绪、参考对话内容和目标语言风格;其中,参考对话内容包括时序在第一对话内容之前的至少部分历史对话内容;基于第一对话内容、个性信息、目标情绪、参考对话内容和目标语言风格,生成第二对话内容。
在一实施场景中,请继续参阅图8,本申请提出的人机对话系统还包括与回复模块30耦接的信息采集模块60,该信息采集模块60用于获取第一对话内容之前与目标角色产生的至少部分历史对话内容,作为参考对话内容;以及,基于个性信息和第一对话内容,从多个候选情绪中选择一个候选情绪作为目标情绪;以及,基于第一对话内容,从多个候选语言风格中选择一个候选语言风格作为目标语言风格。
在一实施场景中,候选语言风格是基于与目标角色的个性信息匹配的多个候选话术得到的,且每个候选语言风格与至少部分候选话术匹配,信息采集模块60基于第一对话内容,从多个候选语言风格中选择一个候选语言风格作为目标语言风格,包括:基于第一对话内容,从所有候选话术中确定与第一对话内容匹配的至少一个目标话术;将目标话术对应的候选语言风格,作为目标语言风格。
请参阅图9,图9是本申请电子设备一实施方式的结构示意图。该电子设备包括:相互耦接的存储器70和处理器80。存储器70中存储有程序指令,处理器80用于执行程序指令以实现上述任一实施方式中提到的人机对话方法。具体地,电子设备包括但不限于:台式计算机、笔记本电脑、平板电脑、服务器等,在此不做限定。此外,处理器80还可以称为CPU(Center Processing Unit,中央处理单元)。处理器80可能是一种集成电路芯片,具有信号处理能力。处理器80还可以是、通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现场可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。另外,处理器80可以由集成电路芯片共同实现。
请参阅图10,图10是本申请计算机可读存储介质一实施方式的结构示意图,该计算机可读存储介质90上存储有能够被处理器运行的程序指令100,程序指令100被处理器执行时实现上述任一实施例中提到的人机对话方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的方法和装置,可以通过其它的方式实现。例如,以上所描述的装置实施方式仅仅是示意性的,例如,模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性、机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施方式方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或处理器(processor)执行本申请各个实施方式方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施方式,并非因此限制本申请的专利范围,凡是利用本申请说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本申请的专利保护范围内。
Claims (13)
1.一种人机对话方法,其特征在于,包括:
获取用户选择的目标角色;其中,所述目标角色对应有个性信息,所述个性信息是基于用户输入的多个类别的参考信息得到的;
获取用户输入的第一对话内容;
至少基于所述目标角色的所述个性信息和所述第一对话内容,生成用于回复所述第一对话内容的第二对话内容。
2.根据权利要求1所述的方法,其特征在于,所述目标角色为用户创建的已创建角色,所述已创建角色的创建步骤包括:
至少获取用户输入的多个基础类别对应的至少部分所述参考信息;其中,所述基础类别对应有多个基础项,所述参考信息包括用户于多个候选选项中选择的参考选项或用户输入的参考描述;
基于所述参考信息,确定所述已创建角色于多个评价维度下的评价结果;其中,所述评价维度与预设的候选个性对应,所述评价结果用于表征所述已创建角色的个性信息与对应所述候选个性之间的相关程度;
基于所有所述评价维度下的所述评价结果,确定所述个性信息,生成与所述个性信息相匹配的所述已创建角色。
3.根据权利要求2所述的方法,其特征在于,响应于用户触发快速创建指令,所述至少获取用户输入的多个基础类别对应的至少部分所述参考信息,包括:
展示与所述快速创建指令匹配的多个所述基础类别;
响应于用户选择所述基础类别,将用户选择的所述基础类别对应的至少部分所述基础项进行展示,获取用户输入的当前展示的所述基础项对应的所述参考信息。
4.根据权利要求3所述的方法,其特征在于,响应于用户触发随机创建指令,所述获取用户输入的当前展示的所述基础项对应的所述参考信息,包括:
从多个所述候选选项中随机选择所述参考选项或随机生成所述参考描述,作为当前展示的所述基础项对应的所述参考信息。
5.根据权利要求2所述的方法,其特征在于,响应于用户触发精确创建指令,所述至少获取用户输入的多个基础类别对应的至少部分所述参考信息,包括:
展示与所述精确创建指令匹配的多个所述基础类别和拓展类别;其中,所述拓展类别区别于所述基础类别,所述拓展类别对应有多个拓展项;
响应于用户选择所述基础类别,将用户选择的所述基础类别对应的所有所述基础项进行展示,获取用户输入的当前展示的所述基础项对应的所述参考信息;
响应于用户选择所述拓展类别,将用户选择的所述拓展类别对应的所有所述拓展项进行展示,获取用户输入的当前展示的所述拓展项对应的所述参考信息。
6.根据权利要求2所述的方法,其特征在于,响应于用户选择已创建角色,所述至少获取用户输入的多个基础类别对应的至少部分所述参考信息,包括:
至少展示所述已创建角色对应的基础类别;其中,当所述已创建角色还设置有拓展类别时,所述拓展类别与所述基础类别一同展示,所述拓展类别区别于所述基础类别,所述拓展类别对应有多个拓展项;
响应于用户选择所述基础类别,将用户选择的所述基础类别对应的至少部分所述基础项进行展示,获取用户调整的当前展示的至少部分所述基础项对应的所述参考信息;
响应于用户选择所述拓展类别,将用户选择的所述拓展类别对应的所有所述拓展项进行展示,获取用户调整的当前展示的至少部分所述拓展项对应的所述参考信息。
7.根据权利要求2所述的方法,其特征在于,所述基于所有所述评价维度下的所述评价结果,确定所述个性信息,生成与所述个性信息相匹配的所述已创建角色之后,包括:
响应于用户选择将所述已创建角色进行共享,将对应的所述已创建角色发布至共享区域;其中,所述共享区域内的所有所述已创建角色能够被任一访问所述共享区域的用户选择。
8.根据权利要求1所述的方法,其特征在于,所述至少基于所述目标角色的所述个性信息和所述第一对话内容,生成用于回复所述第一对话内容的第二对话内容,包括:
获取与所述第一对话内容相匹配的目标情绪、参考对话内容和目标语言风格;其中,所述参考对话内容包括时序在所述第一对话内容之前的至少部分历史对话内容;
基于所述第一对话内容、所述个性信息、所述目标情绪、所述参考对话内容和所述目标语言风格,生成所述第二对话内容。
9.根据权利要求8所述的方法,其特征在于,所述获取与所述第一对话内容相匹配的目标情绪、参考对话内容和目标语言风格,包括:
获取所述第一对话内容之前与所述目标角色产生的至少部分所述历史对话内容,作为所述参考对话内容;以及,
基于所述个性信息和所述第一对话内容,从多个候选情绪中选择一个所述候选情绪作为所述目标情绪;以及,
基于所述第一对话内容,从多个候选语言风格中选择一个所述候选语言风格作为所述目标语言风格。
10.根据权利要求9所述的方法,其特征在于,所述候选语言风格是基于与所述目标角色的所述个性信息匹配的多个候选话术得到的,且每个所述候选语言风格与至少部分所述候选话术匹配,所述基于所述第一对话内容,从多个候选语言风格中选择一个所述候选语言风格作为所述目标语言风格,包括:
基于所述第一对话内容,从所有所述候选话术中确定与所述第一对话内容匹配的至少一个目标话术;
将所述目标话术对应的所述候选语言风格,作为所述目标语言风格。
11.一种人机对话系统,其特征在于,包括:
获取模块,用于获取用户选择的目标角色;其中,所述目标角色对应有个性信息,所述个性信息是基于用户输入的多个类别的参考信息得到的;
输入模块,用于获取用户输入的第一对话内容;
回复模块,至少基于所述目标角色的所述个性信息和所述第一对话内容,生成用于回复所述第一对话内容的第二对话内容。
12.一种电子设备,其特征在于,包括:相互耦接的存储器和处理器,所述存储器中存储有程序指令,所述处理器用于执行所述程序指令以实现如权利要求1至10中任一项所述的人机对话方法。
13.一种计算机可读存储介质,其上存储有程序指令,其特征在于,所述程序指令被处理器执行时实现如权利要求1至10中任一项所述的人机对话方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311385141.5A CN117520490A (zh) | 2023-10-23 | 2023-10-23 | 一种人机对话方法、系统以及相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311385141.5A CN117520490A (zh) | 2023-10-23 | 2023-10-23 | 一种人机对话方法、系统以及相关装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117520490A true CN117520490A (zh) | 2024-02-06 |
Family
ID=89759701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311385141.5A Pending CN117520490A (zh) | 2023-10-23 | 2023-10-23 | 一种人机对话方法、系统以及相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117520490A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117909483A (zh) * | 2024-03-19 | 2024-04-19 | 巽风科技(贵州)有限公司 | 个性化对话方法、系统、设备及介质 |
CN117909483B (zh) * | 2024-03-19 | 2024-06-28 | 巽风科技(贵州)有限公司 | 个性化对话方法、系统、设备及介质 |
-
2023
- 2023-10-23 CN CN202311385141.5A patent/CN117520490A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117909483A (zh) * | 2024-03-19 | 2024-04-19 | 巽风科技(贵州)有限公司 | 个性化对话方法、系统、设备及介质 |
CN117909483B (zh) * | 2024-03-19 | 2024-06-28 | 巽风科技(贵州)有限公司 | 个性化对话方法、系统、设备及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10809876B2 (en) | Virtual assistant conversations | |
CN110019752B (zh) | 多方向对话 | |
KR102457486B1 (ko) | 인터랙티브 다이얼로그 시스템을 위한 감정 유형 분류 | |
EP3095113B1 (en) | Digital personal assistant interaction with impersonations and rich multimedia in responses | |
US20200125920A1 (en) | Interaction method and apparatus of virtual robot, storage medium and electronic device | |
CN113256768A (zh) | 将文本用作头像动画 | |
CN110188177A (zh) | 对话生成方法及装置 | |
US20180342095A1 (en) | System and method for generating virtual characters | |
CN110998725A (zh) | 在对话中生成响应 | |
JP2018014094A (ja) | 仮想ロボットのインタラクション方法、システム及びロボット | |
CN111145777A (zh) | 一种虚拟形象展示方法、装置、电子设备及存储介质 | |
WO2015153878A1 (en) | Modeling social identity in digital media with dynamic group membership | |
Nayebi et al. | An expert-based framework for evaluating ios application usability | |
CN112750187A (zh) | 一种动画生成方法、装置、设备及计算机可读存储介质 | |
WO2021157595A1 (ja) | コンテンツ作成支援システム | |
CN113038053A (zh) | 一种数据合成方法、装置、电子设备以及存储介质 | |
CN117352132A (zh) | 心理辅导方法、装置、设备及存储介质 | |
CN113409791A (zh) | 语音识别处理方法、装置、电子设备及存储介质 | |
Wang et al. | Virtuwander: Enhancing multi-modal interaction for virtual tour guidance through large language models | |
CN115963963A (zh) | 互动小说生成方法、呈现方法、装置、设备及介质 | |
US20220301250A1 (en) | Avatar-based interaction service method and apparatus | |
CN117520490A (zh) | 一种人机对话方法、系统以及相关装置 | |
CN113987142A (zh) | 与虚拟人偶的语音智能交互方法、装置、设备及存储介质 | |
KR20190074558A (ko) | 사물 의인화 및 사물 컨텍스트를 이용한 인공지능 대화 방법 및 시스템 | |
CN113470614A (zh) | 语音生成方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |