CN115440232A - 笑话段子处理方法、装置、电子设备及计算机存储介质 - Google Patents
笑话段子处理方法、装置、电子设备及计算机存储介质 Download PDFInfo
- Publication number
- CN115440232A CN115440232A CN202211388797.8A CN202211388797A CN115440232A CN 115440232 A CN115440232 A CN 115440232A CN 202211388797 A CN202211388797 A CN 202211388797A CN 115440232 A CN115440232 A CN 115440232A
- Authority
- CN
- China
- Prior art keywords
- user
- type
- information
- determining
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 17
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 230000003993 interaction Effects 0.000 claims abstract description 55
- 238000000034 method Methods 0.000 claims abstract description 54
- 238000012545 processing Methods 0.000 claims abstract description 24
- 230000008451 emotion Effects 0.000 claims description 94
- 238000011156 evaluation Methods 0.000 claims description 46
- 238000009826 distribution Methods 0.000 claims description 40
- 230000002996 emotional effect Effects 0.000 claims description 19
- 238000004590 computer program Methods 0.000 claims description 18
- 238000013507 mapping Methods 0.000 claims description 16
- 230000015654 memory Effects 0.000 claims description 16
- 230000008859 change Effects 0.000 claims description 11
- 230000008921 facial expression Effects 0.000 claims description 8
- 230000009471 action Effects 0.000 claims description 5
- 238000007405 data analysis Methods 0.000 claims description 5
- 230000014509 gene expression Effects 0.000 claims description 5
- 230000000241 respiratory effect Effects 0.000 claims description 5
- 230000006399 behavior Effects 0.000 claims description 4
- 239000000203 mixture Substances 0.000 claims description 2
- 230000008569 process Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 230000002452 interceptive effect Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 5
- 238000012216 screening Methods 0.000 description 4
- 230000037308 hair color Effects 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 241001635598 Enicostema Species 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000000699 topical effect Effects 0.000 description 2
- 230000032683 aging Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/24—Speech recognition using non-acoustical features
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Signal Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请公开了一种笑话段子处理方法、装置、电子设备及计算机存储介质,涉及互联网产业的一般数据处理技术领域。该方法包括:接收用户输入语句;根据用户输入语句确定用户的需求为笑话段子服务;判断用户是否首次使用笑话段子服务;若是则向终端设备发送至少一个第一类声音作品并通过对话询问方式确定用户喜好的作品幽默类型;若否则获取预存的用户喜好的作品幽默类型;获取用户针对其他人机互动服务的历史使用记录;根据历史使用记录确定至少一个参考服务项目;根据用户喜好的作品幽默类型、至少一个参考服务项目以及用户的基础信息,确定第二类声音作品;并向终端设备发送第二类声音作品。本方法可以提高笑话段子与用户需求之间的匹配度。
Description
技术领域
本发明涉及互联网产业的一般数据处理技术领域,尤其涉及一种笑话段子处理方法、装置、电子设备及计算机存储介质。
背景技术
随着互联网产业的发展,越来越多的智能交互产品给人们提供了更多样化的娱乐生活方式,例如,智能交互产品可以在与用户对话的过程中向用户输出不同的笑话段子,丰富人们的日常生活。
目前,智能交互产品通常配置有预存的笑话段子,在用户需要获取笑话段子时,该智能交互产品会向用户随机输出预存的笑话段子。
但由于通过以上方法输出的笑话段子具有较大的随机性,可能会使输出的笑话段子不能满足用户的需求,导致输出的笑话段子与用户需求之间的匹配度较低。
发明内容
本申请实施例公开了一种笑话段子处理方法、装置、电子设备及计算机存储介质,以期提高笑话段子与用户需求之间的匹配度。
第一方面,本申请实施例提供了一种笑话段子处理方法,包括:应用于人机互动综合服务系统中的服务器,所述人机互动综合服务系统包括所述服务器和终端设备,所述服务器设置有人机互动引擎;所述方法包括:调用所述人机互动引擎接收来自所述终端设备的用户输入语句;根据所述用户输入语句确定用户的需求为笑话段子服务,所述笑话段子服务是指为所述用户推送具有幽默属性的声音作品;判断所述用户是否首次使用所述笑话段子服务;若是,则向所述终端设备发送至少一个第一类声音作品;并通过对话询问方式确定所述用户喜好的作品幽默类型;若否,则获取预存的所述用户喜好的作品幽默类型;获取所述用户针对其他人机互动服务的历史使用记录,所述其他人机互动服务是指所述人机互动综合服务系统提供的除所述笑话段子服务之外的服务;根据所述历史使用记录确定所述用户在过去预设时段内亲历的至少一个参考服务项目;根据所述用户喜好的作品幽默类型、所述至少一个参考服务项目以及所述用户的基础信息,确定适配所述用户的第二类声音作品;并向所述终端设备发送所述第二类声音作品。
在本申请实施例中,在用户首次使用人机互动综合服务系统中的笑话段子服务时,可通过向用户输出一个或多个第一类声音作品的形式,向用户展示某个或某些幽默类型的笑话段子以供用户体验其幽默属性,并通过对话询问方式与用户对话交互,可确定用户喜好的作品幽默类型。而在用户非首次使用该笑话段子服务时,可通过在过去时间段用户使用该笑话段子服务时预存的作品幽默类型,确定该用户喜好的作品幽默类型。进一步地,本方法按照用户喜好的作品幽默类型输出的笑话段子,可缩小适配该用户的笑话段子的选择范围,结合用户在人机互动综合服务系统中亲自参与过的至少一个参考服务项目和该用户的基本信息确定输出的笑话段子,可以实现为用户提供定制化的声音作品,因此,相较于向用户随机输出预存的笑话段子,本方法可以提高输出的笑话段子(或称声音作品)与用户需求之间的匹配度。
在第一方面一个可能的实施方式中,所述通过对话询问方式确定所述用户喜好的作品幽默类型包括:向所述终端设备发送询问信息,所述询问信息用于提示所述用户对所述第一类声音作品进行评价;接收来自所述终端设备的用户反馈信息,所述用户反馈信息包括所述用户输入的对所述第一类声音作品的满意度评价;若所述用户反馈信息中的所述满意度评价指示所述用户满意所述第一类声音作品,则标记所述第一类声音作品对应的幽默类型,并根据所述幽默类型确定所述用户喜好的作品幽默类型;若所述用户反馈信息中的所述满意度评价指示所述用户不满意所述第一类声音作品,则获取所述满意度评价对应的评价理由,并根据所述评价理由更新所述第一类声音作品。
在本实施例中,若用户满意上述第一类声音作品,则可按照该用户满意的第一类声音作品对应的幽默类型确定该用户喜好的作品幽默类型,对应的,后续可以按照该作品幽默类型向该用户输出相同类型的声音作品。若用户不满意上述第一类声音作品,则可获取用户输入的评价理由确定该用户不满意该第一类声音作品的原因,即可进一步确定当前用户对输出笑话段子的需求,因此可按照该评价理由更新第一类声音作品,直至可确定用户喜好的作品幽默类型。
在第一方面一个可能的实施方式中,所述根据所述用户喜好的作品幽默类型、所述至少一个参考服务项目以及所述用户的基础信息,确定适配所述用户的第二类声音作品包括:根据所述用户喜好的作品幽默类型确定作品生成原理;根据所述至少一个参考服务项目和所述用户的基础信息,确定作品生成背景;根据所述作品生成原理和所述作品生成背景,确定适配所述用户的第二类声音作品。
在本实施例中,上述作品生成背景用于确定上述第二类声音作品对应的作品内容。示例性的,通过对上述至少一个参考服务项目和上述用户的基础信息进行解构重组,可从提取出生成笑话段子所需的各种内容,该各种内容可包含于上述作品生成背景。并且通过确定该用户喜好的作品幽默类型对应的作品生成原理,可以建立起上述作品生成背景中包含的各种内容之间的联系,以便于更为准确地为该用户生成逻辑清晰且适配于该用户的第二类声音作品。进一步地,有助于实现第二类声音作品的批量输出,灵活适用用户对笑话段子数量的不同需求。
在第一方面一个可能的实施方式中,所述根据所述作品生成原理和所述作品生成背景,确定适配所述用户的第二类声音作品包括:根据所述作品生成原理和所述作品生成背景,确定至少一个脚本,所述至少一个脚本包含虚假差异对,所述虚假差异对与两个字面相同且含义不同的词语对应;根据所述至少一个脚本,确定适配所述用户的第二类声音作品。
在本实施例中,上述字面相同可以是字形和/或字音全部或局部相同,也可以是字面对应的对象相同或相似,示例性的,该对象可以是动作或物品。可以理解的,根据上述至少一个脚本可生成至少一个上述第二类声音作品,相同的脚本可以对应多个不同的第二类声音作品。本方法通过确定好的作品生成原理和作品生成背景,可以确定笑话段子对应的内容框架,即上述至少一个脚本,最后根据该至少一个脚本确定适配该用户的第二类声音作品,提高笑话段子的输出效率。
在第一方面一个可能的实施方式中,所述根据所述至少一个参考服务项目和所述用户的基础信息,确定作品生成背景包括:在信息源许可的情况下,从所述信息源获取与所述至少一个参考服务项目和所述用户的基础信息关联的热门话题,所述热门话题根据在指定时间段所述信息源包含的每个话题对应的话题讨论量确定,所述话题讨论量用于表示话题的讨论人次;判断所述热门话题是否为娱乐话题;若是,则根据所述热门话题确定所述作品生成背景;若否,则更新所述热门话题。
在本实施例中,结合与上述至少一个参考服务项目和上述用户的基础信息关联的热门话题确定上述作品生成背景,可实现在向用户定制化输出笑话段子的过程中,为用户提供更多相关的资料和信息,引导用户紧跟时事和增长见闻,便于用户在娱乐的同时通过该第二类声音作品对应的内容进行更深层次的挖掘和思考。此外,鉴于笑话段子本身的娱乐性质,本方法还通过话题筛选,判断上述热门话题是否是娱乐话题,若是则根据该热门话题生成上述作品生成背景,若否则更换其他的热门话题,以便于避免严肃话题娱乐化。
在第一方面一个可能的实施方式中,在所述判断所述热门话题是否为娱乐话题之前,所述方法还包括:获取与所述热门话题关联的讨论内容;对所述讨论内容进行数据分析,确定所述热门话题对应的态度倾向的分布信息,所述态度倾向用于表示参与讨论所述热门话题的人群的态度,所述态度倾向包括娱乐型倾向和非娱乐型倾向,所述分布信息用于指示所述娱乐型倾向和非娱乐型倾向的分布比例;所述判断所述热门话题是否为娱乐话题包括:若所述分布信息指示所述娱乐型倾向所占分布比例大于所述非娱乐型倾向所占比例,则确定所述热门话题为所述娱乐话题;若所述分布信息指示所述娱乐型倾向所占分布比例小于所述非娱乐型倾向所占比例,则确定所述热门话题非所述娱乐话题。
在本实施例中,示例性的,上述讨论内容可以是该热门话题对应的网络评论和文章。本方法通过对上述热门话题对应的讨论内容进行分析,可以确定参与讨论该热门话题的人群的态度倾向的分布信息,根据该分布信息指示的娱乐型倾向和非娱乐型倾向所占比例的大小,确定上述人群对于该热门话题的态度,便于确定该热门话题是否是娱乐话题。
在第一方面一个可能的实施方式中,在所述向所述终端设备发送所述第二类声音作品之前,所述方法还包括:获取来自所述终端设备的用户模态信息,所述用户模态信息用于指示所述用户的外部行为表现信息和生理变化信息中的一项或两项,所述外部行为表现信息包括语气信息、面部表情信息和肢体动作信息中的任意一项或多项,所述生理变化信息包括脉搏波信息、呼吸信息和温度信息中的任意一项或多项;提取所述用户模态信息对应的情绪特征;将所述情绪特征匹配用户情绪映射表,并根据匹配结果确定所述用户的情绪状态;所述用户情绪映射表存储有情绪特征与情绪类别之间的映射关系;对所述第二类声音作品进行情感分类,确定所述第二类声音作品对应的情感类型;所述向所述终端设备发送所述第二类声音作品包括:在所述情感类型与所述情绪状态匹配的情况下,向所述终端设备发送所述第二类声音作品。
在本实施例中,示例性的,上述情绪状态包括积极情绪或消极情绪,上述第二类声音作品对应的情感类型包括正向情感或负向情感。当上述情绪状态为积极情绪时,与该情绪状态匹配的第二类声音作品的情感类型可以是正向情感或负向情感,当上述情绪状态为消极情绪时,与该情绪状态匹配的第二类声音作品的情感类型是正向情感。本方法可实现在用户情绪状态为积极情绪时向该用户输出包含正向情感或负向情感的第二类声音作品,以起到情绪增强或情绪缓解的作用,在用户情绪状态为消极情绪时向该用户输出包含正向情感的第二类声音作品,以起到情绪正向引导的作用。
第二方面,本申请实施例提供了一种笑话段子处理装置,应用于人机互动综合服务系统中的服务器,所述人机互动综合服务系统包括所述服务器和终端设备,所述服务器设置有人机互动引擎;所述装置包括:第一接收单元,用于调用所述人机互动引擎接收来自所述终端设备的用户输入语句;第一确定单元,用于根据所述用户输入语句确定用户的需求为笑话段子服务,所述笑话段子服务是指为所述用户推送具有幽默属性的声音作品;第一判断单元,用于判断所述用户是否首次使用所述笑话段子服务;第一发送单元,用于在所述用户首次使用所述笑话段子服务的情况下,向所述终端设备发送至少一个第一类声音作品;第二确定单元,用于通过对话询问方式确定所述用户喜好的作品幽默类型;第一获取单元,用于在所述用户非首次使用所述笑话段子服务的情况下,获取预存的所述用户喜好的作品幽默类型;第二获取单元,用于获取所述用户针对其他人机互动服务的历史使用记录,所述其他人机互动服务是指所述人机互动综合服务系统提供的除所述笑话段子服务之外的服务;第三获取单元,用于根据所述历史使用记录确定所述用户在过去预设时段内亲历的至少一个参考服务项目;第三确定单元,用于根据所述用户喜好的作品幽默类型、所述至少一个参考服务项目以及所述用户的基础信息,确定适配所述用户的第二类声音作品;第二发送单元,用于向所述终端设备发送所述第二类声音作品。
在第二方面一个可能的实施方式中,所述第一发送单元,还用于向所述终端设备发送询问信息,所述询问信息用于提示所述用户对所述第一类声音作品进行评价;所述装置还包括:第二接收单元,用于接收来自所述终端设备的用户反馈信息,所述用户反馈信息包括所述用户输入的对所述第一类声音作品的满意度评价;所述第二确定单元,还用于在所述用户反馈信息中的所述满意度评价指示所述用户满意所述第一类声音作品的情况下,标记所述第一类声音作品对应的幽默类型,并根据所述幽默类型确定所述用户喜好的作品幽默类型;在所述用户反馈信息中的所述满意度评价指示所述用户不满意所述第一类声音作品的情况下,则获取所述满意度评价对应的评价理由,并根据所述评价理由更新所述第一类声音作品。
在第二方面一个可能的实施方式中,所述第三确定单元,还用于根据所述用户喜好的作品幽默类型确定作品生成原理;所述第三确定单元,还用于根据所述至少一个参考服务项目和所述用户的基础信息,确定作品生成背景;所述第三确定单元,还用于根据所述作品生成原理和所述作品生成背景,确定适配所述用户的第二类声音作品。
在第二方面一个可能的实施方式中,所述第三确定单元,还用于根据所述作品生成原理和所述作品生成背景,确定至少一个脚本,所述至少一个脚本包含虚假差异对,所述虚假差异对与两个字面相同且含义不同的词语对应;所述第三确定单元,还用于根据所述至少一个脚本,确定适配所述用户的第二类声音作品。
在第二方面一个可能的实施方式中,所述第三获取单元,还用于在信息源许可的情况下,从所述信息源获取与所述至少一个参考服务项目和所述用户的基础信息关联的热门话题,所述热门话题根据在指定时间段所述信息源包含的每个话题对应的话题讨论量确定,所述话题讨论量用于表示话题的讨论人次;所述装置还包括:第二判断单元,用于判断所述热门话题是否为娱乐话题;所述第三确定单元,还用于在所述热门话题为所述娱乐话题的情况下,根据所述热门话题确定所述作品生成背景;在所述热门话题非所述娱乐话题的情况下,则更新所述热门话题。
在第二方面一个可能的实施方式中,所述第三获取单元,还用于获取与所述热门话题关联的讨论内容;所述装置还包括:第四确定单元,用于对所述讨论内容进行数据分析,确定所述热门话题对应的态度倾向的分布信息,所述态度倾向用于表示参与讨论所述热门话题的人群的态度,所述态度倾向包括娱乐型倾向和非娱乐型倾向,所述分布信息用于指示所述娱乐型倾向和非娱乐型倾向的分布比例;所述第二判断单元,还用于在所述分布信息指示所述娱乐型倾向所占分布比例大于所述非娱乐型倾向所占比例的情况下,确定所述热门话题为所述娱乐话题;在所述分布信息指示所述娱乐型倾向所占分布比例小于所述非娱乐型倾向所占比例的情况下,确定所述热门话题非所述娱乐话题。
在第二方面一个可能的实施方式中,第四获取单元,用于获取来自所述终端设备的用户模态信息,所述用户模态信息用于指示所述用户的外部行为表现信息和生理变化信息中的一项或两项,所述外部行为表现信息包括语气信息、面部表情信息和肢体动作信息中的任意一项或多项,所述生理变化信息包括脉搏波信息、呼吸信息和温度信息中的任意一项或多项;所述第三确定单元,还用于提取所述用户模态信息对应的情绪特征;所述第三确定单元,还用于将所述情绪特征匹配用户情绪映射表,并根据匹配结果确定所述用户的情绪状态;所述用户情绪映射表存储有情绪特征与情绪类别之间的映射关系;所述第三确定单元,还用于对所述第二类声音作品进行情感分类,确定所述第二类声音作品对应的情感类型;所述第二发送单元,还用于在所述情感类型与所述情绪状态匹配的情况下,向所述终端设备发送所述第二类声音作品。
关于第二方面以及第二方面中任意一个可能的实施方式所带来的技术效果,可参考对应于第一方面以及第一方面中相应的实施方式的技术效果的介绍。
第三方面,本申请实施例提供了一种电子设备,上述电子设备包括:
存储器,用于存储程序;
处理器,用于执行上述存储器存储的上述程序,在上述程序被上述处理器执行的情况下,上述处理器执行如第一方面中任意一个可能的实施方式中的方法。
第四方面,本申请实施例提供了一种计算机存储介质,上述计算机存储介质中存储有计算机程序,上述计算机程序包括程序指令,在上述程序指令被处理器执行的情况下,上述处理器执行如第一方面以及第一方面中任意一个可能的实施方式中的方法。
第五方面,本申请实施例提供了一种计算机程序产品,上述计算机程序产品包括:指令或计算机程序;在上述指令或上述计算机程序被执行的情况下,使如第一方面以及第一方面中任意一个可能的实施方式中的方法实现。
第六方面,本申请实施例提供了一种芯片,上述芯片包括处理器,上述处理器用于执行指令,在上述处理器执行上述指令的情况下,使得上述芯片执行如第一方面以及第一方面中任意一个可能的实施方式中的方法。可选的,上述芯片还包括输入/输出接口,上述输入/输出接口用于接收信号或发送信号。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍。
图1为本申请实施例提供的一种笑话段子处理方法的流程示意图;
图2为本申请实施例提供的一种笑话段子处理方法的应用场景示意图;
图3为本申请实施例提供的另一种笑话段子处理方法的应用场景示意图;
图4为本申请实施例提供的另一种笑话段子处理方法的流程示意图;
图5为本申请实施例提供的一种笑话段子处理装置的结构示意图;
图6为本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图对本申请实施例进行描述。
本申请的说明书、权利要求书及附图中的术语“第一”和“第二”等是用于区别不同对象,而不是用于描述特定顺序。此外,术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或单元的过程、方法、系统、产品或设备等,没有限定于已列出的步骤或单元,而是可选地还包括没有列出的步骤或单元等,或可选地还包括对于这些过程、方法、产品或设备等固有的其它步骤或单元。
在本文中提及的“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员可以显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上,“至少两个(项)”是指两个或三个及三个以上,“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
目前,在用户需要通过智能交互产品获取笑话段子时,该智能交互产品往往会向用户随机输出一个预存的笑话段子,可能会使输出的笑话段子不能满足用户的需求,导致输出的笑话段子与用户需求之间的匹配度较低。
针对以上问题,本申请实施例提供了一种笑话段子处理方法、装置、电子设备及计算机存储介质,可以提高输出的笑话段子与用户需求之间的匹配度。
下面将结合本申请实施例中的附图对上述笑话段子处理方法进行介绍。
请参阅图1,图1是本申请实施例提供的一种笑话段子处理方法的流程示意图。如图1所示,上述笑话段子处理方法可应用于人机互动综合服务系统中的服务器,上述人机互动综合服务系统包括上述服务器和终端设备,上述服务器设置有人机互动引擎,该方法包括以下步骤:
S101、服务器调用人机互动引擎接收来自终端设备的用户输入语句,根据上述用户输入语句确定用户的需求为笑话段子服务。
上述笑话段子服务是指为上述用户推送具有幽默属性的声音作品。上述用户输入语句可以是用户通过上述终端设备输入的文本数据或语音数据。在上述用户输入语句为文本数据的情况下,该文本数据可以包含文字、图片或二者的结合。在上述用户输入语句为语音数据的情况下,上述服务器可对该语音数据进行语音转文本操作,获取该语音数据对应的文本数据。示例性的,上述服务器可对上述用户输入语句对应的文本数据进行分析(如关键字匹配或语义识别),提取该用户输入语句所指示的用户的需求,通过需求筛选可以确定当前用户的需求为笑话段子服务。
S102、服务器判断上述用户是否首次使用上述笑话段子服务。
示例性的,上述服务器可以通过访问该用户对上述笑话段子服务的使用记录确定该用户是否是首次使用该笑话段子服务,该使用记录可与该用户的个人账号绑定,该个人账号可以是电话号码或即时通讯账号。可理解的,若该使用记录指示该用户首次使用该笑话段子服务,则执行S103,若该使用记录指示该用户不是首次使用该笑话段子服务,则执行S104。
S103、服务器向上述终端设备发送至少一个第一类声音作品,并通过对话询问方式确定上述用户喜好的作品幽默类型。
上述第一类声音作品用于确定上述用户喜好的幽默类型,示例性的,该第一类声音作品的内容可以包含语言文字,如该第一类声音作品可以是通过文字描述呈现出其内容中包含的短篇故事和对话,并在终端设备侧以语音的形式呈现给用户。或者,该第一类声音作品可以包含图像,如该第一类声音作品可以是通过视频流呈现出其内容,并在终端设备侧调用默认的视频播放软件呈现给用户。或者,该第一类声音作品可以包含图像和文字的结合,如该第一类声音作品可以是通过图片呈现出其内容,并以文字对该内容进行辅助性说明,并在终端设备侧调用默认的视频播放软件呈现给用户,或在终端设备侧通过语音的方式呈现给用户。
示例性的,上述用户喜好的作品幽默类型包括以下任意至少一种:冷笑话、双关语、歇后语、谐音梗、脱口秀。
可理解的,在用户首次使用人机互动综合服务系统中的笑话段子服务时,可通过向用户输出一个或多个第一类声音作品的形式,向用户展示某个或某些幽默类型的笑话段子以供用户体验其幽默属性,并通过对话询问方式与用户对话交互,可确定用户喜好的作品幽默类型。
例如,上述服务器可以一次向上述终端设备发送一个第一类声音作品,通过对话询问方式确定当前用户对该第一类声音作品的喜好倾向。若通过对话询问确定用户喜好该第一类声音作品,则可通过该第一类声音作品对应的作品类型,确定该用户喜好的作品幽默类型。或者,若通过对话询问确定当前用户喜好该第一类声音作品,则可按照相同的方式,向该终端设备发送与该第一类声音作品类型相同的其它声音作品,进一步确认该用户对该类型的声音作品的喜好倾向,提高用户喜好的作品幽默类型的判断准确度。
例如,上述服务器也可以一次向上述终端设备发送多个第一类声音作品,通过对话询问方式确定当前用户对该多个第一类声音作品的喜好倾向。在通过对话询问确定用户对每个第一类声音作品的喜好倾向时,若在该多个第一类声音作品中,用户喜欢的声音作品所占比例较大,则可通过该用户喜欢的声音作品确定用户喜好的作品幽默类型。若用户喜欢的声音作品所占比例较小,则可按照与该用户的对话内容更新上述第一类声音作品。
可选的,上述S103中示出的通过对话询问方式确定上述用户喜好的作品幽默类型可以包括以下步骤:
S1031、服务器向上述终端设备发送询问信息,上述询问信息用于提示上述用户对上述第一类声音作品进行评价。
示例性的,上述询问信息可以是用户强感知的信息,如上述询问信息可作为文本信息显示在人机互动引擎与用户的对话界面上,也可作为语音信息在终端设备上播放给用户,对应的,用户在感知到上述询问信息之后,可通过输入文字或语音的方式对上述第一类声音作品进行评价。上述询问信息也可以是用户弱感知的信息,如上述询问信息可通过文字和/或图标的形式显示在第一类声音作品对应的消息框的四周的任意位置,对应的,用户在感知到上述询问信息之后,可通过输入文字、输入语音、和/或点击图标的方式对上述第一类声音作品作出评价。
S1032、服务器接收来自上述终端设备的用户反馈信息,上述用户反馈信息包括上述用户输入的对上述第一类声音作品的满意度评价。
示例性的,在用户通过输入文字、输入语音、和/或点击图标的方式对上述第一类声音作品作出评价之后,终端设备或服务器可将该文字、语音和/或被点击的图标对应的评价信息转化成上述用户反馈信息。
S1033、若上述用户反馈信息中的上述满意度评价指示上述用户满意上述第一类声音作品,则标记上述第一类声音作品对应的幽默类型,并根据上述幽默类型确定上述用户喜好的作品幽默类型;若上述用户反馈信息中的上述满意度评价指示上述用户不满意上述第一类声音作品,则获取上述满意度评价对应的评价理由,并根据上述评价理由更新上述第一类声音作品。
示例性的,服务器在确定该用户不满意上述第一类声音作品的情况下,再向终端设备发送信息,该信息指示用户输入不满意该作品的原因,对应的,接收终端设备发送的上述评价理由。
或者,上述评价理由也可包含于上述用户反馈信息中。请参阅图2,图2是本申请实施例提供的一种笑话段子处理方法的应用场景示意图。
如图2所示,用户可通过终端设备上的交互界面实现与服务器中设置的人机互动引擎互动,可理解,在该交互界面上,“U”表示用户,当用户输入语句为“讲个笑话吧。”,终端设备可将该用户输入语句发送给服务器,对应的服务器调用人机互动引擎接收该用户输入语句。“S”表示服务器/人机互动引擎,在服务器接收到该用户输入语句之后,可识别到该用户的需求为笑话段子服务,并发送第一类声音作品“先在桌子上放个笔记本,然后把你的下巴放在你笔记本上,好了,这是我送你的礼物——笔记本垫脑。”,此时可向用户的终端设备发送询问信息“提示:为了给您提供更合适的笑话段子,请您评价该第一类声音作品,如满意/不满意,满意/不满意的理由。”,指示用户对该第一类声音作品进行评价,如用户在终端设备上输入用户反馈信息“不满意,内容太长”,可理解的,该用户反馈信息包括了满意度评价“不满意”和评价理由“内容太长”,对应的,服务器可根据该用户反馈信息中包含的评价理由更新内容较短的第一类声音作品“问:A和C谁高。答:C,因为A、B、C、D”。可理解的,在如图2所示的应用场景中,为了便于理解,机器输出的声音作品和用户输入的信息均以文字表示,实际上以上内容还可以对应于语音、图像等形式,在此不作限定。
可选的,若上述评价理由为空(如该用户未输入该不满意该作品的原因),则可默认该用户不满意该声音作品的原因为不喜好该作品对应的幽默类型。
可理解的,更新后的第一类声音作品与更新前的第一类声音作品对应的幽默类型可以是相同的,也可以是不同的。例如,假设上述第一类声音作品对应的幽默类型为谐音梗,上述满意度评价指示该用户不满意该第一类声音作品,且用户输入的评价理由为“笑话太长了”,则后续可向该用户推荐相同幽默类型的且文本较短的声音作品,若用户输入的评价理由为“不想听谐音梗”,则后续可更换除谐音梗之外的其他幽默类型的声音作品并输出给用户。
示例性的,上述满意度评价还可以通过分值表示,相应的,在服务器中可按照预设的满意度划分规则设置不同的用户满意度等级,每个用户满意度等级对应若干个评分数值,可通过确定上述满意度评价对应的满意度等级,然后确定用户是否满意当前声音作品,具体如,若高于某个用户满意度等级,则可认为用户满意当前声音作品,否则可认为用户不满意当前声音作品。
在本实施例中,若用户满意上述第一类声音作品,则可按照该用户满意的第一类声音作品对应的幽默类型确定该用户喜好的作品幽默类型,对应的,后续可以按照该作品幽默类型向该用户输出相同类型的声音作品。若用户不满意上述第一类声音作品,则可获取用户输入的评价理由确定该用户不满意该第一类声音作品的原因,即可进一步确定当前用户对输出笑话段子的需求,因此可按照该评价理由更新第一类声音作品,直至可确定用户喜好的作品幽默类型。
S104、服务器获取预存的上述用户喜好的作品幽默类型。
可理解的,在用户非首次使用该笑话段子服务时,可通过在过去时间段用户使用该笑话段子服务时预存的作品幽默类型,确定该用户喜好的作品幽默类型。示例性的,服务器可以按照时间顺序,存储该用户在不同时间段喜好的作品幽默类型,服务器可以选择与接收上述用户输入语句的时间最接近的时间段对应的作品幽默类型,作为上述用户喜好的作品幽默类型。
S105、服务器获取上述用户针对其他人机互动服务的历史使用记录。
上述其他人机互动服务是指上述人机互动综合服务系统提供的除上述笑话段子服务之外的服务。
S106、服务器根据上述历史使用记录确定上述用户在过去预设时段内亲历的至少一个参考服务项目。
示例性的,若上述历史使用记录对应的账号信息或设备信息指示当前服务用户为上述用户,则可表示上述历史使用记录对应的参考服务项目是上述用户亲历的。
S107、服务器根据上述用户喜好的作品幽默类型、上述至少一个参考服务项目以及上述用户的基础信息,确定适配上述用户的第二类声音作品。
示例性的,上述参考服务项目可以是观看影视作品、收听音乐作品、导航或订票。
应当理解,上述用户的基础信息是在该用户允许的情况下获得的,示例性的,该基础信息可以是该用户在首次使用上述人机互动综合服务系统时的注册信息,也可以是该用户在使用上述人机互动综合服务系统的过程中录入的个人信息,还可以是与该人机互动综合服务系统数据互通的第三方平台中存储的用户信息。
S108、服务器向终端设备发送上述第二类声音作品。
在本申请实施例中,按照用户喜好的作品幽默类型输出的笑话段子,可缩小适配该用户的笑话段子的选择范围,结合用户在人机互动综合服务系统中亲自参与过的至少一个参考服务项目和该用户的基本信息确定输出的笑话段子,可以实现为用户提供定制化的声音作品,因此,相较于向用户随机输出预存的笑话段子,本方法可以提高输出的笑话段子(或称声音作品)与用户需求之间的匹配度。
可选的,若上述用户喜好的作品幽默类型包含多种,对应的,基于S107确定的第二类声音作品也可以有多个。示例性的,若上述用户喜好的作品幽默类型包含多种,则可按照在服务器中预设的幽默类型的优先级生成相应的声音作品。或者,在该用户不是首次使用该笑话段子服务的情况下,获取该用户历史使用该笑话段子服务时的对话记录,并根据该对话记录确定每种用户喜好的作品幽默类型对应的优先级,例如可以按照指定时间段内每种用户喜好的作品幽默类型对应的需求时间或需求次数确定上述优先级。同理,输出多个第二类声音作品时也可以按照上述优先级,在此不做赘述。
在一些可选的实施例中,上述S107具体可以包括以下步骤:
S1071、服务器根据上述用户喜好的作品幽默类型确定作品生成原理。
示例性的,若上述用户喜好的作品幽默类型为谐音梗,谐音梗对应的作品生成原理为确定与预设词语具有相同读音的其他词语。
S1072、服务器根据上述至少一个参考服务项目和上述用户的基础信息,确定作品生成背景。
上述作品生成背景用于确定上述第二类声音作品对应的作品内容。示例性的,通过对上述至少一个参考服务项目和上述用户的基础信息进行解构重组,可从提取出生成笑话段子所需的各种内容,该各种内容可包含于上述作品生成背景。
例如,假设上述至少一个参考服务项目为观看电影,该用户的基础信息包含该用户的职业,则该作品生成背景可包含与上述电影相关的信息,也可以包含与该用户的职业相关的信息。
可选的,在信息源许可的情况下,服务器还可以从上述信息源获取与上述至少一个参考服务项目和上述用户的基础信息关联的热门话题,上述热门话题根据在指定时间段上述信息源包含的每个话题对应的话题讨论量确定,上述话题讨论量用于表示话题的讨论人次;判断上述热门话题是否为娱乐话题;若是,则根据上述热门话题确定上述作品生成背景;若否,则更新上述热门话题。实现在向用户定制化输出笑话段子的过程中,为用户提供更多相关的资料和信息,引导用户紧跟时事和增长见闻,便于用户在娱乐的同时通过该第二类声音作品对应的内容进行更深层次的挖掘和思考。此外,鉴于笑话段子本身的娱乐性质,本方法还通过话题筛选,判断上述热门话题是否是娱乐话题,若是则根据该热门话题生成上述作品生成背景,若否则更换其他的热门话题,以便于避免严肃话题娱乐化。
其中,以上判断上述热门话题是否是娱乐话题的过程可以描述为:服务器获取与上述热门话题关联的讨论内容;对上述讨论内容进行数据分析,确定上述热门话题对应的态度倾向的分布信息,上述态度倾向用于表示参与讨论上述热门话题的人群的态度,上述态度倾向包括娱乐型倾向和非娱乐型倾向,上述分布信息用于指示上述娱乐型倾向和非娱乐型倾向的分布比例;上述判断上述热门话题是否为娱乐话题包括:若上述分布信息指示上述娱乐型倾向所占分布比例大于上述非娱乐型倾向所占比例,则确定上述热门话题为上述娱乐话题;若上述分布信息指示上述娱乐型倾向所占分布比例小于上述非娱乐型倾向所占比例,则确定上述热门话题非上述娱乐话题。
示例性的,上述讨论内容可以是该热门话题对应的网络评论和文章。本实施例通过对上述热门话题对应的讨论内容进行分析,可以确定参与讨论该热门话题的人群的态度倾向的分布信息,根据该分布信息指示的娱乐型倾向和非娱乐型倾向所占比例的大小,确定上述人群对于该热门话题的态度,便于确定该热门话题是否是娱乐话题。
可理解的,上述娱乐话题可根据不同地区的文化或价值观对不同话题所属的类型(娱乐类型或非娱乐类型)进行的判断确定。
可理解的,在执行S107时,也可基于上述热门话题确定上述第二类声音作品,具体实现方式可对应参考S1072的相关介绍,在此不作赘述。
S1073、服务器根据上述作品生成原理和上述作品生成背景,确定适配上述用户的第二类声音作品。
在本实施例中,通过确定该用户喜好的作品幽默类型对应的作品生成原理,可以建立起上述作品生成背景中包含的各种内容之间的联系,以便于更为准确地为该用户生成逻辑清晰且适配于该用户的第二类声音作品。进一步地,有助于实现第二类声音作品的批量输出,灵活适用用户对笑话段子数量的不同需求。
可选的,服务器可根据上述作品生成原理和上述作品生成背景,确定至少一个脚本,上述至少一个脚本包含虚假差异对,上述虚假差异对与两个字面相同且含义不同的词语对应;根据上述至少一个脚本,确定适配上述用户的第二类声音作品。可以理解的,根据上述至少一个脚本可生成至少一个上述第二类声音作品,相同的脚本可以对应多个不同的第二类声音作品。本实施例通过确定好的作品生成原理和作品生成背景,可以确定笑话段子对应的内容框架,即上述至少一个脚本,最后根据该至少一个脚本确定适配该用户的第二类声音作品,提高笑话段子的输出效率。
示例性的,上述至少一个脚本可以是“白头偕老”和“染头发”,上述虚假差异对可以是老年的“白发”和焗油的“白发”,可理解的,前者“白发”指的是老年,后者“白发”指的是染的白发,二者字面相同但含义不同。可选的,上述服务器可通过对预设的自然语言数据集进行上下文语义分析训练,以实现推导自然语言文本中包含的虚假差异对。
为了更清楚地介绍S1073中的方法,本申请实施例还提供了另一种笑话段子处理方法的应用场景示意图,请参阅图3。
如图3所示,假设用户喜好的作品幽默类型为双关语,则按照双关语的语义特征可确定作品生成原理为“相同词语,不同含义”。假设用户在人机互动综合服务系统中亲历的至少一个参考服务项目为“观看爱情电影”,且从该用户的基础信息可知该用户的职业为理发师,则可确定作品生成背景为与“爱情”和“美发”相关的内容。可选的,还可以根据上述至少一个参考服务项目和上述基础信息,确定与二者关联的热门话题(在图3中以虚线框示出),然后根据该热门话题确定上述作品生成背景,关于热门话题的筛选可参考前述实施例中S1072的相关介绍,在此不作赘述。示例性的,也可跳过以上确定上述热门话题的步骤,执行根据上述至少一个参考服务项目和上述基础信息,生成上述作品生成背景。
然后,服务器可按照上述作品生成原理和上述作品生成背景,确定双关语为“白发”,对应的,形成至少一个脚本,例如,该至少一个脚本可以分别是“脚本1:白头偕老”和“脚本2:头发变白”,可以理解的,在脚本1和脚本2中对应了虚假差异对,分别是用于表示人到老年的“白发”和用户表示头发颜色变化的“白发”。
最后根据脚本1和脚本2,可确定第二类声音作品,如“说好一起到白头,你却偷偷焗了油”。
在本实施例中,可以理解的,根据上述至少一个脚本可生成至少一个上述第二类声音作品,相同的脚本可以对应多个不同的第二类声音作品。本方法通过确定好的作品生成原理和作品生成背景,可以确定笑话段子对应的内容框架,即上述至少一个脚本,最后根据该至少一个脚本确定适配该用户的第二类声音作品,提高笑话段子的输出效率。
可选的,假设用户喜好的作品幽默类型为谐音梗,则上述作品生成原理为确定与预设词语具有相同读音的其他词语,则在确定上述作品生成背景所包含的内容时,还可以选择上述爱情电影中的主角名称为预设词语,然后在设计脚本时,可获取该预设词语相同读音的其他词语,并根据上述其它词语生成具有问答关系的对话,该问答关系中的答案即该预设词语的同音词,即可得到上述第二类声音作品。
在一些可选的实施例中,S1071至S1073可替代为:从第三方平台获取与上述用户喜好的作品幽默类型、上述至少一个参考服务项目以及上述用户的基础信息匹配的声音作品,作为适配上述用户的第二类声音作品。
示例性的,在上述第三方平台许可的情况下,获取与上述用户喜好的作品幽默类型相同的笑话段子,并从中筛选出与该至少一个参考服务项目和上述用户的基础信息有关联的笑话段子,作为适配上述用户的第二类声音作品。实现快速输出第三方平台允许获取的第二类声音作品,降低用户等待输出时的耐心消耗。
本申请实施例还提供了另一种笑话段子处理方法的流程示意图,请参阅图4。
如图4所示,该笑话段子处理方法包括如下步骤:
S401、服务器调用人机互动引擎接收来自终端设备的用户输入语句,根据上述用户输入语句确定用户的需求为笑话段子服务。
S402、服务器判断上述用户是否首次使用上述笑话段子服务。
S403、服务器向上述终端设备发送至少一个第一类声音作品,并通过对话询问方式确定上述用户喜好的作品幽默类型。
S404、服务器获取预存的上述用户喜好的作品幽默类型。
S405、服务器获取上述用户针对其他人机互动服务的历史使用记录。
S406、服务器根据上述历史使用记录确定上述用户在过去预设时段内亲历的至少一个参考服务项目。
S407、服务器根据上述用户喜好的作品幽默类型、上述至少一个参考服务项目以及上述用户的基础信息,确定适配上述用户的第二类声音作品。
关于S401至S407的具体实现方式可对应参考前述实施例中S101至S107的相关介绍,在此不作赘述。
S408、服务器获取来自上述终端设备的用户模态信息。
上述用户模态信息用于指示上述用户的外部行为表现信息和生理变化信息中的一项或两项,上述外部行为表现信息包括语气信息、面部表情信息和肢体动作信息中的任意一项或多项,上述生理变化信息包括脉搏波信息、呼吸信息和温度信息中的任意一项或多项。
可以理解的,上述用户模态信息可以是单模态信息,如上述用户模态信息为语气信息、面部表情信息、肢体动作信息、脉搏波信息、呼吸信息和温度信息中的任意一项。上述用户模态信息也可以是多模态信息,如上述用户模态信息为语气信息、面部表情信息、肢体动作信息、脉搏波信息、呼吸信息和温度信息中的任意两项或两项以上。
示例性的,上述用户模态信息可以是该终端设备在该用户许可的情况下自主采集的。具体如,该终端设备上可以搭载有声音采集装置,可以通过采集并识别用户语音中包含的语调信息确定上述语气信息。该终端设备上可以搭载有图像采集装置,可以采集用户的面部图像和/或肢体动作图像,并通过图像识别技术确定上述面部表情信息和/或上述肢体动作信息。该终端设备上海可以搭载有生理信号感知装置,采集上述脉搏波信息、上述呼吸信息和/或上述温度信息。可理解的,上述用户模态信息也可以是与该终端设备建立有通信连接的第三方系统采集的,该第三方设备具有上述声音采集装置、上述图像采集装置和上述生理信号感知装置所能实现的功能。
S409、服务器提取上述用户模态信息对应的情绪特征。
示例性的,该情绪特征可以是与该用户模态信息对应的词汇或其它形式的代码符号。
S410、服务器将上述情绪特征匹配用户情绪映射表,并根据匹配结果确定上述用户的情绪状态。
上述用户情绪映射表存储有情绪特征与情绪类别之间的映射关系。
S411、服务器对上述第二类声音作品进行情感分类,确定上述第二类声音作品对应的情感类型。
S412、在上述情感类型与上述情绪状态匹配的情况下,服务器向上述终端设备发送上述第二类声音作品。
在本实施例中,示例性的,上述用户情绪映射表中包含的情绪类别是基于预设的情绪划分规则确定的,上述情绪状态包括积极情绪或消极情绪,上述第二类声音作品对应的情感类型包括正向情感或负向情感。当上述情绪状态为积极情绪时,与该情绪状态匹配的第二类声音作品的情感类型可以是正向情感或负向情感,当上述情绪状态为消极情绪时,与该情绪状态匹配的第二类声音作品的情感类型是正向情感。本方法可实现在用户情绪状态为积极情绪时向该用户输出包含正向情感或负向情感的第二类声音作品,以起到情绪增强或情绪缓解的作用,在用户情绪状态为消极情绪时向该用户输出包含正向情感的第二类声音作品,以起到情绪正向引导的作用。
本申请实施例还提供了一种笑话段子处理装置,下面将结合本申请实施例中的附图5对上述笑话段子处理装置进行介绍。
请参阅图5,图5是本申请实施例提供的一种笑话段子处理装置的结构示意图。
如图5所示,上述笑话段子处理装置500应用于人机互动综合服务系统中的服务器,上述人机互动综合服务系统包括上述服务器和终端设备,上述服务器设置有人机互动引擎;上述笑话段子处理装置500包括:
第一接收单元501,用于调用上述人机互动引擎接收来自上述终端设备的用户输入语句;
第一确定单元502,用于根据上述用户输入语句确定用户的需求为笑话段子服务,上述笑话段子服务是指为上述用户推送具有幽默属性的声音作品;
第一判断单元503,用于判断上述用户是否首次使用上述笑话段子服务;
第一发送单元504,用于在上述用户首次使用上述笑话段子服务的情况下,向上述终端设备发送至少一个第一类声音作品;
第二确定单元505,用于通过对话询问方式确定上述用户喜好的作品幽默类型;
第一获取单元506,用于在上述用户非首次使用上述笑话段子服务的情况下,获取预存的上述用户喜好的作品幽默类型;
第二获取单元507,用于获取上述用户针对其他人机互动服务的历史使用记录,上述其他人机互动服务是指上述人机互动综合服务系统提供的除上述笑话段子服务之外的服务;
第三获取单元508,用于根据上述历史使用记录确定上述用户在过去预设时段内亲历的至少一个参考服务项目;
第三确定单元509,用于根据上述用户喜好的作品幽默类型、上述至少一个参考服务项目以及上述用户的基础信息,确定适配上述用户的第二类声音作品;
第二发送单元510,用于向上述终端设备发送上述第二类声音作品。
在一个可能的实施方式中,上述第一发送单元504,还用于向上述终端设备发送询问信息,上述询问信息用于提示上述用户对上述第一类声音作品进行评价;上述笑话段子处理装置500还包括:
第二接收单元511,用于接收来自上述终端设备的用户反馈信息,上述用户反馈信息包括上述用户输入的对上述第一类声音作品的满意度评价;
上述第二确定单元505,还用于在上述用户反馈信息中的上述满意度评价指示上述用户满意上述第一类声音作品的情况下,标记上述第一类声音作品对应的幽默类型,并根据上述幽默类型确定上述用户喜好的作品幽默类型;在上述用户反馈信息中的上述满意度评价指示上述用户不满意上述第一类声音作品的情况下,则获取上述满意度评价对应的评价理由,并根据上述评价理由更新上述第一类声音作品。
在一个可能的实施方式中,上述第三确定单元509,还用于根据上述用户喜好的作品幽默类型确定作品生成原理;
上述第三确定单元509,还用于根据上述至少一个参考服务项目和上述用户的基础信息,确定作品生成背景;
上述第三确定单元509,还用于根据上述作品生成原理和上述作品生成背景,确定适配上述用户的第二类声音作品。
在一个可能的实施方式中,上述第三确定单元509,还用于根据上述作品生成原理和上述作品生成背景,确定至少一个脚本,上述至少一个脚本包含虚假差异对,上述虚假差异对与两个字面相同且含义不同的词语对应;
上述第三确定单元509,还用于根据上述至少一个脚本,确定适配上述用户的第二类声音作品。
在一个可能的实施方式中,上述第三获取单元508,还用于在信息源许可的情况下,从上述信息源获取与上述至少一个参考服务项目和上述用户的基础信息关联的热门话题,上述热门话题根据在指定时间段上述信息源包含的每个话题对应的话题讨论量确定,上述话题讨论量用于表示话题的讨论人次;上述笑话段子处理装置500还包括:
第二判断单元512,用于判断上述热门话题是否为娱乐话题;
上述第三确定单元509,还用于在上述热门话题为上述娱乐话题的情况下,根据上述热门话题确定上述作品生成背景;在上述热门话题非上述娱乐话题的情况下,则更新上述热门话题。
在一个可能的实施方式中,上述第三获取单元508,还用于获取与上述热门话题关联的讨论内容;上述笑话段子处理装置500还包括:
第四确定单元513,用于对上述讨论内容进行数据分析,确定上述热门话题对应的态度倾向的分布信息,上述态度倾向用于表示参与讨论上述热门话题的人群的态度,上述态度倾向包括娱乐型倾向和非娱乐型倾向,上述分布信息用于指示上述娱乐型倾向和非娱乐型倾向的分布比例;
上述第二判断单元512,还用于在上述分布信息指示上述娱乐型倾向所占分布比例大于上述非娱乐型倾向所占比例的情况下,确定上述热门话题为上述娱乐话题;在上述分布信息指示上述娱乐型倾向所占分布比例小于上述非娱乐型倾向所占比例的情况下,确定上述热门话题非上述娱乐话题。
在一个可能的实施方式中,第四获取单元514,用于获取来自上述终端设备的用户模态信息,上述用户模态信息用于指示上述用户的外部行为表现信息和生理变化信息中的一项或两项,上述外部行为表现信息包括语气信息、面部表情信息和肢体动作信息中的任意一项或多项,上述生理变化信息包括脉搏波信息、呼吸信息和温度信息中的任意一项或多项;
上述第三确定单元509,还用于提取上述用户模态信息对应的情绪特征;
上述第三确定单元509,还用于将上述情绪特征匹配用户情绪映射表,并根据匹配结果确定上述用户的情绪状态;上述用户情绪映射表存储有情绪特征与情绪类别之间的映射关系;
上述第三确定单元509,还用于对上述第二类声音作品进行情感分类,确定上述第二类声音作品对应的情感类型;
上述第二发送单元510,还用于在上述情感类型与上述情绪状态匹配的情况下,向上述终端设备发送上述第二类声音作品。
关于上述笑话段子处理装置500及其任意一种可能的实施方式所带来的技术效果,可对应参考前述实施例中笑话段子处理方法的技术效果的介绍,在此不作赘述。
根据本申请实施例,图5中所示的笑话段子处理装置500中的各个单元可以分别或全部合并为一个或若干个另外的单元来构成,或者其中的某个(些)单元还可以再拆分为功能上更小的多个单元来构成,这可以实现同样的操作,而不影响本申请的实施例的技术效果的实现。上述单元是基于逻辑功能划分的,在实际应用中,一个单元的功能也可以由多个单元来实现,或者多个单元的功能由一个单元实现。
本申请实施例还提供了一种电子设备,下面将结合本申请实施例中的附图6对上述电子设备进行介绍,请参阅图6,图6是本申请实施例提供的一种电子设备的结构示意图。
如图6所示,上述电子设备600可以包括:一个或多个处理器601、一个或多个存储器602、一个或多个通信接口603以及总线604,上述处理器601、存储器602、通信接口603通过总线604连接。上述电子设备可以是前述说明中的笑话段子处理装置500。
其中,存储器602,用于存储程序;处理器601用于执行上述存储器存储的上述程序,在上述程序被执行的情况下,上述处理器601执行如上述笑话段子处理方法中任意一种可能的实施方式中的方法。
应当理解,在本申请实施例中,上述存储器602包括但不限于是随机存储器(random access memory,RAM)、只读存储器(read-only memory,ROM)、可擦除可编程只读存储器(erasable programmable read only memory,EPROM)、或便携式只读存储器(compact disc read-only memory,CDROM),以及除计算机内存及处理器缓存之外的外存储器,上述存储器602的一部分还可以包括非易失性随机存取存储器,例如,存储器602还可以存储设备类型的信息。
上述处理器601可以是一个或多个中央处理单元(central processing unit,CPU),在处理器601是一个CPU的情况下,该CPU可以是单核CPU,也可以是多核CPU;上述处理器601还可以是其他通用处理器、数字信号处理器(digital signal processor,DSP)、专用集成电路(application specific integrated circuit,ASIC)、现成可编程门阵列(field-programmable gate array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
前述实施例中所执行的步骤可以基于上述图6所示的电子设备600的结构实现,处理器601可执行本申请实施例中提供的笑话段子处理方法的任意一个可选的实施例中所描述的实现方式,也可执行本申请实施例中所描述的笑话段子处理装置500的实现方式,具体的,处理器601可实现图5中所示装置中的第一确定单元502、第一判断单元503、第二确定单元505、第一获取单元506、第二获取单元507、第三获取单元508、第三确定单元509、第二判断单元512、第四确定单元513或第四获取单元514的功能。通信接口603可实现图5中所示装置中的第一接收单元501、第一发送单元504、第二发送单元510或第二接收单元511的功能。存储器602可在上述处理器601执行本申请实施例中所描述的笑话段子处理装置500的实现方式时提供缓存,也可存储上述处理器601执行本申请实施例中所描述的笑话段子处理装置500的实现方式所需要的计算机程序。
本申请实施例还提供了一种计算机存储介质,上述计算机存储介质中存储有计算机程序,上述计算机程序包括程序指令,在上述程序指令被处理器执行的情况下,上述处理器可以实现上述图1至图4中所示的方法。
本申请实施例还提供了一种计算机程序产品,上述计算机程序产品包括:指令或计算机程序;在上述指令或上述计算机程序被执行的情况下,可以实现上述图1至图4中所示的方法。
本申请实施例还提供了一种芯片,上述芯片包括处理器,上述处理器用于执行指令,在上述处理器执行上述指令的情况下,使得上述芯片可以实现上述图1至图4中所示的方法。可选的,上述芯片还包括通信接口,上述通信接口用于接收信号或发送信号。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以由计算机程序相关的硬件完成,上述计算机程序可存储于计算机存储介质中,上述计算机程序在执行时,可实现如上述各方法实施例的流程。而前述的计算机存储介质包括:只读存储器ROM或随机存储记忆体RAM、磁碟或者光盘等各种可存储计算机程序代码的介质。
Claims (10)
1.一种笑话段子处理方法,其特征在于,应用于人机互动综合服务系统中的服务器,所述人机互动综合服务系统包括所述服务器和终端设备,所述服务器设置有人机互动引擎;所述方法包括:
调用所述人机互动引擎接收来自所述终端设备的用户输入语句;
根据所述用户输入语句确定用户的需求为笑话段子服务,所述笑话段子服务是指为所述用户推送具有幽默属性的声音作品;
判断所述用户是否首次使用所述笑话段子服务;
若是,则向所述终端设备发送至少一个第一类声音作品;并通过对话询问方式确定所述用户喜好的作品幽默类型;若否,则获取预存的所述用户喜好的作品幽默类型;
获取所述用户针对其他人机互动服务的历史使用记录,所述其他人机互动服务是指所述人机互动综合服务系统提供的除所述笑话段子服务之外的服务;
根据所述历史使用记录确定所述用户在过去预设时段内亲历的至少一个参考服务项目;
根据所述用户喜好的作品幽默类型、所述至少一个参考服务项目以及所述用户的基础信息,确定适配所述用户的第二类声音作品;并向所述终端设备发送所述第二类声音作品。
2.根据权利要求1所述的方法,其特征在于,所述通过对话询问方式确定所述用户喜好的作品幽默类型包括:
向所述终端设备发送询问信息,所述询问信息用于提示所述用户对所述第一类声音作品进行评价;
接收来自所述终端设备的用户反馈信息,所述用户反馈信息包括所述用户输入的对所述第一类声音作品的满意度评价;
若所述用户反馈信息中的所述满意度评价指示所述用户满意所述第一类声音作品,则标记所述第一类声音作品对应的幽默类型,并根据所述幽默类型确定所述用户喜好的作品幽默类型;若所述用户反馈信息中的所述满意度评价指示所述用户不满意所述第一类声音作品,则获取所述满意度评价对应的评价理由,并根据所述评价理由更新所述第一类声音作品。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述用户喜好的作品幽默类型、所述至少一个参考服务项目以及所述用户的基础信息,确定适配所述用户的第二类声音作品包括:
根据所述用户喜好的作品幽默类型确定作品生成原理;
根据所述至少一个参考服务项目和所述用户的基础信息,确定作品生成背景;
根据所述作品生成原理和所述作品生成背景,确定适配所述用户的第二类声音作品。
4.根据权利要求3所述的方法,其特征在于,所述根据所述作品生成原理和所述作品生成背景,确定适配所述用户的第二类声音作品包括:
根据所述作品生成原理和所述作品生成背景,确定至少一个脚本,所述至少一个脚本包含虚假差异对,所述虚假差异对与两个字面相同且含义不同的词语对应;
根据所述至少一个脚本,确定适配所述用户的第二类声音作品。
5.根据权利要求4所述的方法,其特征在于,所述根据所述至少一个参考服务项目和所述用户的基础信息,确定作品生成背景包括:
在信息源许可的情况下,从所述信息源获取与所述至少一个参考服务项目和所述用户的基础信息关联的热门话题,所述热门话题根据在指定时间段所述信息源包含的每个话题对应的话题讨论量确定,所述话题讨论量用于表示话题的讨论人次;
判断所述热门话题是否为娱乐话题;
若是,则根据所述热门话题确定所述作品生成背景;若否,则更新所述热门话题。
6.根据权利要求5所述的方法,其特征在于,在所述判断所述热门话题是否为娱乐话题之前,所述方法还包括:
获取与所述热门话题关联的讨论内容;
对所述讨论内容进行数据分析,确定所述热门话题对应的态度倾向的分布信息,所述态度倾向用于表示参与讨论所述热门话题的人群的态度,所述态度倾向包括娱乐型倾向和非娱乐型倾向,所述分布信息用于指示所述娱乐型倾向和非娱乐型倾向的分布比例;
所述判断所述热门话题是否为娱乐话题包括:
若所述分布信息指示所述娱乐型倾向所占分布比例大于所述非娱乐型倾向所占比例,则确定所述热门话题为所述娱乐话题;
若所述分布信息指示所述娱乐型倾向所占分布比例小于所述非娱乐型倾向所占比例,则确定所述热门话题非所述娱乐话题。
7.根据权利要求4至6中任意一项所述的方法,其特征在于,在所述向所述终端设备发送所述第二类声音作品之前,所述方法还包括:
获取来自所述终端设备的用户模态信息,所述用户模态信息用于指示所述用户的外部行为表现信息和生理变化信息中的一项或两项,所述外部行为表现信息包括语气信息、面部表情信息和肢体动作信息中的任意一项或多项,所述生理变化信息包括脉搏波信息、呼吸信息和温度信息中的任意一项或多项;
提取所述用户模态信息对应的情绪特征;
将所述情绪特征匹配用户情绪映射表,并根据匹配结果确定所述用户的情绪状态;所述用户情绪映射表存储有情绪特征与情绪类别之间的映射关系;
对所述第二类声音作品进行情感分类,确定所述第二类声音作品对应的情感类型;
所述向所述终端设备发送所述第二类声音作品包括:
在所述情感类型与所述情绪状态匹配的情况下,向所述终端设备发送所述第二类声音作品。
8.一种笑话段子处理装置,其特征在于,应用于人机互动综合服务系统中的服务器,所述人机互动综合服务系统包括所述服务器和终端设备,所述服务器设置有人机互动引擎;所述装置包括:用于执行如权利要求1至7中任意一项所述方法的单元。
9.一种电子设备,其特征在于,包括:
存储器,用于存储程序;
处理器,用于执行所述处理器存储的所述程序,在所述程序被所述处理器执行的情况下,所述处理器执行如权利要求1至7中任意一项所述的方法。
10.一种计算机存储介质,其特征在于,所述计算机存储介质中存储有计算机程序,所述计算机程序包括程序指令,在所述程序指令被处理器执行的情况下,所述处理器执行如权利要求1至7中任意一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211388797.8A CN115440232B (zh) | 2022-11-08 | 2022-11-08 | 笑话段子处理方法、装置、电子设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211388797.8A CN115440232B (zh) | 2022-11-08 | 2022-11-08 | 笑话段子处理方法、装置、电子设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115440232A true CN115440232A (zh) | 2022-12-06 |
CN115440232B CN115440232B (zh) | 2023-03-24 |
Family
ID=84252774
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211388797.8A Active CN115440232B (zh) | 2022-11-08 | 2022-11-08 | 笑话段子处理方法、装置、电子设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115440232B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060200734A1 (en) * | 2003-05-14 | 2006-09-07 | Goradia Gautam D | System for building and sharing a databank of jokes and/or such humor |
CN106294426A (zh) * | 2015-05-26 | 2017-01-04 | 徐维靖 | 笑话内容提供网站系统 |
CN108763355A (zh) * | 2018-05-16 | 2018-11-06 | 深圳市三宝创新智能有限公司 | 一种基于用户的智能机器人交互数据处理系统及方法 |
CN110674270A (zh) * | 2017-08-28 | 2020-01-10 | 大国创新智能科技(东莞)有限公司 | 基于人工智能的幽默生成与情感交互方法及机器人系统 |
US20200227032A1 (en) * | 2018-02-24 | 2020-07-16 | Twenty Lane Media, LLC | Systems and Methods for Generating and Recognizing Jokes |
CN112863522A (zh) * | 2021-01-12 | 2021-05-28 | 重庆邮电大学 | 一种基于ros的智能机器人语音交互系统及交互方法 |
-
2022
- 2022-11-08 CN CN202211388797.8A patent/CN115440232B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20060200734A1 (en) * | 2003-05-14 | 2006-09-07 | Goradia Gautam D | System for building and sharing a databank of jokes and/or such humor |
CN106294426A (zh) * | 2015-05-26 | 2017-01-04 | 徐维靖 | 笑话内容提供网站系统 |
CN110674270A (zh) * | 2017-08-28 | 2020-01-10 | 大国创新智能科技(东莞)有限公司 | 基于人工智能的幽默生成与情感交互方法及机器人系统 |
US20200227032A1 (en) * | 2018-02-24 | 2020-07-16 | Twenty Lane Media, LLC | Systems and Methods for Generating and Recognizing Jokes |
CN108763355A (zh) * | 2018-05-16 | 2018-11-06 | 深圳市三宝创新智能有限公司 | 一种基于用户的智能机器人交互数据处理系统及方法 |
CN112863522A (zh) * | 2021-01-12 | 2021-05-28 | 重庆邮电大学 | 一种基于ros的智能机器人语音交互系统及交互方法 |
Also Published As
Publication number | Publication date |
---|---|
CN115440232B (zh) | 2023-03-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108536802B (zh) | 基于儿童情绪的交互方法及装置 | |
JP6755304B2 (ja) | 情報処理装置 | |
US11645547B2 (en) | Human-machine interactive method and device based on artificial intelligence | |
CN105345818B (zh) | 带有情绪及表情模块的3d视频互动机器人 | |
US11646026B2 (en) | Information processing system, and information processing method | |
CN110427472A (zh) | 智能客服匹配的方法、装置、终端设备及存储介质 | |
CN112040263A (zh) | 视频处理方法、视频播放方法、装置、存储介质和设备 | |
US9183833B2 (en) | Method and system for adapting interactions | |
CN110299152A (zh) | 人机对话的输出控制方法、装置、电子设备及存储介质 | |
CN111145721A (zh) | 个性化提示语生成方法、装置和设备 | |
CN103970791B (zh) | 一种从视频库推荐视频的方法、装置 | |
CN111542814A (zh) | 改变应答以提供表现丰富的自然语言对话的方法、计算机装置及计算机可读存储介质 | |
JP7096172B2 (ja) | キャラクタ性に応じた形容発話を含む対話シナリオを生成する装置、プログラム及び方法 | |
CN108900612A (zh) | 用于推送信息的方法和装置 | |
JP2007334732A (ja) | ネットワークシステム及びネットワーク情報送受信方法 | |
CN114464180A (zh) | 一种智能设备及智能语音交互方法 | |
CN116414959A (zh) | 数字人的互动控制方法、装置、电子设备和存储介质 | |
CN110442867A (zh) | 图像处理方法、装置、终端及计算机存储介质 | |
CN113643684A (zh) | 语音合成方法、装置、电子设备及存储介质 | |
CN117235354A (zh) | 一种基于多模态大模型的用户个性化服务策略及系统 | |
CN115440232B (zh) | 笑话段子处理方法、装置、电子设备及计算机存储介质 | |
CN111490929A (zh) | 视频片段推送方法、装置、电子设备、存储介质 | |
JP2020160641A (ja) | 仮想人物選定装置、仮想人物選定システム及びプログラム | |
CN114566187B (zh) | 操作包括电子装置的系统的方法、电子装置及其系统 | |
KR20200040625A (ko) | 사용자의 발화를 처리하는 사용자 단말 및 그 제어 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |