CN109086351B - 一种获取用户标签的方法及用户标签系统 - Google Patents
一种获取用户标签的方法及用户标签系统 Download PDFInfo
- Publication number
- CN109086351B CN109086351B CN201810781856.5A CN201810781856A CN109086351B CN 109086351 B CN109086351 B CN 109086351B CN 201810781856 A CN201810781856 A CN 201810781856A CN 109086351 B CN109086351 B CN 109086351B
- Authority
- CN
- China
- Prior art keywords
- user
- label
- interaction
- tag
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种获取用户标签的方法以及用户标签系统。方法包括:基于外部输入的用户信息获取用户标签;根据已获取的用户标签预测并生成新的用户标签。相较于现有技术,根据本发明的方法及系统,可以获取更为全面的用户画像数据,从而提高智能机器人交互回应的准确性以及交互回应与当前用户的匹配度,从而大大提高智能机器人的用户体验。
Description
技术领域
本发明涉及计算机领域,具体涉及一种获取用户标签的方法及用户标签系统。
背景技术
随着人工智能技术的不断发展,智能机器人被越来越多的应用于人类的生产生活当中。
在智能机器人与人类的交互过程中,为了提高智能机器人对用户需求回应的准确度,提高智能机器人的用户体验,通常会为智能机器人提前输入其所要服务的用户的用户画像数据,这样,智能机器人在对用户的交互需求进行应答时就可以根据已保存的用户画像数据缩小应答内容的选择范围、提高交互应答的准确度从而提高自身的用户体验。
在实际的人机交互应用场景中,用户的交互需求是多种多样的,其会涉及到和用户自身相关的各个不同的属性维度。为了能够回应用户多种多样的交互需求,就要求智能机器人必须保存有一个非常全面的用户画像数据,该用户画像数据中必须有用户各个不同的属性维度的用户标签。然而,在现有技术中,由于用户数据采集的困难性,很难事先为智能机器人提供足够全面的用户画像数据。
发明内容
本发明提供了一种获取用户标签的方法,所述方法包括:
基于外部输入的用户信息获取用户标签;
根据已获取的用户标签预测并生成新的用户标签。
在一实施例中,所述方法还包括:
建立多维度的用户标签间的关联;
基于多维度的用户标签间的关联,根据已获取的用户标签预测并生成新的用户标签。
在一实施例中,建立多维度的用户标签间的关联,其中,利用循环神经网络得到多维度的用户标签间的相关性。
在一实施例中,所述方法还包括:
获取用户描述数据,结合产品设定用户标签维度;
根据所述用户描述数据和所述用户标签维度进行用户标签标注;
获取不同的用户标签维度间的相关性;
基于不同的用户标签维度间的相关性,根据已标注的用户标签预测新的用户标签。
本发明还提出了一种交互方法,所述方法包括:
获取用户多模态数据并解析,确定用户交互意图,所述用户包括儿童用户;
获取回应所述用户交互意图所需的用户标签维度所对应的用户标签,其中,根据已保存的用户标签预测回应所述用户交互意图所需的用户标签维度所对应的用户标签;
基于所述用户标签针对所述用户交互意图生成包含表情回应数据的多模态交互回应数据。
在一实施例中,获取回应所述用户交互意图所需的用户标签维度所对应的用户标签,包括:
确定回应所述用户交互意图所需的用户标签维度;
根据已保存的用户标签判断回应所述用户交互意图所需的用户标签维度是否已被标注;
当回应所述用户交互意图所需的用户标签维度尚未被标注时,根据已保存的用户标签预测回应所述用户交互意图所需的用户标签维度所对应的用户标签。
本发明还提出了一种存储介质,所述存储介质上存储有可实现如本发明所述方法的程序代码。
本发明还提出了一种用户标签系统,所述系统包括:
用户描述数据获取模块,其配置为获取用户描述数据,根据所述用户描述数据进行用户标签的标注;
标签预测模块,其配置为根据所述用户描述数据获取模块标注的用户标签预测新的用户标签。
在一实施例中,所述系统还包括标签关联确认模块,其中:
所述标签关联确认模块配置为确定不同用户标签维度间的相关性;
所述标签预测模块还配置为基于不同用户标签维度间的相关性,根据所述用户描述数据获取模块已标注的用户标签维度对应的用户标签预测未被标注的用户标签维度对应的用户标签。
本发明还提出了一种交互系统,所述系统包括:
输入获取模块,其配置为采集用户多模态数据;
交互解析模块,其配置为解析所述用户多模态数据,获取用户交互意图并确定回应所述用户交互意图所需的用户标签维度;
如本发明所述的用户标签系统,其配置为输出回应所述用户交互意图所需的用户标签维度所对应的用户标签;
交互回应生成模块,其配置为基于所述用户标签系统输出的用户标签,针对所述用户交互意图,生成对应的多模态交互回应数据。
相较于现有技术,根据本发明的方法及系统,可以获取更为全面的用户画像数据,从而提高智能机器人交互回应的准确性以及交互回应与当前用户的匹配度,从而大大提高智能机器人的用户体验。
本发明的其它特征或优点将在随后的说明书中阐述。并且,本发明的部分特征或优点将通过说明书而变得显而易见,或者通过实施本发明而被了解。本发明的目的和部分优点可通过在说明书、权利要求书以及附图中所特别指出的步骤来实现或获得。
附图说明
附图用来提供对本发明的进一步理解,并且构成说明书的一部分,与本发明的实施例共同用于解释本发明,并不构成对本发明的限制。在附图中:
图1~3是根据本发明不同实施例的获取用户标签的方法流程图;
图4是根据本发明一实施例的交互方法的流程图;
图5是根据本发明实施例的交互方法的部分流程图;
图6、7是根据本发明不同实施例的用户标签系统结构简图;
图8是根据本发明一实施例的交互系统结构简图。
具体实施方式
以下将结合附图及实施例来详细说明本发明的实施方式,借此本发明的实施人员可以充分理解本发明如何应用技术手段来解决技术问题,并达成技术效果的实现过程并依据上述实现过程具体实施本发明。需要说明的是,只要不构成冲突,本发明中的各个实施例以及各实施例中的各个特征可以相互结合,所形成的技术方案均在本发明的保护范围之内。
在智能机器人与人类的交互过程中,为了提高智能机器人对用户需求回应的准确度,提高智能机器人的用户体验,通常会为智能机器人提前输入其所要服务的用户的用户画像数据,这样,智能机器人在对用户的交互需求进行应答时就可以根据已保存的用户画像数据缩小应答内容的选择范围、提高交互应答的准确度从而提高自身的用户体验。
在实际的人机交互应用场景中,用户的交互需求是多种多样的,其会涉及到和用户自身相关的各个不同的属性维度。为了能够回应用户多种多样的交互需求,就要求智能机器人必须保存有一个非常全面的用户画像数据,该用户画像数据中必须有用户各个不同的属性维度的用户标签。然而,在现有技术中,由于用户数据采集的困难性,很难事先为智能机器人提供足够全面的用户画像数据。
针对上述问题,本发明提出了一种获取用户标签的方法。在本发明的方法中,根据已获取的用户标签预测并生成新的用户标签,从而拓展用户画像中用户标签的维度。相较于现有技术,根据本发明的方法及系统,可以获取更为全面的用户画像数据,从而提高智能机器人交互回应的准确性以及交互回应与当前用户的匹配度,从而大大提高智能机器人的用户体验。
接下来基于附图详细描述根据本发明实施例的方法的详细流程,附图的流程图中示出的步骤可以在包含诸如一组计算机可执行指令的计算机系统中执行。虽然在流程图中示出了各步骤的逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
具体的,如图1所示,在一实施例中,本发明的方法包含以下流程。
基于外部输入的用户信息获取用户标签(S110);
根据已获取的用户标签预测并生成新的用户标签(S120)。
进一步的,在一实施例中,在步骤S120中,根据不同维度的用户标签间的关联属性,预测并生成新的用户标签。具体的,在一实施例中,如图2所示,方法还包括:
建立多维度的用户标签间的关联(S210);
基于多维度的用户标签间的关联,根据已获取的用户标签预测并生成新的用户标签(S220)。
具体的,在一实施例中,建立多维度的用户标签间的关联,其中,利用循环神经网络得到多维度的用户标签间的相关性。
具体的,在一实施例中,给设定兴趣、性格、生活状态等维度,根据用户的内容数据和标签维度进行人工标注,训练得到多标签分类模型。在多标签分类模型中,利用循环神经网络来得到标签之间的相关性。
例如在兴趣维度标签中,用户有“电视剧”这个标签,那对这个用户标签的预测中,考虑“电视剧”这个标签的信息加入到网络中,对预测“电影”标签能够帮助,从而拓展用户标签。
进一步的,在一实施例中,用户画像(用户标签)是为了个性化推荐系统服务的,根据用户标签,可推送用户可能喜欢的内容。具体的,在推送用户可能喜欢的内容时,不仅仅根据已标注的用户标签进行推送,还根据已标注的用户标签进行新标签的预测生成,根据预测生成的新标签进行推送。具体的,基于已标注的用户标签,根据不同维度的用户标签间的关联进行推送。
例如:用户拥有{“兴趣”:“户外运动,游戏”,“性格”:“活泼,开朗”},根据对应的标签,对该用户推送音乐的时候我们会优先推送“轻快”,“游戏主题曲”等风格的歌曲。
具体的,如图3所示,在一实施例中,本发明的方法包含以下流程。
获取用户描述数据(S310),结合产品设定用户标签维度(S320);
根据用户描述数据和用户标签维度进行用户标签标注(S330);
获取不同的用户标签维度间的相关性(S340);
基于不同的用户标签维度间的相关性,根据已标注的用户标签预测新的用户标签(S350)。
进一步的,基于本发明所提出的获取用户标签的方法,本发明还提出了一种交互方法。具体的,如图4所示,在一实施例中,本发明的交互方法包含以下流程。
获取用户多模态数据并解析(S410),确定用户交互意图(S420),用户包括儿童用户;
获取回应用户交互意图所需的用户标签维度所对应的用户标签(S430),其中,根据已保存的用户标签预测回应用户交互意图所需的用户标签维度所对应的用户标签;
基于用户标签针对用户交互意图生成包含表情回应数据的多模态交互回应数据(S440)。
具体的,如图5所示,在一实施例中,获取回应用户交互意图所需的用户标签维度所对应的用户标签,包括以下步骤。
确定回应用户交互意图所需的用户标签维度(S510);
根据已保存的用户标签判断回应所述用户交互意图所需的用户标签维度是否已被标注(S520);
当回应用户交互意图所需的用户标签维度已被标注时,提取已保存的用户标签(S521);
当回应用户交互意图所需的用户标签维度尚未被标注时,根据已保存的用户标签预测回应用户交互意图所需的用户标签维度所对应的用户标签(S522)。
进一步的,基于本发明的方法,本发明还提出了一种存储介质,该存储介质上存储有可实现本发明所述方法的程序代码。
进一步的,基于本发明所提出的获取用户标签的方法,本发明还提出了一种用户标签系统。如图6所示,在一实施例中,系统包括:
用户描述数据获取模块610,其配置为获取用户描述数据,根据用户描述数据进行用户标签的标注;
标签预测模块620,其配置为根据用户描述数据获取模块标注的用户标签预测新的用户标签。
进一步的,如图7所示,在一实施例中,系统还包括标签关联确认模块730,其中:
标签关联确认模块730配置为确定不同用户标签维度间的相关性;
标签预测模块720还配置为基于不同用户标签维度间的相关性,根据用户描述数据获取模块710已标注的用户标签维度对应的用户标签预测未被标注的用户标签维度对应的用户标签。
进一步的,基于本发明所提出的交互方法,本发明还提出了一种交互系统。如图8所示,在一实施例中,系统包括:
输入获取模块810,其配置为采集用户多模态数据;
交互解析模块820,其配置为解析用户多模态数据,获取用户交互意图并确定回应用户交互意图所需的用户标签维度;
用户标签系统830,其配置为输出回应用户交互意图所需的用户标签维度所对应的用户标签,具体的,用户标签系统830采用本发明所提出的用户标签系统;
交互回应生成模块840,其配置为基于用户标签系统830输出的用户标签,针对用户交互意图,生成对应的多模态交互回应数据。
进一步的,基于本发明的交互方法以及交互系统,本发明还提出了一种交互系统。在一实施例中,系统包括智能设备以及云端服务器,其中:智能设备包括但不限于:儿童故事机、儿童平板电脑、儿童手表、儿童智能拍照设备、儿童陪伴人形机器人。
云端服务器包含如本发明所述的交互系统以及多个能力接口。交互系统配置为调用云端服务器的能力接口获取用户多模态数据并解析,生成并输出多模态交互回应数据。具体的,多模态数据解析过程中各个能力接口分别调用对应的逻辑处理。
具体的,云端服务器的能力接口包括语义理解接口、视觉识别接口、情感计算接口、认知计算接口。
具体的,在一实施例中,以下为各个接口的说明:
语义理解接口,其接收从智能设备的通信模块转发的特定语音指令,对其进行语音识别以及基于大量语料的自然语言处理。
视觉识别接口,可以针对人体、人脸、场景依据计算机视觉算法、深度学习算法等进行视频内容检测、识别、跟踪等。即根据预定的算法对图像进行识别,给出定量的检测结果。具备图像预处理功能、特征提取功能和决策功能。其中:
图像预处理功能可以是对获取的视觉采集数据进行基本处理,包括颜色空间转换、边缘提取、图像变换和图像阈值化;
特征提取功能可以提取出图像中目标的肤色、颜色、纹理、运动和坐标等特征信息;
决策功能可以是对特征信息,按照一定的决策策略分发给需要该特征信息的具体多模态输出设备或多模态输出应用,如实现人脸检测、人物肢体识别、运动检测等功能。
情感计算接口,其接收从通信模块转发的多模态数据,利用情感计算逻辑(可以是情绪识别技术)来计算用户当前的情绪状态。情绪识别技术是情感计算的一个重要组成部分,情绪识别研究的内容包括面部表情、语音、行为、文本和生理信号识别等方面,通过以上内容可以判断用户的情绪状态。情绪识别技术可以仅通过视觉情绪识别技术来监控用户的情绪状态,也可以采用视觉情绪识别技术和声音情绪识别技术结合的方式来监控用户的情绪状态,且并不局限于此。在本实施例中,优选采用二者结合的方式来监控情绪。
情感计算接口是在进行视觉情绪识别时,通过使用图像采集设备收集人类面部表情图像,而后转换成可分析数据,再利用图像处理等技术进行表情情绪分析。理解面部表情,通常需要对表情的微妙变化进行检测,比如脸颊肌肉、嘴部的变化以及挑眉等。
认知计算接口,其接收从通信模块转发的多模态数据,认知计算接口用以处理多模态数据进行数据采集、识别和学习,以获取用户画像、知识图谱等,以对多模态输出数据进行合理决策。
应该理解的是,本发明所公开的实施例不限于这里所公开的特定结构、处理步骤或材料,而应当延伸到相关领域的普通技术人员所理解的这些特征的等同替代。还应当理解的是,在此使用的术语仅用于描述特定实施例的目的,而并不意味着限制。
说明书中提到的“一实施例”意指结合实施例描述的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,说明书通篇各个地方出现的短语“一实施例”并不一定均指同一个实施例。
虽然本发明所公开的实施方式如上,但所述的内容只是为了便于理解本发明而采用的实施方式,并非用以限定本发明。本发明所述的方法还可有其他多种实施例。在不背离本发明实质的情况下,熟悉本领域的技术人员当可根据本发明做出各种相应的改变或变形,但这些相应的改变或变形都应属于本发明的权利要求的保护范围。
Claims (7)
1.一种获取用户标签的方法,其特征在于,所述方法应用于交互进程中,所述方法包括:
获取用户多模态数据并解析,确定用户交互意图后;
基于外部输入的用户信息获取用户标签;
根据已获取的用户标签预测并生成新的用户标签;
所述方法还包括:
建立多维度的用户标签间的关联;
基于多维度的用户标签间的关联,根据已获取的用户标签预测并生成新的用户标签;以结合所述用户交互意图生成包含表情回应数据的多模态交互回应数据;在建立多维度的用户标签间的关联的过程中,利用基于循环神经网络的分类模型处理得到多维度的用户标签间的相关性,其中,所述分类模型通过以下操作构建:基于设定的各个标签维度,根据用户的信息数据和不同的标签维度分别进行相关度标注,进一步训练得到多标签分类模型。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取用户描述数据,结合产品设定用户标签维度;
根据所述用户描述数据和所述用户标签维度进行用户标签标注;
获取不同的用户标签维度间的相关性;
基于不同的用户标签维度间的相关性,根据已标注的用户标签预测新的用户标签。
3.一种基于权利要求1或2所述方法的交互方法,所述交互方法包括:
获取用户多模态数据并解析,确定用户交互意图,所述用户包括儿童用户;
获取回应所述用户交互意图所需的用户标签维度所对应的用户标签,其中,根据已保存的用户标签预测回应所述用户交互意图所需的用户标签维度所对应的用户标签;
基于所述用户标签针对所述用户交互意图生成包含表情回应数据的多模态交互回应数据。
4.根据权利要求3所述的方法,其特征在于,获取回应所述用户交互意图所需的用户标签维度所对应的用户标签,包括:
确定回应所述用户交互意图所需的用户标签维度;
根据已保存的用户标签判断回应所述用户交互意图所需的用户标签维度是否已被标注;
当回应所述用户交互意图所需的用户标签维度尚未被标注时,根据已保存的用户标签预测回应所述用户交互意图所需的用户标签维度所对应的用户标签。
5.一种存储介质,其特征在于,所述存储介质上存储有可实现如权利要求1-4中任一项所述方法的程序代码。
6.一种用户标签系统,其特征在于,所述系统包括:
用户描述数据获取模块,其配置为获取用户多模态数据并解析,确定用户交互意图后,获取用户描述数据,根据所述用户描述数据进行用户标签的标注;
标签预测模块,其配置为根据所述用户描述数据获取模块标注的用户标签预测新的用户标签,以结合所述用户交互意图生成包含表情回应数据的多模态交互回应数据;
所述系统还包括标签关联确认模块,其中:
所述标签关联确认模块配置为利用基于循环神经网络的分类模型确定不同用户标签维度间的相关性;
所述标签预测模块还配置为基于不同用户标签维度间的相关性,根据所述用户描述数据获取模块已标注的用户标签维度对应的用户标签预测未被标注的用户标签维度对应的用户标签;
所述标签关联确认模块配置为通过以下操作构建分类模型:基于设定的各个标签维度,根据用户的信息数据和不同的标签维度分别进行相关度标注,进一步训练得到多标签分类模型。
7.一种交互系统,其特征在于,所述系统包括:
输入获取模块,其配置为采集用户多模态数据;
交互解析模块,其配置为解析所述用户多模态数据,获取用户交互意图并确定回应所述用户交互意图所需的用户标签维度;
如权利要求6所述的用户标签系统,其配置为输出回应所述用户交互意图所需的用户标签维度所对应的用户标签;
交互回应生成模块,其配置为基于所述用户标签系统输出的用户标签,针对所述用户交互意图,生成对应的多模态交互回应数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810781856.5A CN109086351B (zh) | 2018-07-17 | 2018-07-17 | 一种获取用户标签的方法及用户标签系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810781856.5A CN109086351B (zh) | 2018-07-17 | 2018-07-17 | 一种获取用户标签的方法及用户标签系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109086351A CN109086351A (zh) | 2018-12-25 |
CN109086351B true CN109086351B (zh) | 2022-03-22 |
Family
ID=64838049
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810781856.5A Active CN109086351B (zh) | 2018-07-17 | 2018-07-17 | 一种获取用户标签的方法及用户标签系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109086351B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109840274B (zh) * | 2018-12-28 | 2021-11-30 | 北京百度网讯科技有限公司 | 数据处理方法及装置、存储介质 |
CN111190939B (zh) * | 2019-12-27 | 2024-02-02 | 深圳市优必选科技股份有限公司 | 一种用户画像构建方法及装置 |
CN113672818B (zh) * | 2020-05-13 | 2023-11-14 | 中南大学 | 一种获取社交媒体用户画像的方法及系统 |
CN117235234B (zh) * | 2023-11-08 | 2024-03-01 | 深圳市腾讯计算机系统有限公司 | 对象信息获取方法、装置、计算机设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103218457A (zh) * | 2013-05-10 | 2013-07-24 | 清华大学 | 基于社交网络的人物搜索和发现方法及系统 |
US9177069B1 (en) * | 2011-05-19 | 2015-11-03 | Google Inc. | Determining labels from similar geographic features |
CN107644047A (zh) * | 2016-07-22 | 2018-01-30 | 华为技术有限公司 | 标签预测生成方法及装置 |
CN108108340A (zh) * | 2017-11-28 | 2018-06-01 | 北京光年无限科技有限公司 | 用于智能机器人的对话交互方法及系统 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10558714B2 (en) * | 2016-12-28 | 2020-02-11 | Facebook, Inc. | Topic ranking of content items for topic-based content feeds |
-
2018
- 2018-07-17 CN CN201810781856.5A patent/CN109086351B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9177069B1 (en) * | 2011-05-19 | 2015-11-03 | Google Inc. | Determining labels from similar geographic features |
CN103218457A (zh) * | 2013-05-10 | 2013-07-24 | 清华大学 | 基于社交网络的人物搜索和发现方法及系统 |
CN107644047A (zh) * | 2016-07-22 | 2018-01-30 | 华为技术有限公司 | 标签预测生成方法及装置 |
CN108108340A (zh) * | 2017-11-28 | 2018-06-01 | 北京光年无限科技有限公司 | 用于智能机器人的对话交互方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN109086351A (zh) | 2018-12-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109086351B (zh) | 一种获取用户标签的方法及用户标签系统 | |
CN108665492B (zh) | 一种基于虚拟人的舞蹈教学数据处理方法及系统 | |
CN108942919B (zh) | 一种基于虚拟人的交互方法及系统 | |
Zhang et al. | Intelligent facial emotion recognition and semantic-based topic detection for a humanoid robot | |
CN109871450B (zh) | 基于绘本阅读的多模态交互方法及系统 | |
Yu et al. | On the integration of grounding language and learning objects | |
CN109086860B (zh) | 一种基于虚拟人的交互方法及系统 | |
CN110991427A (zh) | 用于视频的情绪识别方法、装置和计算机设备 | |
CN106502382B (zh) | 用于智能机器人的主动交互方法和系统 | |
Islam et al. | Exploring video captioning techniques: A comprehensive survey on deep learning methods | |
CN107016046A (zh) | 基于视觉场景化的智能机器人对话方法及系统 | |
CN112149632A (zh) | 一种视频识别方法、装置及电子设备 | |
CN111858898A (zh) | 基于人工智能的文本处理方法、装置及电子设备 | |
CN111434118A (zh) | 用户感兴趣信息生成的装置和方法 | |
CN115223020B (zh) | 图像处理方法、装置、设备、存储介质及计算机程序产品 | |
CN112784926A (zh) | 一种手势交互的方法和系统 | |
CN113705315A (zh) | 视频处理方法、装置、设备及存储介质 | |
CN108628454B (zh) | 基于虚拟人的视觉交互方法及系统 | |
CN116881427A (zh) | 问答处理方法、装置、电子设备及存储介质 | |
CN111062207B (zh) | 表情图像处理方法、装置、计算机存储介质及电子设备 | |
CN115187910A (zh) | 视频分类模型训练方法、装置、电子设备及存储介质 | |
CN115438210A (zh) | 文本图像生成方法、装置、终端及计算机可读存储介质 | |
CN115171673A (zh) | 一种基于角色画像的交流辅助方法、装置及存储介质 | |
CN113704544A (zh) | 一种视频分类方法、装置、电子设备和存储介质 | |
ViswanathReddy et al. | Facial emotions over static facial images using deep learning techniques with hysterical interpretation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |