CN115393476A - 有声表情的生成方法、装置和设备 - Google Patents
有声表情的生成方法、装置和设备 Download PDFInfo
- Publication number
- CN115393476A CN115393476A CN202210884994.2A CN202210884994A CN115393476A CN 115393476 A CN115393476 A CN 115393476A CN 202210884994 A CN202210884994 A CN 202210884994A CN 115393476 A CN115393476 A CN 115393476A
- Authority
- CN
- China
- Prior art keywords
- expression
- identifier
- generating
- virtual image
- voice data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/205—3D [Three Dimensional] animation driven by audio data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请的实施例提供了有声表情的生成方法、装置、设备和计算机可读存储介质。所述方法包括获取用户的语音数据;将所述语音数据输入至数据分析模型,得到与所述语音数据对应的表情标识和虚拟形象标识;基于所述表情标识和虚拟形象标识,生成面部表情关键点;基于所述语音数据、面部表情关键点,构建有声表情。以此方式,解决了表情情感表达效果单一的问题。
Description
技术领域
本申请的实施例涉及表情生成领域,尤其涉及有声表情的生成方法、装置、设备和计算机可读存储设备。
背景技术
随着互联网技术以及手机终端的发展,网络社交成为一种重要的社交方式,用户可以通过即时通讯工具发送信息进行互动,例如可以发送文字、表情包等,其中,表情包是一种通过静态或动态图像来表达情感的方式,能够弥补文字交流的枯燥和态度表达不准确的弱点,提高互动交流的趣味性。
但是,这些表情包难以从听觉维度共同传达情绪信息,而在网络社交场景中,语音是情感表达的一种重要媒介,表情包无法传达语音信息,导致情感表达效果单一,通过表情包进行沟通的互动效果较为单一,因此,对于即时通讯工具的运营商来说,如何生成语音表情,以丰富表情包的情感传达维度,增强用户之间的互动性,是目前的一个重要研究方向。
发明内容
根据本申请的实施例,提供了一种有声表情的生成方案。
在本申请的第一方面,提供了一种有声表情的生成方法。该方法包括:
获取用户的语音数据;
将所述语音数据输入至数据分析模型,得到与所述语音数据对应的表情标识和虚拟形象标识;
基于所述表情标识和虚拟形象标识,生成面部表情关键点;
基于所述语音数据、面部表情关键点,构建有声表情。
进一步地,所述数据分析模型过如下方式进行训练:
生成训练样本集合,其中,训练样本包括带有标注信息的语音数据;所述标注信息为表情标识和虚拟形象标识;
利用所述训练样本集合中的样本对数据分析模型进行训练,以脚本文件作为输入,以表情标识和虚拟形象标识作为输出,当输出的表情标识和虚拟形象标识与标注的表情标识和虚拟形象标识的统一率满足预设阈值时,完成对数据分析模型的训练。
进一步地,所述基于所述表情标识和虚拟形象标识,生成面部表情关键点包括:
基于所述表情标识,通过TTS生成有感情的语音;
基于所述有感情的语音和虚拟形象标识,生成面部表情关键点。
进一步地,所述有声表情包括面部表情、口型、头部运动和肢体动作。
在本申请的第二方面,提供了一种有声表情的生成装置。该装置包括:
获取模块,用于获取用户的语音数据;
分析模块,用于将所述语音数据输入至数据分析模型,得到与所述语音数据对应的表情标识和虚拟形象标识;
生成模块,用于基于所述表情标识和虚拟形象标识,生成面部表情关键点;
构建模块,用于基于所述语音数据、面部表情关键点,构建有声表情。
进一步地,所述数据分析模型过如下方式进行训练:
生成训练样本集合,其中,训练样本包括带有标注信息的语音数据;所述标注信息为表情标识和虚拟形象标识;
利用所述训练样本集合中的样本对数据分析模型进行训练,以脚本文件作为输入,以表情标识和虚拟形象标识作为输出,当输出的表情标识和虚拟形象标识与标注的表情标识和虚拟形象标识的统一率满足预设阈值时,完成对数据分析模型的训练。
进一步地,所述基于所述表情标识和虚拟形象标识,生成面部表情关键点包括:
基于所述表情标识,通过TTS生成有感情的语音;
基于所述有感情的语音和虚拟形象标识,生成面部表情关键点。
进一步地,所述有声表情包括面部表情、口型、头部运动和肢体动作。
在本申请的第三方面,提供了一种电子设备。该电子设备包括:存储器和处理器,所述存储器上存储有计算机程序,所述处理器执行所述程序时实现如以上所述的方法。
在本申请的第四方面,提供了一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现如根据本申请的第一方面的方法。
本申请实施例提供的有声表情的生成方法,通过获取用户的语音数据;将所述语音数据输入至数据分析模型,得到与所述语音数据对应的表情标识和虚拟形象标识;基于所述表情标识和虚拟形象标识,生成面部表情关键点;基于所述语音数据、面部表情关键点,构建有声表情,解决了表情情感表达效果单一的问题。
应当理解,发明内容部分中所描述的内容并非旨在限定本申请的实施例的关键或重要特征,亦非用于限制本申请的范围。本申请的其它特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本申请各实施例的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示出了本申请的实施例提供的方法所涉及的系统架构图。
图2示出了根据本申请的实施例的有声表情的生成方法的流程图;
图3示出了根据本申请的实施例的有声表情的生成装置的方框图;
图4示出了适于用来实现本申请实施例的终端设备或服务器的结构示意图。
具体实施方式
为使本公开实施例的目的、技术方案和优点更加清楚,下面将结合本公开实施例中的附图,对本公开实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本公开一部分实施例,而不是全部的实施例。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本公开保护的范围。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1示出了可以应用本申请的有声表情的生成方法或有声表情的生成装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如模型训练类应用、视频识别类应用、网页浏览器应用、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio Layer IV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
当终端101、102、103为硬件时,其上还可以安装有视频采集设备。视频采集设备可以是各种能实现采集视频功能的设备,如摄像头、传感器等等。用户可以利用终端101、102、103上的视频采集设备来采集视频。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的数据处理的后台服务器。后台服务器可以对接收到的数据进行分析等处理,并可以将处理结果反馈给终端设备。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。特别地,在目标数据不需要从远程获取的情况下,上述系统架构可以不包括网络,而只包括终端设备或服务器。
如图2所示,是本申请实施例有声表情的生成方法的流程图。从图2中可以看出,本实施例的有声表情的生成方法,包括以下步骤:
S210,获取用户的语音数据。
在本实施例中,用于有声表情的生成方法的执行主体(例如图1所示的服务器)可以通过有线方式或者无线连接的方式获取用户的语音数据。
进一步地,上述执行主体可以获取与之通信连接的电子设备(例如图1所示的终端设备)发送的用户的语音数据,也可以是预先存储于本地的用户的语音数据。
S220,将所述语音数据输入至数据分析模型,得到与所述语音数据对应的表情标识和虚拟形象标识。
其中,表情标识为,对人类情感进行的标定,如,喜、怒、哀、乐等。
生成训练样本集合,其中,训练样本包括带有标注信息的语音数据;所述标注信息为表情标识和虚拟形象标识;
利用所述训练样本集合中的样本对数据分析模型进行训练,以脚本文件作为输入,以表情标识和虚拟形象标识作为输出,当输出的表情标识和虚拟形象标识与标注的表情标识和虚拟形象标识的统一率满足预设阈值时,完成对数据分析模型的训练。
在一些实施例中,所述表情标识可以为多个,即,根据不同的语境可以分别标注多个表情标识。
S230,基于所述表情标识和虚拟形象标识,生成面部表情关键点。
在一些实施例中,基于所述表情标识,通过TTS生成有感情的语音;基于所述有感情的语音和虚拟形象标识,生成面部表情关键点。
通常用户直接录入的语音会有一定的噪音(口音、背景声音嘈杂等),因此,直接使用用户录入的语音,生成面部表情关键点会出现不匹配的问题,即不能够生成和用户所表达的“情感”一致的面部表情,因此在本公开中,基于所述表情标识,通过TTS生成有感情的语音,基于所述有感情的语音和虚拟形象标识,生成面部表情关键点。
在一些实施例中,为了进一步地提升用户体验,所述面部表情关键点具有一定的随机性,如,通过情绪“愤怒”可构建多组与其对应的面部表情,避免了现有模型表情和动作过于单一的缺陷,大幅度提升了模型的拟人性,增强了互动体验。
S240,基于所述语音数据、面部表情关键点,构建有声表情。
在一些实施例中,基于所述语音数据、面部表情关键点,构建有声表情。所述有声表情包括面部表情、口型、头部运动和/或肢体动作等。
下面给出基于本公开的有声表情的生成方法,实现用户间信息传达的具体实施例:
在本申请实施例中,第一终端为第一用户所使用的终端,安装和运行有支持即时通讯的目标应用程序,第二终端为第二用户所使用的终端,其功能与第一终端类似,第一、二终端为互相进行信息传递的终端。
第一终端触发配音(发出语音)指令“我今天很生气”,该触发操作可以为点击操作、长按操作等,参考现有技术中语音录入,在此不做具体限定。
通过本公开的方法,将语音“我今天很生气”转化为包括面部表情、口型、头部运动和肢体动作的多个三维人物模型,该三维人物模型为随机生成的与语音“我今天很生气”对应的多个三维人物模型,第一用户可根据自己的喜好,选取一个或多个三维人物模型发送至第二终端,同时第一用户也可以将生成的任一三维人物模型进行保存,以便下次能够直接使用,即,第一用户在下次使用时,不需要进行语音录入,直接可以从表情数据库(表情包)中调出。
根据本公开的实施例,实现了以下技术效果:
通过本公开的方法,可以将用户录入的语音,转化为具有高度拟人特征(对应的表情、动作和有感情的语音)表情,大幅提升了用户的交互体验。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于可选实施例,所涉及的动作和模块并不一定是本申请所必须的。
以上是关于方法实施例的介绍,以下通过装置实施例,对本申请所述方案进行进一步说明。
图3示出了根据本申请的实施例的有声表情的生成装置500的方框图如图3所示,装置300包括:
获取模块310,用于获取用户的语音数据;
分析模块320,用于将所述语音数据输入至数据分析模型,得到与所述语音数据对应的表情标识和虚拟形象标识;
生成模块330,用于基于所述表情标识和虚拟形象标识,生成面部表情关键点;
构建模块340,用于基于所述语音数据、面部表情关键点,构建有声表情。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,所述描述的模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
图4示出了适于用来实现本申请实施例的终端设备或服务器的结构示意图。
如图4所示,终端设备或服务器400包括中央处理单元(CPU)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储部分408加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有系统400操作所需的各种程序和数据。CPU 401、ROM 402以及RAM 403通过总线404彼此相连。输入/输出(I/O)接口405也连接至总线404。
以下部件连接至I/O接口405:包括键盘、鼠标等的输入部分406;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分407;包括硬盘等的存储部分408;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分409。通信部分409经由诸如因特网的网络执行通信处理。驱动器410也根据需要连接至I/O接口405。可拆卸介质411,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器410上,以便于从其上读出的计算机程序根据需要被安装入存储部分408。
特别地,根据本申请的实施例,上文方法流程步骤可以被实现为计算机软件程序。例如,本申请的实施例包括一种计算机程序产品,其包括承载在机器可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分409从网络上被下载和安装,和/或从可拆卸介质411被安装。在该计算机程序被中央处理单元(CPU)401执行时,执行本申请的系统中限定的上述功能。
需要说明的是,本申请所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。
计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,前述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中。其中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中的。上述计算机可读存储介质存储有一个或者多个程序,当上述前述程序被一个或者一个以上的处理器用来执行描述于本申请的方法。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的申请范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离前述申请构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中申请的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (10)
1.一种有声表情的生成方法,其特征在于,包括:
获取用户的语音数据;
将所述语音数据输入至数据分析模型,得到与所述语音数据对应的表情标识和虚拟形象标识;
基于所述表情标识和虚拟形象标识,生成面部表情关键点;
基于所述语音数据、面部表情关键点,构建有声表情。
2.根据权利要求1所述的方法,其特征在于,所述数据分析模型过如下方式进行训练:
生成训练样本集合,其中,训练样本包括带有标注信息的语音数据;所述标注信息为表情标识和虚拟形象标识;
利用所述训练样本集合中的样本对数据分析模型进行训练,以脚本文件作为输入,以表情标识和虚拟形象标识作为输出,当输出的表情标识和虚拟形象标识与标注的表情标识和虚拟形象标识的统一率满足预设阈值时,完成对数据分析模型的训练。
3.根据权利要求2所述的方法,其特征在于,所述基于所述表情标识和虚拟形象标识,生成面部表情关键点包括:
基于所述表情标识,通过TTS生成有感情的语音;
基于所述有感情的语音和虚拟形象标识,生成面部表情关键点。
4.根据权利要求3所述的方法,其特征在于,所述有声表情包括面部表情、口型、头部运动和肢体动作。
5.一种有声表情的生成装置,其特征在于,包括:
获取模块,用于获取用户的语音数据;
分析模块,用于将所述语音数据输入至数据分析模型,得到与所述语音数据对应的表情标识和虚拟形象标识;
生成模块,用于基于所述表情标识和虚拟形象标识,生成面部表情关键点;
构建模块,用于基于所述语音数据、面部表情关键点,构建有声表情。
6.根据权利要求5所述的装置,其特征在于,所述数据分析模型过如下方式进行训练:
生成训练样本集合,其中,训练样本包括带有标注信息的语音数据;所述标注信息为表情标识和虚拟形象标识;
利用所述训练样本集合中的样本对数据分析模型进行训练,以脚本文件作为输入,以表情标识和虚拟形象标识作为输出,当输出的表情标识和虚拟形象标识与标注的表情标识和虚拟形象标识的统一率满足预设阈值时,完成对数据分析模型的训练。
7.根据权利要求6所述的装置,其特征在于,所述基于所述表情标识和虚拟形象标识,生成面部表情关键点包括:
基于所述表情标识,通过TTS生成有感情的语音;
基于所述有感情的语音和虚拟形象标识,生成面部表情关键点。
8.根据权利要求7所述的装置,其特征在于,所述有声表情包括面部表情、口型、头部运动和肢体动作。
9.一种电子设备,包括存储器和处理器,所述存储器上存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1~4中任一项所述的方法。
10.一种计算机可读存储设备,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1~4中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210884994.2A CN115393476A (zh) | 2022-07-26 | 2022-07-26 | 有声表情的生成方法、装置和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210884994.2A CN115393476A (zh) | 2022-07-26 | 2022-07-26 | 有声表情的生成方法、装置和设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115393476A true CN115393476A (zh) | 2022-11-25 |
Family
ID=84115823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210884994.2A Pending CN115393476A (zh) | 2022-07-26 | 2022-07-26 | 有声表情的生成方法、装置和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115393476A (zh) |
-
2022
- 2022-07-26 CN CN202210884994.2A patent/CN115393476A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11158102B2 (en) | Method and apparatus for processing information | |
US11151765B2 (en) | Method and apparatus for generating information | |
CN107633218B (zh) | 用于生成图像的方法和装置 | |
CN107153496B (zh) | 用于输入表情图标的方法和装置 | |
CN107393541B (zh) | 信息验证方法和装置 | |
CN111476871B (zh) | 用于生成视频的方法和装置 | |
CN110162670B (zh) | 用于生成表情包的方法和装置 | |
CN107609506B (zh) | 用于生成图像的方法和装置 | |
WO2022170848A1 (zh) | 人机交互方法、装置、系统、电子设备以及计算机介质 | |
CN109740167B (zh) | 用于生成信息的方法和装置 | |
CN109981787B (zh) | 用于展示信息的方法和装置 | |
CN107481715B (zh) | 用于生成信息的方法和装置 | |
CN107592255B (zh) | 信息展示方法和设备 | |
CN111582360B (zh) | 用于标注数据的方法、装置、设备和介质 | |
CN111800671A (zh) | 用于对齐段落和视频的方法和装置 | |
CN109873756B (zh) | 用于发送信息的方法和装置 | |
CN112364144B (zh) | 交互方法、装置、设备和计算机可读介质 | |
CN112910761B (zh) | 即时通讯方法、装置、设备、存储介质以及程序产品 | |
CN113850898A (zh) | 场景渲染方法及装置、存储介质及电子设备 | |
CN110245334A (zh) | 用于输出信息的方法和装置 | |
CN115393476A (zh) | 有声表情的生成方法、装置和设备 | |
CN111260756A (zh) | 用于发送信息的方法和装置 | |
JP6949931B2 (ja) | 情報を生成するための方法および装置 | |
CN107608718A (zh) | 信息处理方法和装置 | |
CN113221514A (zh) | 文本处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |