CN110176044A - 信息处理方法、装置、存储介质和计算机设备 - Google Patents
信息处理方法、装置、存储介质和计算机设备 Download PDFInfo
- Publication number
- CN110176044A CN110176044A CN201810590159.1A CN201810590159A CN110176044A CN 110176044 A CN110176044 A CN 110176044A CN 201810590159 A CN201810590159 A CN 201810590159A CN 110176044 A CN110176044 A CN 110176044A
- Authority
- CN
- China
- Prior art keywords
- image
- dynamic scene
- image characteristics
- dynamic
- mapped
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44521—Dynamic linking or loading; Link editing at or after load time, e.g. Java class loading
- G06F9/44526—Plug-ins; Add-ons
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Processing Or Creating Images (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
Abstract
本申请涉及一种信息处理方法、装置、计算机可读存储介质和计算机设备,方法包括:获取待映射形象框架;识别目标人体,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量;根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息;当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景;根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像。该方法扩充了获取表情图像的途径,进而丰富了用户的表情图像资源。
Description
技术领域
本申请涉及计算机技术领域,特别是涉及一种信息处理方法、装置、计算机可读存储介质和计算机设备。
背景技术
随着互联网技术的快速发展,社交网络平台已成为人们沟通交流的重要工具。为便于人们的沟通交流,社交网络平台提供了表情图像工具,因表情图像能够形象、直观地表达用户的情绪,而被广泛应用在社交网络平台。
传统的社交网络平台提供有表情库供用户下载,用户可选择已保存的表情图像发送给会话好友,以形象地表示用户当前的情绪。然而,对于用户而言,已存储的表情图像资源有限。当用户需要使用新的表情图像时,只能从表情库中下载,即表情库是用户获取表情图像资源的唯一手段。这就导致获取表情图像资源的手段有限,进而对用户的表情图像资源造成了限制。
发明内容
基于此,有必要针对表情图像资源有限的技术问题,提供一种信息处理方法、装置、计算机可读存储介质和计算机设备。
一种信息处理方法,包括:
获取待映射形象框架;
识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量;
根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息;当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景;
根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像。
一种信息处理装置,包括:
形象框架获取模块,用于获取待映射形象框架;
检测模块,用于识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量;
参数获取模块,用于根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息;
动态场景确定模块,用于当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景;
图像获取模块,用于根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像。
一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述方法的步骤。
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行上述方法的步骤。
上述的信息处理方法、装置、计算机可读存储介质和计算机设备,在获取到待映射形象框架后,通过目标对象的形象特征变化量,确定待映射形象框架中对应对象参数的参数信息,当获取到动态场景控制指令时,确定动态场景,根据参数信息和动态场景,对映射形象框架进行处理,得到对应的动态图像。由于能够根据形象特征变化量和动态场景控制指令,基于待映射形象框架实时生成动态图像,因此,该方法扩充了获取表情包图像的途径,进而丰富了用户的表情包资源。
附图说明
图1为一个实施例中信息处理方法的应用环境示意图;
图2为一个实施例中信息处理方法的流程示意图;
图3为一个实施例中形象框架的示意图;
图4为另一个实施例中形象框架的示意图;
图5为另一个实施例中信息处理方法的流程示意图;
图6为一个实施例的社交应用显示有形象框架的会话界面示意图;
图7至图9为小黄人形象框架的动态图像;
图10至图11为小鸟形象框架的动态图像;
图12为一个实施例的展示有录制控件的显示界面示意图;
图13为一个实施例的发送给会话好友的动态表情图像的显示界面示意图;
图14为一个实施例中信息处理装置的结构框图;
图15为一个实施例中计算机设备的结构框图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
图1为一个实施例中信息处理方法的应用环境示意图。如图1所示,该应用环境包括第一终端101、第二终端102和应用服务器103。第一终端101和第二终端102分别与应用服务器连接。第一终端101的用户与第二终端102的用户为社交平台的好友,应用服务器103为社交平台的应用服务器。第一终端101和第二终端均可执行一种信息处理方法,以第一终端101响应操作,执行一种信息处理方法为例,在第一终端101的会话界面生成动态表情图像并显示,响应用户的发送操作,通过应用服务器103将动态表情图像发送至第二终端102。本申请的方法能够直接在用户终端生成动态表情图像,扩大了用户获取表情图像的方式,丰富了用户的表情图像资源。
如图2所示,一种信息处理方法,执行于如图1所示的第一终端或第二终端,该方法包括以下步骤:
S202,获取待映射形象框架。
待映射形象框架是指,是指具有人物形象,能够根据目标对象的形象特征映射,体现目标对象的形象特征的一种形象框架。其中,人物形象是形象框架的外部特征,通过视觉能够直观地区分不同的形象框架。例如,一个形象框架的人物形象为小黄人,一个形象框架的人物形象为小狗等等。
在具体的实施方式中,可提供多个形象框架供用户选择。终端运行相关应用程序,包括表情制作应用程序或社交应用程序。待映射形象框架可基于用户在相关应用程序中对形象选择控件的触发操作获取得到。以相关应用程序为社交应用程序为例,在终端的社交应用程序的会话界面提供形象选择控件,当检测到对该形象选择控件的操作时,响应形象触发操作,在会话界面显示可供选择的形象框架。终端根据形象选择操作,获取所选择的待映射形象框架。形象选择控件指示用户进行交互,并基于交互操作显示形象框架,具体可以为一个形象按钮。
S204,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。
目标对象是形象特征映射的参考,目标对象是具有相应形象特征的人或动物。形象特征能够反应目标对应形象的关键内容,可以是目标对象的关键部位,例如面部部位和肢体部位。在一个实施例中,形象特征包括面部特征和/或姿态特征。具体地,在一个应用环境中识别目标对象,提取目标对象的形象特征。例如,利用图像识别技术或人体检测技术,识别目标对象的各部位在应用环境的位置,具体的应用环境可以为采集得到的图像,也可以为摄像头的拍摄环境。
本实施例中的形象特征变化量,是指目标对象的形象特征的变化情况,具体地是指目标对象的形象特征相对于人体标准形象特征的变化量。以目标对象为人体为例,形象特征变化量为目标对象的人体各部位相对于人体标准状态的变化量。例如,头部和四肢相对于标准状态的变化量,面部各器官相对于标准面部表情的变化量。其中目标对象可通过调用终端的摄像头实时采集图像,识别图像中的目标人体(终端的用户)得到。目标对象还可以通过对一张图像,利用图像识别技术提取得到,通过提取图像中的人体或动物与目标标准状态进行比较,得到形象特征变化量。目标标准状态可以为目标站立且各部位无动作的状态。在具体的应用场景中,基于形象框架的具体形象,所需检测的人体部位不同。若形象框架的人物形象具有头部和四肢,则所需检测的形象特征包括头部、面部五官及四肢的变化量。若形象框架的人物形象仅具有头部,则所需检测的形象框架包括头部和面部五官。
变化量是一个数值,根据各目标对象的形象特征相对于目标标准状态的变化幅度计算得到。形象特征包括面部特征和/或姿态特征。面部特征通过面部各器官的特征体现,例如目标对象的眼睛、眉毛和嘴巴等。姿态特征通过目标对象的肢体体现,例如目标对象的头部和四肢等。例如,形象特征变化量包括头部变化量,是指头部相对于标准状态的动作幅度,如头部向左转动的情况。又例如,形象特征变化量包括四肢变化量,是指四肢相对于标准状态的动作幅度,如抬手的情况。又例如,形象特征变化量包括面部各部位的变化脸,如眼睛的动作情况,嘴巴的动作情况,眉毛的动作情况等等。
本实施例中的步骤编号并不是对步骤执行先后顺序的限定。本实施例中可以先获取待映射形象框架,再检测得到形象特征变化量,也可以在检测得到形象特征变化量后,获取待映射形象框架。例如,在一个实施例中,获取用户选择的待映射形象框架,打开摄像头,检测得到目标对象的形象特征变化量。在另一个实施例中,例如表情制作软件,先打开摄像头,检测得到形象特征变化量,再获取用户选择的待映射形象框架。
S206,根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息。
形象参数是指待映射形象框架所具有内容,参数信息为形象参数的属性值,包括形象参数的动作方向和动作幅度。如图3所示,一个待映射形象框架为小黄人,具有头部和面部五官(如眉毛、眼睛和嘴巴)等形象参数。其参数信息包括:颜色为黄色,头部形状为圆形,眉毛的形状,眼睛大小和嘴巴形状。如图4所示,一个待映射形象框架为一个卡通形象,具有面部、四肢和头部等形象特征。其形象参数包括:头部形状为圆形,四肢的长度、头发长度、头发颜色,眉毛的形状,眼睛大小和嘴巴形状等。
在其它的实施方式中,根据形象框架不同的人物形象,形象框架可具有不同的形象参数。
具体地,待映射形象框架中的对应形象参数与目标对象的形象特征对应。例如,形象框架的头部与目标对象的头部对应,形象框架的四肢与目标对象的四肢对应等等,形象框架的面部与目标对象的面部对应。
形象参数的参数信息与目标对象的形象特征变化量相关,具体地,形象参数的参数信息基于目标对象的形象特征变化量确定,例如,目标对象的形象特征变化量包括头部向右旋转90度,则形象参数的头部参数向右旋转90度。
在一个实施例中,形象特征包括面部特征;根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息,包括:根据面部特征变化量,确定待映射形象框架中的对应面部参数的参数信息。
具体地,面部特征通过面部五官体现,则面部参数包括面部五官。根据面部特征变化量,确定待映射形象框架中对应面部五官的参数信息,即将目标对象的面部特征映射至形象框架的面部,形象框架的面部表情跟随目标对象的面部表情变化。
在另一个实施例中,形象特征包括姿态特征;根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息,包括:根据姿态特征变化量,确定待映射形象框架中对应姿态参数的参数信息。
具体地,姿态特征通过头部动作和四肢动作体现,则状态参数包括头部和四肢。根据姿态特征变化量,确定待映射形象框架中对应头部和四肢的参数信息,即将目标对象的状态特征映射至形象框架,形象框架的头部和四肢跟随目标对象的头部和四肢运动。
在一个实施例中,形象特征包括面部特征和姿态特征,形象框架的面部表情跟随目标对象的面部表情变化,且形象框架的头部和四肢跟随目标对象的头部和四肢运动。
S208,当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景。
其中,动态场景控制指令,是指能够触发动态场景的指令。动态场景控制指令可以是语音指令,还可以是根据人脸表情判断结果生成的控制指令。动态场景是动画图像,能够表示一种场景状态,场景状态与场景控制指令相关。场景状态可以场景环境,例如天气环境,如语音输入动态场景控制指令“冷”,则动态场景可以为下雪的动态场景。场景状态还可以是一种情绪状态,如语音输入动态场景控制指令“喷火”,则动态场景可以为喷火的动态场景。如对一段时间内的用户表情进行分析,在用户在该时间段内维持一个表情状态,则生成对应的动态场景控制指令,例如,若用户生气的表情持续了100毫秒,则生成与生气相关的动态场景控制指令,则动态场景可以为喷火的动态场景,以表示生气状态。对于各形象框架,不同的动态场景控制指令,能够触发该形象框架不同的动态场景。
S210,根据参数信息和动态场景,对表情待映射形象框架进行处理,得到对应的动态图像。
具体地,根据待映射形象框架中的对应形象参数的参数信息,调整待映射形象框架相应的形象参数,并将调整后的形象框架置于该动态场景中,得到动态图像。即,动态图像映射了目标对象的形象特征,与实际目标对象的形象特征一致。本实施例的形象特征可包括但不限于面部特征和姿态特征,其中,面部特征包括但不限于嘴、眉、眼睛等形象部位的特征,姿态特征包括但不限于四肢和头部等形象部位的特征。
上述的信息处理方法,在获取到待映射形象框架后,通过目标对象的形象特征变化量,确定待映射形象框架中对应对象参数的参数信息,当获取到动态场景控制指令时,确定动态场景,根据参数信息和动态场景,对映射形象框架进行处理,得到对应的动态图像。由于能够根据形象特征变化量和动态场景控制指令,基于待映射形象框架实时生成动态图像,因此,该方法扩充了获取表情包图像的途径,进而丰富了用户的表情包资源。
在另一个实施例中,在得到动态图像后,还包括:响应录制指令,录制动态图像,得到动态表情图像。
其中,录制指令可以为语音指令,通过语音识别检测是否包括录制指令。当检测到录制指令时,响应录制指令,执行录制操作。例如,当识别到例如“录制”的语音命令时,录制动态场景图像并保存为设定格式。录制指令还可以通过检测对录制控件的操作触发。具体地,终端的显示界面提供有录制控件,用户通过操作该录制控件,触发录制指令。录制控件的形式不限,可以为一个录制按钮,也可以为一个根据触摸时间录制对应视频时长的圆形控件。当检测到对录制控件的操作时,响应录制指令,录制动态场景图像,得到动态表情图像。其中,动态表情图像的格式可以为视频格式或GIF(Graphics Interchange Format)格式。在具体的应用场景中,可以将动态表情图像保存在本地。
在具体的应用场景中,终端的显示界面还提供保存格式选择控件。具体地,当用户操作形象选择控件时,在终端的显示界面显示保存格式选择控件。可供选择的保存格式包括视频格式和GIF格式。当用户选择保存为视频格式时,将动态表情图像保存为视频格式,其中,用户选择保存为GIF格式时,将动态表情图像保存为GIF格式。
可以理解的是,在录制的过程中,目标对象可变换形象特征和动态场景控制指令,即动态表情图像可以是多个动态图像的组合。
该信息处理方法,能够根据用户的录制指令,将动态表情图像保存,便于动态表情图像的传播。该信息处理方法的实用场景可以为表情制作应用程序。
在另一个实施例中,信息处理方法实际应用场景可以为社交应用。社交应用是指一种社交应用程序,终端装载有社交应用客户端,通过社交应用客户端实现好友之间的会话,会话形式包括但不限于文字、语音和视频。
本实施例中,获取待映射形象框架,包括:在社交应用的会话界面,基于形象触发操作获取待映射形象框架。
具体地,在社交应用的会话界面,设置有形象选择控件,当检测到对该形象选择控件的操作时,响应形象选择操作,在会话界面显示可供选择的形象框架,终端根据形象选择操作,获取所选择的形象框架作为待映射形象框架。信息处理方法还包括,将动态表情图像发送至会话好友。可选地,在录制完成后,在终端的显示界面预览该动态表情图像。同时,在终端的显示界面设备发送控件,在获取的发送触发操作时,将动态表情图像发送至会话好友。
该信息处理方法,在会话界面即可进行动态表情制作,并实时地将制作的动态表情发送至会话好友,提高了表情制作的操作便利性。
在一个实施例中,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量,包括:基于终端的摄像头,调用视觉惯性测程程序,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。
其中,视觉惯性测程程序,是指利用终端的摄像头,来测定和追踪目标对象的动作情况,得到目标对象的形象特征变化量的应用程序。其中,终端的摄像头是具有深度感知能力的摄像头,能够测定目标对象的深度信息。例如,苹果公司推出的ARKit,即是利用了视觉惯性测程法的程序。当终端为苹果设备时,可基于终端的摄像头,调用ARKit程序,识别目标对象的形象特征,检测得到形象特征变化量。
具体地,打开终端的摄像头,基于ARKit程序识别目标对象,确定目标对象的关键部位,即形象特征,例如,目标对象的四肢、头部、嘴部、眼部和眉毛等等,基于ARKit程序,追踪目标对象关键部位的动作情况,将目标对象关键部位的动作情况与目标对象标准状态进行比较,得到目标对象的形象特征变化量。本实施例中的形象特征变化量包括目标对象各部位的变化方向和变化数值。
上述的信息处理方法,通过打开终端的摄像头,基于视觉惯性测程程序,检测得到形象特征变化量,简化了形象特征变化量的检测方法,提高形象特征变化量的检测效率。
在另一个实施例中,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量,包括:获取图像;识别图像中的目标对象;提取目标对象的预设形象特征;根据预设形象特征与预存储的标准目标对象的形象特征进行比较,确定形象特征变化量。
其中,图像可以通过调用终端的摄像头采集得到,也可以通过打开终端本地保存的图片得到。利用图像识别技术,识别图像中的目标对象,提取目标对象的预设形象特征,其中,预设形象特征可以为目标对象的关键部分,例如,四肢、头部、嘴部、眼部和眉毛等部位的特征。本实施例中的图像识别技术,可通过利用神经网络模型,对大量标注数据进行深度学习,得到图像识别模型,提取输入图像中的预设形象特征。将预设形象特征与预存储的标准目标对象的形象特征进行比较,确定形象特征变化量。本实施例中的形象特征变化量包括形象特征变化方向和变化数值。
上述的信息处理方法,根据获取的图像,利用图像识别技术检测目标对象的形象特征变化量,扩大获取形象特征变化量的途径,且该方法不受终端机型的设置,能够适用于各种型号的终端。
在另一个实施例中,形象特征变化量包括人脸部位变化量;根据人脸部位变化量计算各表情状态值;当根据各表情状态值确定达到任一种设定情绪状态时,得到与情绪状态对应的动态场景控制指令。
具体地,人脸各部位是面部的组成部分,而人脸各部位的动作,表现为面部表情。面部表情能够直观的反应人的情绪。本实施例中,根据人脸部位变化量,当检查到用户处于设定的情绪时,生成与情绪对应的动态场景控制指令,从而根据动态场景控制指令确定的动态场景,能够反应情绪。例如,根据人脸变化量,当检查到用户处于生气的情绪时,生成与生气情绪对应的动态场景控制指令。又例如,根据人脸变化量,当检查到用户处于开心的情绪时,生成与开心情绪对应的动态场景控制指令。即根据动态场景控制指令确定的动态场景,能够反应用户当前情绪。
具体地,眉毛、嘴巴和眼睛等人脸部位最能反应人的情绪。例如,在生气状态,人通常会皱眉和撇嘴。在开心状态,人通常会瞪眼且嘴角上移。在悲伤状态,通常人的眼睛向内倾斜且嘴巴前突。
本实施例中,通过对大量图像数据进行训练,提取各种情绪状态下,反应该情绪的人脸部位,以及各人脸部位的动作情况,动作情况包括动作方向和动作幅度。以此总结大量经验数据,获得根据人脸变化量评估当前人体处于的情绪状态的方式。具体的,根据获得的经验数据和评估方式,设置各种情绪的计算方式,计算方法所需的参数(人体部位)和判断阈值。如根据人体部位中的眉毛和嘴巴,利用设定的计算公式,提取眉毛和嘴巴的变化量,得到生气表情状态值。当生气表情状态值大于阈值时,确定当前情绪处于生气状态。又例如,根据人体部位中的眼睛和嘴巴,利用设定的计算公式,提取眼睛和嘴巴的变化量,得到悲伤表情状态值。当悲伤表情状态值大于阈值时,确定当前情绪处于悲伤状态。
在一个具体的实施方式中,生气表情状态值的计算方式为:
生气表情状态值=A*K1+B*K2
其中,A为皱眉的变化量,B为撇嘴的变化量,K1为眉毛的权重,K2为嘴巴的权重,权重根据大量数据学习得到,例如K1可取值为0.7,K2可取值为0.3。当生气表情状态值大于阈值时,确定处于生气情绪状态。
开心表情状态值的计算方式为:
开心表情状态值=D*K3+E*K4
其中,D为瞪眼变化量,E为嘴巴上移的变化量,K3为眼睛的权重,K4为嘴巴的权重,权重根据大量数据学习得到,例如K3可取值0.85,K4可取值0.15。当开心表情状态值大于阈值时,确定处于开心情绪状态。
悲伤表情状态值的计算方式为:
悲伤表情状态值=G*K5+H*K6+B*K7
其中,G为眼睛向内倾斜的变化量,H为嘴巴前移的变化量,B为撇嘴的变化量,K5为眼睛的权重,K6为嘴巴的权重,K7为眉毛的权重,权重根据大量数据学习得到,例如,K5可取值0.6,K6可取值0.2,K7可取值0.2。当悲伤表情状态值大于阈值时,确定处于悲伤情绪状态。
当各表情状态值达到任一种设定情绪状态时,得到与情绪状态对应的动态场景控制指令,即确定当前处于任一种情绪状态时,得到与情绪状态对应的动态场景控制指令,如产生生气场景控制指令,悲伤场景控制指令或开心场景控制指令。
在其它的应用场景,动态场景控制指令还可以结合情绪状态的持续时长来确定,即当某种情绪状态持续设定时长,例如100毫秒以上,才生产相应的动态场景控制指令。
本实施例中的动态场景控制指令,基于人脸变化量进行判断,即能够根据用户当前情绪,产生与当前情绪相对应的动态场景控制指令,使得制作的动态表情反应用户当前情绪,提高表情的有效性和真实性。
在另一个实施例中,获取动态场景控制指令的方式包括:采集音频信号;对音频信号进行处理,获取音频信号的语音识别结果;当语音识别结果包括任一预设关键字时,得到与预设关键字对应的动态场景控制指令。
具体地,调用终端的音频采集设备,采集音频信号,对音频信号进行处理,处理方式可以为将音频信号发送至服务器,由服务器对音频信号进行识别,终端接收服务器返回的音频识别结果。处理方式还可以由终端设备自身对音频信号进行识别,得到语音识别结果。
预先设置有动态场控制指令对应的关键字,例如“喷火”,“冒烟”,“爱心”等,当语音识别结果包括上述任一关键字时,得到与预设关键字对应的动态场景控制指令。
可以理解的是,动态场景控制指令的获取方式,可以包括基于人脸变化量计算和语音识别。即,终端打开摄像头和麦克风,当同时采集到两种方式获取的动态场景控制指令时,均执行对应动态场景控制指令的动态场景。例如,基于人脸变化量检测到生气情绪相关的动态场景控制指令,基于语音识别,检测到“喷火”动态场景控制指令,则动态表情图像包括了生气场景和喷火场景。
上述的信息处理方法,通过语音识别检测动态场景控制指令,增加了动态场景控制指令的方式,为用户操作提供了便利。
在一个实施例中,当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景,包括:当获取到动态场景控制指令时,确定与动态场景控制指令对应的粒子参数;根据粒子参数,调用粒子系统生成动态场景。
即,本申请中的动态场景使用粒子系统制作完成。其中,粒子系统包含了全部的发射装置,定义了场景中的粒子行为规则。粒子系统主要是用来创建雨、雪、爆炸、灰尘、泡沫、火花、气流等。它还可以将任何造型作为粒子,用来表现成群的蚂蚁、热带鱼、吹散的蒲公英等动画效果。粒子系统主要用于表现动态的效果,与时间速度的关系非常紧密,一般用于动画制作。粒子参数用于形成粒子大小,粒子排放时间和发射间隔时间。
例如,冒烟粒子动态场景,以球面为发射器,粒子大小为0.08,粒子排放时长0.01秒,间隔0.1秒发射一次,每次发射20个小粒子。
可以理解的是,本实施例中的粒子参数以代码的形式存储,当获取到动态场景控制指令时,调用粒子系统执行其中的粒子参数。
本实施例中的信息处理方法,通过粒子系统生成动态场景,生成的动态场景具有动画效果。
在另一个实施例中,当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景,包括:当获取到动态场景控制指令时,获取与动态场景控制指令对应的动态场景标识;根据动态场景标识,查找对应的图像得到动态场景。
本实施例中,动态场景通过预先制作图像得到,该图像为动画形式,每个图像设置有唯一的动态场景标识。动态场景标识与动态场景控制指令对应,动态场景标识与动态图像的存储地址对应。当获取到动态场景控制指令时,查找对应的动态场景标识,根据动态场景标识,从存储地址中加载图像,得到动态场景。
例如,悲伤动态场景,提前预备3张眼睛流泪的图片,不停的轮播3张图片作为动态图像。又例如,开心动态场景,创建一个立方体模型,将一张心形的图片贴上去,不停的放大缩小作为动态图像。
上述的信息处理方法,利用预先制作好的动态图像作为动态场景,制作方法简单。
在另一个实施例中,根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像,包括:根据参数信息,调整待映射形象框架中对应形象参数;叠加动态场景和调整的待映射形象框架,得到对应的动态图像。
具体地,根据形象框架中对应参数信息,调整形象框架的对应形象参数,例如,调整形象参数各部位的动作幅度、动作方向等。由于形象框架中的对应形象参数根据目标形象的形象特征变化量得到,基于参数信息调整形象框架的形象参数,将目标对象的形象特征变化映射到形象框架。即形象框架随着目标对象动作而变化。例如,根据目标对象的头部变换调整形象框架的头部旋转角度,根据目标对象的五官动作变化,调整形象框架的面部五官的动作,如眼睛调大,嘴角上扬等等,使得形象框架真实地反应用户当前表情,具有形象,真实和趣味的特点。
通过叠加动态场景和调整后的形象框架,得到对应的动态图像,即动态图像除了映射人体动作外,还叠加了动态场景,如喷火动画场景,爱心动画场景,该方法让普通用户方便快速的制作动漫表情视频或者GIF图片,免去使用专业复杂的图像处理软件制作。
下面,结合具体的应用场景对信息处理方法进行说明。如图5所示,一种信息处理方法包括以下步骤:
S10,在社交应用的会话界面,基于形象触发操作获取待映射形象框架。
一个实施例的社交应用的会话界面如图6所示,在社交应用的会话界面,设置有形象选择控件,当检测到对该形象选择控件的操作时,响应形象触发操作,在会话界面显示可供选择的形象框架,终端根据形象选择操作,获取所选择的形象框架。一个实施例的形象框架包括小黄人、小狗、企鹅和小猫等。
S20,打开终端的摄像头和麦克风。
在获取相应权限且选择形象框架,打开终端的摄像头采集图像数据,打开终端的麦克风采集音频数据。如图6所示,在用户选择形象框架后,提示用户将面孔放入取景框内。
步骤S20之后,执行步骤S301和/或S302。
S301,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。
具体地,基于终端的摄像头,调用视觉惯性测程程序,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量,例如,当终端为苹果设备时,可基于终端的摄像头,基于ARKit程序,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。步骤S306之后执行步骤S3011和S3012。
S3011,根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息。
形象参数是指待映射形象框架所具有内容,参数信息为形象参数的属性值,包括形象参数的动作方向和动作幅度。如图3所示,一个待映射形象框架为小黄人,具有头部和面部五官(如眉毛、眼睛和嘴巴)等形象参数。其参数信息包括:颜色为黄色,头部形状为圆形,眉毛的形状,眼睛大小和嘴巴形状。如图4所示,一个待映射形象框架为一个卡通形象,具有面部、四肢和头部等形象特征。其形象参数包括:头部形状为圆形,四肢的长度、头发长度、头发颜色,眉毛的形状,眼睛大小和嘴巴形状等。
具体地,待映射形象框架中的对应形象参数与目标对象的形象特征对应。例如,形象框架的头部与目标对象的头部对应,形象框架的四肢与目标对象的四肢对应等等,形象框架的面部与目标对象的面部对应。
在一个实施例中,形象特征包括面部特征;根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息,包括:根据面部特征变化量,确定待映射形象框架中的对应面部参数的参数信息。
具体地,面部特征通过面部五官体现,则面部参数包括面部五官。根据面部特征变化量,确定待映射形象框架中对应面部五官的参数信息,即将目标对象的面部特征映射至形象框架的面部,形象框架的面部表情跟随目标对象的面部表情变化。
在另一个实施例中,形象特征包括姿态特征;根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息,包括:根据姿态特征变化量,确定待映射形象框架中对应姿态参数的参数信息。
具体地,姿态特征通过头部动作和四肢动作体现,则状态参数包括头部和四肢。根据姿态特征变化量,确定待映射形象框架中对应头部和四肢的参数信息,即将目标对象的状态特征映射至形象框架,形象框架的头部和四肢跟随目标对象的头部和四肢运动。S3012,根据形象特征变化量计算各表情状态值。
具体地,人脸各部位是面部的组成部分,而人脸各部位的动作,表现为面部表情。面部表情能够直观的反应人的情绪。通过对大量图像数据进行训练,提取各种情绪状态下,反应该情绪的人脸部位,以及各人脸部位的动作情况,动作情况包括动作方向和动作幅度。以此总结大量经验数据,获得根据人脸变化量评估当前人体处于的情绪状态的方式。
S3013,根据各表情状态值确定是否达到任一种设定情绪状态。若是,则执行步骤S3014,若否,则不进行处理。
具体地,根据获得的经验数据和评估方式,设置在各种情绪的计算方式,所需的人体部位作为计算所需的参数和阈值。如根据人体部位中的眉毛和嘴巴,利用设定的计算公式,提取眉毛和嘴巴的变化量,得到生气表情状态值。当生气表情状态值大于阈值时,确定当前情绪处于生气状态。又例如,根据人体部位中的眼睛和嘴巴,利用设定的计算公式,提取眼睛和嘴巴的变化量,得到悲伤表情状态值。当悲伤表情状态值大于阈值时,确定当前情绪处于悲伤状态。
S3014,得到与情绪状态对应的动态场景控制指令。
本实施例中的动态场景控制指令,基于人脸变化量进行判断,即能够根据用户当前情绪,产生与当前情绪相对应的动态场景控制指令,使得制作的动态表情反应用户当前情绪,提高表情的有效性和真实性。
S3015,确定与动态场景控制指令对应的动态场景。
动态场景是动画图像,能够表示情绪状态,如对一段时间内的用户表情进行分析,在用户在该时间段内维持一个表情状态,则生成对应的动态场景控制指令,例如,若用户生气的表情持续了100毫秒,则生成与生气相关的动态场景控制指令,则动态场景可以为喷火的动态场景,以表示生气状态。对于各形象框架,不同的动态场景控制指令,能够触发该形象框架不同的动态场景。
在步骤S20之后,还包括:
S302,采集音频信号。
S303,对音频信号进行处理,获取音频信号的语音识别结果。
S304,语音识别结果是否包括任一预设关键字。若是,则执行步骤S305,若否,则不进行处理。
S305,得到与预设关键字对应的动态场景控制指令。
S306,确定与动态场景控制指令对应的动态场景。
具体地,调用终端的音频采集设备,采集音频信号,对音频信号进行处理,处理方式可以为将音频信号发送至服务器,由服务器对音频信号进行识别,终端接收服务器返回的音频识别结果。处理方式还可以由终端设备自身对音频信号进行识别,得到语音识别结果。预先设置有动态场控制指令对应的关键字,例如“喷火”,“冒烟”,“爱心”等,当语音识别结果包括上述任一关键字时,得到与预设关键字对应的动态场景控制指令。
在步骤S3011、S3015和S306之后,执行步骤:
S40,根据参数信息,调整待映射形象框架的对应形象参数。
具体地,根据形象框架中对应形象参数,调整形象框架的对应形象参数,由于形象框架中的对应形象参数根据目标形象的形象特征变化量得到,基于参数信息调整形象框架的形象参数,将目标对象的形象特征变化映射到形象框架。即形象框架随着目标对象动作而变化。
S50,叠加动态场景和调整的待映射形象框架,得到对应的动态图像。
本实施例中动态场景,根据人脸表情变化量和/或语音识别结果确定。通过叠加动态场景和调整后的形象框架,得到对应的动态图像,即动态图像除了映射人体动作外,还叠加了动态场景,如喷火动画场景,爱心动画场景。图7至图9为小黄人形象框架的动态表情图像,图10至图11为小鸟形象框架的动态表情图像。
S60,响应录制指令,录制动态图像,得到动态表情图像。
具体地,终端的显示界面提供有录制控件,用户通过操作该录制控件,触发录制指令。录制控件的形式不限,可以为一个录制按钮,也可以为一个根据触摸时间录制对应视频时长的圆形控件。当检测到对录制控件的操作时,响应录制指令,录制动态图像,得到动态表情图像。其中,动态表情图像的格式可以为视频格式或GIF(Graphics InterchangeFormat)格式。在具体的应用场景中,可以将动态表情图像保存在本地。图12为一个实施例的展示有录制控件的显示界面示意图。
S70,将动态表情图像发送至会话好友。
一个实施例中,发送给会话好友的动态表情图像的显示界面如图13所示。
上述的信息处理方法,让普通用户方便快速的制作动漫表情视频或者GIF表情图片,免去使用专业复杂的图像处理软件制作,给表情图像制作带来了便捷。
一种信息处理装置,如图14所示,包括:
形象框架获取模块1402,用于获取待映射形象框架。
检测模块1404,用于识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。
参数获取模块1406,用于根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息。
动态场景确定模块1408,用于当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景。
图像获取模块1410,用于根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像。
上述的信息处理装置,在获取到待映射形象框架后,通过目标对象的形象特征变化量,确定待映射形象框架中对应对象参数的参数信息,当获取到动态场景控制指令时,确定动态场景,根据参数信息和动态场景,对映射形象框架进行处理,得到对应的动态图像。由于能够根据形象特征变化量和动态场景控制指令,基于待映射形象框架实时生成动态图像,因此,该方法扩充了获取表情包图像的途径,进而丰富了用户的表情包资源。
在另一个实施例中,信息处理装置还包括:
录制模块,用于响应录制指令,录制动态图像,得到动态表情图像。
在另一个实施例中,形象框架获取模块,用于在社交应用的会话界面,基于形象触发操作获取待映射形象框架;
装置还包括发送模块,用于将动态表情图像发送至会话好友。
在另一个实施例中,检测模块,用于基于终端的摄像头,调用视觉惯性测程程序,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。
在另一个实施例中,检测模块,用于获取图像;识别图像中的目标对象;提取目标对象的预设形象特征;根据预设形象特征与预存储的标准目标对象的形象特征进行比较,确定形象特征变化量。
在另一个实施例中,形象特征变化量包括人脸部位变化量。
信息处理装置还包括:
状态计算模块,用于根据形象特征变化量计算各表情状态值。
指令获取模块,用于当根据各表情状态值确定达到任一种设定情绪状态时,得到与情绪状态对应的动态场景控制指令。
在另一个实施例中,信息处理装置包括:
采集模块,用于采集音频信号。
识别获取模块,用于对音频信号进行处理,获取音频信号的语音识别结果。
指令获取模块,用于当语音识别结果包括任一预设关键字时,得到与预设关键字对应的动态场景控制指令。
在另一个实施例中,动态场景确定模块包括:
粒子获取模块,用于当获取到动态场景控制指令时,确定与动态场景控制指令对应的粒子参数;
场景生成模块,用于根据粒子参数,调用粒子系统生成动态场景。
在另一个实施例中,动态场景确定模块包括:
标识获取模块,用于当获取到动态场景控制指令时,获取与动态场景控制指令对应的动态场景标识;
场景获取模块,用于根据动态场景标识,查找对应的动态图像得到动态场景。
在另一个实施例中,图像获取模块包括:
调整模块,用于根据参数信息,调整待映射形象框架的对应形象参数;
叠加模块,用于叠加动态场景和调整的待映射形象框架,得到对应的动态图像。
在一个实施例中,所述形象特征包括面部特征;所述参数获取模块,用于根据所述面部特征变化量,确定所述待映射形象框架中的对应面部参数的参数信息。
在另一个实施例中,所述形象特征包括姿态特征;所述参数获取模块,用于根据所述姿态特征变化量,确定所述待映射形象框架中对应姿态参数的参数信息。
该信息处理装置,让普通用户方便快速的制作动漫表情视频或者GIF表情图片,免去使用专业复杂的图像处理软件制作,给表情图像制作带来了便捷。
图15示出了一个实施例中计算机设备的内部结构图。该计算机设备具体可以是语音识别设备。如图15所示,该计算机设备包括该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、输入装置、显示屏和麦克风阵列和音频输出设备。其中,麦克风阵列采集音频信号。存储器包括非易失性存储介质和内存储器。该计算机设备的非易失性存储介质存储有操作系统,还可存储有计算机程序,该计算机程序被处理器执行时,可使得处理器实现语音信号识别方法。该内存储器中也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行语音信号识别方法。计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。音频输出设备包括扬声器,用于播放声音。
本领域技术人员可以理解,图15中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,本申请提供的信息处理方法可以实现为一种计算机程序的形式,计算机程序可在如图15所示的计算机设备上运行。计算机设备的存储器中可存储组成该信息处理装置的各个程序模块,比如,图14所示的框架获取模块、检测模块和参数获取模块。各个程序模块构成的计算机程序使得处理器执行本说明书中描述的本申请各个实施例的信息处理方法中的步骤。
例如,图15所示的计算机设备可以通过如图14所示的信息处理装置中的形象框架获取模块执行获取待映射形象框架的步骤。检测模块执行识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量的步骤。计算机设备可通过参数获取模块执行根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息的步骤。
一种计算机可读存储介质,存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:
获取待映射形象框架;
识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量;
根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息;
当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景;
根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像。
在一个实施例中,计算机程序被处理器执行时,使得处理器执行以下步骤:响应录制指令,录制动态图像,得到动态表情图像。
在一个实施例中,获取待映射形象框架,包括:在社交应用的会话界面,基于形象触发操作获取待映射形象框架,计算机程序被处理器执行时,使得处理器执行以下步骤:将动态表情图像发送至会话好友。
在一个实施例中,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量,包括:基于终端的摄像头,调用视觉惯性测程程序,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。
在一个实施例中,识别目标对象的根据预设形象特征与预存储的标准目标对象的形象特征进行比较,确定形象特征变化量形象特征,并根据识别的形象特征确定形象特征变化量,包括:
获取图像;
识别图像中的目标对象;
提取目标对象的预设形象特征;
提取目标对象的预设形象特征。
在一个实施例中,形象特征变化量包括人脸部位变化量;
获取动态场景控制指令的方式包括:
根据形象特征变化量计算各表情状态值;
当根据各表情状态值确定达到任一种设定情绪状态时,得到与情绪状态对应的动态场景控制指令。
在一个实施例中,获取动态场景控制指令的方式包括:
采集音频信号;
对音频信号进行处理,获取音频信号的语音识别结果;
当语音识别结果包括任一预设关键字时,得到与预设关键字对应的动态场景控制指令。
在一个实施例中,当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景,包括:
当获取到动态场景控制指令时,确定与动态场景控制指令对应的粒子参数;
根据粒子参数,调用粒子系统生成动态场景。
在一个实施例中,当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景,包括:
当获取到动态场景控制指令时,获取与动态场景控制指令对应的动态场景标识;
根据动态场景标识,查找对应的动态图像得到动态场景。
在一个实施例中,根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像,包括:
根据参数信息,调整待映射形象框架的对应形象参数;
叠加动态场景和调整的待映射形象框架,得到对应的动态图像。
在一个实施例中,形象特征包括面部特征;
根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息,包括:根据面部特征变化量,确定待映射形象框架中的对应面部参数的参数信息。
在一个实施例中,形象特征包括姿态特征;
根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息,包括:根据姿态特征变化量,确定待映射形象框架中对应姿态参数的参数信息。
一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,计算机程序被处理器执行时,使得处理器执行以下步骤:
获取待映射形象框架;
识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量;
根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息;
当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景;
根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像。
在一个实施例中,计算机程序被处理器执行时,使得处理器执行以下步骤:响应录制指令,录制动态图像,得到动态表情图像。
在一个实施例中,获取待映射形象框架,包括:在社交应用的会话界面,基于形象触发操作获取待映射形象框架,计算机程序被处理器执行时,使得处理器执行以下步骤:将动态表情图像发送至会话好友。
在一个实施例中,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量,包括:基于终端的摄像头,调用视觉惯性测程程序,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。
在一个实施例中,识别目标对象的根据预设形象特征与预存储的标准目标对象的形象特征进行比较,确定形象特征变化量形象特征,并根据识别的形象特征确定形象特征变化量,包括:
获取图像;
识别图像中的目标对象;
提取目标对象的预设形象特征;
提取目标对象的预设形象特征。在一个实施例中,形象特征变化量包括人脸部位变化量;
获取动态场景控制指令的方式包括:
根据形象特征变化量计算各表情状态值;
当根据各表情状态值确定达到任一种设定情绪状态时,得到与情绪状态对应的动态场景控制指令。
在一个实施例中,获取动态场景控制指令的方式包括:
采集音频信号;
对音频信号进行处理,获取音频信号的语音识别结果;
当语音识别结果包括任一预设关键字时,得到与预设关键字对应的动态场景控制指令。
在一个实施例中,当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景,包括:
当获取到动态场景控制指令时,确定与动态场景控制指令对应的粒子参数;
根据粒子参数,调用粒子系统生成动态场景。
在一个实施例中,当获取到动态场景控制指令时,确定与动态场景控制指令对应的动态场景,包括:
当获取到动态场景控制指令时,获取与动态场景控制指令对应的动态场景标识;
根据动态场景标识,查找对应的动态图像得到动态场景。
在一个实施例中,根据参数信息和动态场景,对待映射形象框架进行处理,得到对应的动态图像,包括:
根据参数信息,调整待映射形象框架的对应形象参数;
叠加动态场景和调整的待映射形象框架,得到对应的动态图像。
在一个实施例中,形象特征包括面部特征;
根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息,包括:根据面部特征变化量,确定待映射形象框架中的对应面部参数的参数信息。
在一个实施例中,形象特征包括姿态特征;
根据形象特征变化量,确定待映射形象框架中的对应形象参数的参数信息,包括:根据姿态特征变化量,确定待映射形象框架中对应姿态参数的参数信息。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (15)
1.一种信息处理方法,包括:
获取待映射形象框架;
识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量;
根据所述形象特征变化量,确定所述待映射形象框架中的对应形象参数的参数信息;当获取到动态场景控制指令时,确定与所述动态场景控制指令对应的动态场景;
根据所述参数信息和所述动态场景,对所述待映射形象框架进行处理,得到对应的动态图像。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应录制指令,录制所述动态图像,得到动态表情图像。
3.根据权利要求2所述的方法,其特征在于,所述获取待映射形象框架,包括:在社交应用的会话界面,基于形象触发操作获取待映射形象框架;
所述方法还包括:将所述动态表情图像发送至会话好友。
4.根据权利要求1所述的方法,其特征在于,所述识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量,包括:
基于终端的摄像头,调用视觉惯性测程程序,识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量。
5.根据权利要求1所述的方法,其特征在于,所述识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量,包括:
获取图像;
识别所述图像中的目标对象;
提取所述目标对象的预设形象特征;
根据所述预设形象特征与预存储的标准目标对象的形象特征进行比较,确定形象特征变化量。
6.根据权利要求1所述的方法,其特征在于,所述形象特征变化量包括人脸部位变化量;
获取动态场景控制指令的方式包括:
根据所述形象特征变化量计算各表情状态值;
当根据各所述表情状态值确定达到任一种设定情绪状态时,得到与所述情绪状态对应的动态场景控制指令。
7.根据权利要求1或6所述的方法,其特征在于,获取动态场景控制指令的方式包括:
采集音频信号;
对所述音频信号进行处理,获取所述音频信号的语音识别结果;
当所述语音识别结果包括任一预设关键字时,得到与所述预设关键字对应的动态场景控制指令。
8.根据权利要求1所述的方法,其特征在于,当获取到动态场景控制指令时,确定与所述动态场景控制指令对应的动态场景,包括:
当获取到动态场景控制指令时,确定与所述动态场景控制指令对应的粒子参数;
根据所述粒子参数,调用粒子系统生成动态场景。
9.根据权利要求1所述的方法,其特征在于,当获取到动态场景控制指令时,确定与所述动态场景控制指令对应的动态场景,包括:
当获取到动态场景控制指令时,获取与所述动态场景控制指令对应的动态场景标识;
根据所述动态场景标识,查找对应的图像得到动态场景。
10.根据权利要求1所述的方法,其特征在于,根据所述参数信息和所述动态场景,对所述待映射形象框架进行处理,得到对应的动态图像,包括:
根据所述参数信息,调整待映射形象框架的对应形象参数;
叠加所述动态场景和调整的所述待映射形象框架,得到对应的动态图像。
11.根据权利要求1所述的信息处理方法,其特征在于,所述形象特征包括面部特征;
所述根据所述形象特征变化量,确定所述待映射形象框架中的对应形象参数的参数信息,包括:根据面部特征变化量,确定所述待映射形象框架中的对应面部参数的参数信息。
12.根据权利要求1所述的信息处理方法,其特征在于,所述形象特征包括姿态特征;
所述根据所述形象特征变化量,确定所述待映射形象框架中的对应形象参数的参数信息,包括:根据姿态特征变化量,确定所述待映射形象框架中对应姿态参数的参数信息。
13.一种信息处理装置,包括:
形象框架获取模块,用于获取待映射形象框架;
检测模块,用于识别目标对象的形象特征,并根据识别的形象特征确定形象特征变化量;
参数获取模块,用于根据所述形象特征变化量,确定所述待映射形象框架中的对应形象参数的参数信息;
动态场景确定模块,用于当获取到动态场景控制指令时,确定与所述动态场景控制指令对应的动态场景;
图像获取模块,用于根据所述参数信息和所述动态场景,对所述待映射形象框架进行处理,得到对应的动态图像。
14.一种计算机可读存储介质,存储有计算机程序,所述计算机程序被处理器执行时,使得所述处理器执行如权利要求1至12中任一项所述方法的步骤。
15.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述计算机程序被所述处理器执行时,使得所述处理器执行如权利要求1至12中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810590159.1A CN110176044B (zh) | 2018-06-08 | 2018-06-08 | 信息处理方法、装置、存储介质和计算机设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810590159.1A CN110176044B (zh) | 2018-06-08 | 2018-06-08 | 信息处理方法、装置、存储介质和计算机设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110176044A true CN110176044A (zh) | 2019-08-27 |
CN110176044B CN110176044B (zh) | 2023-05-16 |
Family
ID=67689238
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810590159.1A Active CN110176044B (zh) | 2018-06-08 | 2018-06-08 | 信息处理方法、装置、存储介质和计算机设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110176044B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111367580A (zh) * | 2020-02-28 | 2020-07-03 | Oppo(重庆)智能科技有限公司 | 一种应用启动方法、装置及计算机可读存储介质 |
CN112954113A (zh) * | 2021-01-15 | 2021-06-11 | 北京达佳互联信息技术有限公司 | 一种场景切换方法、装置、电子设备和存储介质 |
CN115205949A (zh) * | 2022-09-05 | 2022-10-18 | 腾讯科技(深圳)有限公司 | 图像生成方法以及相关设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160050169A1 (en) * | 2013-04-29 | 2016-02-18 | Shlomi Ben Atar | Method and System for Providing Personal Emoticons |
US20170140214A1 (en) * | 2015-11-16 | 2017-05-18 | Facebook, Inc. | Systems and methods for dynamically generating emojis based on image analysis of facial features |
CN107037890A (zh) * | 2017-04-28 | 2017-08-11 | 北京百度网讯科技有限公司 | 表情符号的处理方法及装置、计算机设备与可读介质 |
CN107153496A (zh) * | 2017-07-04 | 2017-09-12 | 北京百度网讯科技有限公司 | 用于输入表情图标的方法和装置 |
CN107369196A (zh) * | 2017-06-30 | 2017-11-21 | 广东欧珀移动通信有限公司 | 表情包制作方法、装置、存储介质及电子设备 |
CN107886559A (zh) * | 2017-11-29 | 2018-04-06 | 北京百度网讯科技有限公司 | 用于生成图片的方法和装置 |
-
2018
- 2018-06-08 CN CN201810590159.1A patent/CN110176044B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160050169A1 (en) * | 2013-04-29 | 2016-02-18 | Shlomi Ben Atar | Method and System for Providing Personal Emoticons |
US20170140214A1 (en) * | 2015-11-16 | 2017-05-18 | Facebook, Inc. | Systems and methods for dynamically generating emojis based on image analysis of facial features |
CN107037890A (zh) * | 2017-04-28 | 2017-08-11 | 北京百度网讯科技有限公司 | 表情符号的处理方法及装置、计算机设备与可读介质 |
CN107369196A (zh) * | 2017-06-30 | 2017-11-21 | 广东欧珀移动通信有限公司 | 表情包制作方法、装置、存储介质及电子设备 |
CN107153496A (zh) * | 2017-07-04 | 2017-09-12 | 北京百度网讯科技有限公司 | 用于输入表情图标的方法和装置 |
CN107886559A (zh) * | 2017-11-29 | 2018-04-06 | 北京百度网讯科技有限公司 | 用于生成图片的方法和装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111367580A (zh) * | 2020-02-28 | 2020-07-03 | Oppo(重庆)智能科技有限公司 | 一种应用启动方法、装置及计算机可读存储介质 |
CN111367580B (zh) * | 2020-02-28 | 2024-02-13 | Oppo(重庆)智能科技有限公司 | 一种应用启动方法、装置及计算机可读存储介质 |
CN112954113A (zh) * | 2021-01-15 | 2021-06-11 | 北京达佳互联信息技术有限公司 | 一种场景切换方法、装置、电子设备和存储介质 |
CN115205949A (zh) * | 2022-09-05 | 2022-10-18 | 腾讯科技(深圳)有限公司 | 图像生成方法以及相关设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110176044B (zh) | 2023-05-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021043053A1 (zh) | 一种基于人工智能的动画形象驱动方法和相关装置 | |
US11830118B2 (en) | Virtual clothing try-on | |
JP2024028390A (ja) | 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置 | |
CN108470485B (zh) | 场景式培训方法、装置、计算机设备和存储介质 | |
KR101306221B1 (ko) | 3차원 사용자 아바타를 이용한 동영상 제작장치 및 방법 | |
CN108320318B (zh) | 图像处理方法、装置、计算机设备及存储介质 | |
US11521339B2 (en) | Machine learning in augmented reality content items | |
CN110176044A (zh) | 信息处理方法、装置、存储介质和计算机设备 | |
CN109857311A (zh) | 生成人脸三维模型的方法、装置、终端及存储介质 | |
US11983826B2 (en) | 3D upper garment tracking | |
WO2020129959A1 (ja) | コンピュータプログラム、サーバ装置、端末装置及び表示方法 | |
WO2018177134A1 (zh) | 用户生成内容处理方法、存储介质和终端 | |
CN105797374A (zh) | 一种配合脸部表情跟随发出相应语音的方法和终端 | |
KR102345729B1 (ko) | 영상 생성 방법 및 장치 | |
CN114021022A (zh) | 一种妆容信息获取方法、装置、车辆及存储介质 | |
JP2023537233A (ja) | アニメーションを著作するための方法、システムおよび非一過性のコンピュータ読み取り可能記録媒体 | |
US11527032B1 (en) | Systems and methods to generate and utilize content styles for animation | |
CN115999156B (zh) | 角色控制方法、装置、设备及存储介质 | |
US11693539B2 (en) | Messaging system for resurfacing content items | |
KR102596322B1 (ko) | 차량 내부 영상을 기반으로 콘텐츠를 저작하는 방법, 시스템 및 비일시성의 컴퓨터 판독 가능 기록 매체 | |
US20230386144A1 (en) | Automated augmented reality experience creation system | |
US20230326445A1 (en) | Animated speech refinement using machine learning | |
CN116977030A (zh) | 一种基于人工智能的虚拟现实人体模型生成及交互方法 | |
CN117793409A (zh) | 视频的生成方法及装置、电子设备和可读存储介质 | |
CN116841436A (zh) | 基于视频的交互方法、装置、设备、存储介质和程序产品 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |