CN106649712A - 输入表情信息的方法及装置 - Google Patents
输入表情信息的方法及装置 Download PDFInfo
- Publication number
- CN106649712A CN106649712A CN201611188433.XA CN201611188433A CN106649712A CN 106649712 A CN106649712 A CN 106649712A CN 201611188433 A CN201611188433 A CN 201611188433A CN 106649712 A CN106649712 A CN 106649712A
- Authority
- CN
- China
- Prior art keywords
- information
- target
- image
- expression
- image information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000014509 gene expression Effects 0.000 title claims abstract description 233
- 238000000034 method Methods 0.000 title claims abstract description 52
- 230000001815 facial effect Effects 0.000 claims abstract description 38
- 230000008921 facial expression Effects 0.000 claims description 9
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 210000003414 extremity Anatomy 0.000 description 32
- 238000010586 diagram Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 11
- 238000004891 communication Methods 0.000 description 10
- 230000008451 emotion Effects 0.000 description 9
- 210000001508 eye Anatomy 0.000 description 8
- 210000004709 eyebrow Anatomy 0.000 description 6
- 230000036651 mood Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 244000062793 Sorghum vulgare Species 0.000 description 3
- 238000010009 beating Methods 0.000 description 3
- 235000019713 millet Nutrition 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 3
- 230000029058 respiratory gaseous exchange Effects 0.000 description 3
- 241000272525 Anas platyrhynchos Species 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 2
- 206010067171 Regurgitation Diseases 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 230000004397 blinking Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000002996 emotional effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 210000001331 nose Anatomy 0.000 description 2
- 210000000697 sensory organ Anatomy 0.000 description 2
- 208000019901 Anxiety disease Diseases 0.000 description 1
- 206010061991 Grimacing Diseases 0.000 description 1
- 206010023644 Lacrimation increased Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000036506 anxiety Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000008909 emotion recognition Effects 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000004317 lacrimation Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000001343 mnemonic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5838—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
- G06F16/5846—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using extracted text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9535—Search customisation based on user profiles and personalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
- G06F16/9538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0412—Digitisers structurally integrated in a display
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Library & Information Science (AREA)
- Human Computer Interaction (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本公开是关于一种输入表情信息的方法及装置,涉及社交应用领域,该方法包括:获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取所述目标特征信息对应的目标表情信息;输入所述目标表情信息,这样,避免了相关技术在输入表情信息时耗费大量的查找时间,从而解决了表情信息输入效率低的技术问题。
Description
技术领域
本公开涉及社交应用领域,尤其涉及一种输入表情信息的方法及装置。
背景技术
随着社交聊天软件的使用率不断提高,终端提供大量的表情符号供用户选择,用户在聊天时,可以选择恰当的表情符号来生动地表达用户当时的心情。
发明内容
为克服相关技术中存在的问题,本公开提供一种输入表情信息的方法及装置。
根据本公开实施例的第一方面,提供一种输入表情信息的方法,包括:获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取所述目标特征信息对应的目标表情信息;输入所述目标表情信息。
可选地,所述获取输入者的目标特征信息,包括:获取目标信息,所述目标信息包括以下至少一项:第一图像信息、音频信息;从所述目标信息中获取所述目标特征信息。
可选地,所述获取目标信息,包括:通过采集设备采集所述目标信息;或者,获取所述输入者从本地数据库中选定的目标信息。
可选地,所述方法还包括:获取目标数据库,所述目标数据库包括指示输入者的特征信息与表情信息之间的对应关系;所述获取所述目标特征信息对应的目标表情信息包括:根据所述目标数据库获取所述目标特征信息对应的所述目标表情信息。
可选地,所述目标表情信息包括以下任一项:表情图标信息、表情符号信息、第二图像信息;其中,所述第二图像信息是根据所述第一图像信息获取的。
可选地,所述方法还包括:确定所述目标数据库是否包括所述目标特征信息与所述目标表情信息之间的对应关系;所述获取所述目标特征信息对应的目标表情信息,包括:当所述目标数据库不包括所述目标特征信息与所述目标表情信息之间的对应关系时,将所述第一图像信息作为所述第二图像信息,得到所述目标表情信息;或者,对所述第一图像信息进行处理得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息。
可选地,所述对所述第一图像信息进行处理得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息包括:获取所述输入者选定的模型图像;将所述第一图像信息与所述模型图像进行合成得到第二图像信息,将所述第二图像信息作为所述目标表情信息。
可选地,所述将所述第一图像信息与所述模型图像进行合成得到第二图像信息包括:提取所述第一图像信息中的用户的特征信息;将所述用户的特征信息添加至所述模型图像上所述输入者选定的图像区域。
可选地,所述对所述第一图像信息进行处理得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息包括:获取所述第一图像信息的图像参数;将所述图像参数调整至所述输入者确定的目标参数得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息。
根据本公开实施例的第二方面,提供一种输入表情信息的装置,所述装置包括:第一获取模块,被配置为获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;第二获取模块,被配置为获取所述目标特征信息对应的目标表情信息;输入模块,被配置为输入所述目标表情信息。
可选地,所述第一获取模块包括:第一获取子模块,被配置为获取目标信息,所述目标信息包括以下至少一项:第一图像信息、音频信息;第二获取子模块,被配置为从所述目标信息中获取所述目标特征信息。
可选地,所述第一获取子模块,被配置为通过采集设备采集所述目标信息;或者,获取所述输入者从本地数据库中选定的目标信息。
可选地,所述装置还包括:第三获取模块,被配置为获取目标数据库,所述目标数据库包括指示输入者的特征信息与表情信息之间的对应关系;所述第二获取模块,被配置为根据所述目标数据库获取所述目标特征信息对应的所述目标表情信息。
可选地,所述目标表情信息包括以下任一项:表情图标信息、表情符号信息、第二图像信息;其中,所述第二图像信息是根据所述第一图像信息获取的。
可选地,所述装置还包括:确定模块,被配置为确定所述目标数据库是否包括所述目标特征信息与所述目标表情信息之间的对应关系;所述第二获取模块,被配置为当所述目标数据库不包括所述目标特征信息与所述目标表情信息之间的对应关系时,将所述第一图像信息作为所述第二图像信息,得到所述目标表情信息;或者,对所述第一图像信息进行处理得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息。
可选地,所述第二获取模块,被配置为获取所述输入者选定的模型图像;将所述第一图像信息与所述模型图像进行合成得到第二图像信息,将所述第二图像信息作为所述目标表情信息。
可选地,所述第二获取模块,被配置为提取所述第一图像信息中的用户的特征信息;将所述用户的特征信息添加至所述模型图像上所述输入者选定的图像区域。
可选地,所述第二获取模块,被配置为获取所述第一图像信息的图像参数;将所述图像参数调整至所述输入者确定的目标参数得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息。
根据本公开实施例的第三方面,提供一种输入表情信息的装置,其特征在于,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取所述目标特征信息对应的目标表情信息;输入所述目标表情信息。
根据本公开实施例的第四方面,提供一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种输入表情信息的方法,所述方法包括:获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取所述目标特征信息对应的目标表情信息;输入所述目标表情信息。
本公开的实施例提供的技术方案可以包括以下有益效果:获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取所述目标特征信息对应的目标表情信息;输入所述目标表情信息,从而解决相关技术中表情信息输入效率低的技术问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是根据一示例性实施例示出的一种输入表情信息的方法的流程图;
图2是根据一示例性实施例示出的另一种输入表情信息的方法的流程图;
图3是根据一示例性实施例示出的又一种输入表情信息的方法的流程图;
图4是根据一示例性实施例示出的第一种输入表情信息的装置的框图;
图5是根据一示例性实施例示出的第二种输入表情信息的装置的框图;
图6是根据一示例性实施例示出的第三种输入表情信息的装置的框图;
图7是根据一示例性实施例示出的第四种输入表情信息的装置的框图;
图8是根据一示例性实施例示出的第五种输入表情信息的装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开可以应用于输入信息的场景,例如通过终端(如手机)进行聊天或者发表言论等需要用户输入信息的场景,在该场景下,用户往往会通过输入表情信息生动地表示用户当前的人物心情,如输入一个笑脸的表情信息,以表示用户当前的心情是高兴,又如输入一个流泪的表情信息,以表示用户当前的心情是难过等,相关技术中,终端预先存储大量表情信息,在输入符合用户当前心情的表情符号时,需要在罗列的表情信息中逐个查找,该查找过程耗费大量时间,从而降低了输入信息的效率。
为了解决上述问题,本公开提供一种输入表情信息的方法和装置,该方法是通过获取输入者的目标特征信息,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取该目标特征信息对应的目标表情信息;输入该目标表情信息,这样,避免了相关技术在输入表情信息时耗费大量的查找时间,从而解决了输入表情信息效率低的技术问题。
下面通过具体实施例对本公开进行详细说明。
图1是根据一示例性实施例示出的一种输入表情信息的方法的流程图,如图1所示,应用于终端中,包括以下步骤:
在步骤101中,获取输入者的目标特征信息。
其中,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息。
本步骤中,可以获取目标信息,并从该目标信息中获取目标特征信息,该目标信息包括以下至少一项:第一图像信息、音频信息。
在步骤102中,获取该目标特征信息对应的目标表情信息。
其中,该目标表情信息包括以下任一项:表情图标信息、表情符号信息、第二图像信息,该表情图标信息可以是表情静态图片,也可以是表情动态图片;该表情符号信息可以是颜文字,该颜文字是通过标点符号或者英文字母组成的用于表示表情的图案;该第二图像信息是根据该第一图像信息获取的,上述示例只是举例说明,本公开对此不作限定。
在步骤103中,输入该目标表情信息。
在本步骤中,可以在输入区域输入该目标表情信息,该输入区域可以是输入框,该输入框用于输入表情信息或文本信息,在该目标表情信息输入至该输入框后,可以将该目标表情信息进行发送,例如,在聊天场景下,可以将该目标表情信息发送至对方;在浏览网页(如小米论坛)的场景下,可以对相关新闻或者帖子发表个人看法的目标表情信息;在更新个人主页(如微信朋友圈或者微博)的场景下,可以上传该目标表情信息,上述示例只是举例说明,本公开对此不作限定。
采用上述方法,通过获取输入者的目标特征信息,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取该目标特征信息对应的目标表情信息;输入该目标表情信息,这样,避免了相关技术在输入表情信息时耗费大量的查找时间,从而解决了表情信息输入效率低的技术问题。
图2是根据一示例性实施例示出的一种输入表情信息的方法的流程图,如图2所示,本实施例中的目标信息是以第一图像信息为例进行说明的,该方法包括以下步骤:
在步骤201中,获取第一图像信息。
在本步骤中,可以通过以下两种方式获取第一图像信息:通过采集设备采集该第一图像信息;或者,获取输入者从本地数据库中选定的第一图像信息。
示例地,用户在需要输入表情信息时,在输入键盘上点击表情输入键,此时,终端调用摄像头,捕捉用户的面部图像信息或者肢体图像信息(即第一图像信息);或者终端获取输入者从相册中(相当于本地数据库)选定的面部图像信息或者肢体图像信息(即第一图像信息),其中,该面部图像信息可以包括面部器官的形态或者位置等图像,如扮鬼脸的图像,该肢体图像信息可以包括肢体上动作的图像,如竖起大拇指的图像,上述示例只是举例说明,本公开对此不作限定。
在步骤202中,从该第一图像信息中获取目标特征信息。
其中,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息,示例地,当获取到的第一图像信息为面部图像信息时,可以通过获取面部器官的形态和在面部的位置等信息,终端可根据面部器官发生的变化来提取该目标特征信息,例如,面部器官的变化包括眉毛,眼睛,眼皮,嘴,鼻子等器官的形态变化和位置变化,如眉毛下弯,嘴角下拉,眉头皱在一起,眼睛睁大,鼻子鼓起,脸颊抬起等变化;当获取到的第一图像信息为肢体图像信息时,该目标特征信息可以包括肢体上的动作(通过手、肘、臂、胯、足等人体部位做出的动作),示例地,搓手表示焦虑,捶胸表示痛苦,垂头表示沮丧,顿足表示生气,上述示例只是举例说明,本公开对此不作限定。
在步骤203中,获取目标数据库。
其中,该目标数据库包括指示输入者的特征信息与表情信息之间的对应关系,该表情信息可以是预先存储的大量表情模型(如开心、伤心、恐惧、厌恶等表情模型),该特征信息可以包括面部特征信息和肢体特征信息,获取该特征信息的方法参考步骤201,在此不进行赘述。例如,通过摄像头采集到一张面部图像模型,并从该面部图像模型中提取到的面部特征信息为笑脸,则将面部特征信息为笑脸与表示笑脸的表情信息建立对应关系;又如,通过摄像头采集到一张肢体图像模型,并从该肢体图像模型中提取到的肢体特征信息为捶胸,则将肢体特征信息为捶胸与表示痛苦的表情信息建立对应关系;再如,由输入者从相册中选定的一张面部图像模型,并从该面部图像模型中提取到的面部特征信息为吐舌头,则将面部特征信息为吐舌头与表示调皮的表情信息建立对应关系,这样,在后续步骤中可以将获取的目标特征信息与该目标数据库中存储的特征信息进行匹配,从而得到目标表情信息。
在步骤204中,确定该目标数据库是否包括目标特征信息与目标表情信息之间的对应关系。
在本步骤中,可以通过以下两种方式中的任一种确定该目标数据库是否包括目标特征信息与目标表情信息之间的对应关系:
方式一:分别获取该目标特征信息与该目标数据库中存储的特征信息的匹配度,并在该匹配度大于或者等于预设阈值时,确定该匹配度对应的特征信息为匹配特征信息,该匹配特征信息对应的表情信息为目标表情信息,则确定该目标数据库包括该目标特征信息与该目标表情信息之间的对应关系;在该匹配度小于预设阈值时,则确定该目标数据库不包括该目标特征信息与该目标表情信息之间的对应关系。
方式二:分别获取该目标特征信息与该目标数据库中存储的特征信息的匹配度,对获取的该匹配度按照从大到小的顺序进行排序得到最大匹配度,在该最大匹配度大于或者等于预设阈值时,确定该最大匹配度对应的特征信息为匹配特征信息,该匹配特征信息对应的表情信息为目标表情信息,则确定该目标数据库包括该目标特征信息与该目标表情信息之间的对应关系;在该最大匹配度小于预设阈值时,则确定该目标数据库不包括该目标特征信息与该目标表情信息之间的对应关系。
由上述描述可知,方式一是将获取的匹配度依次与预设阈值进行比较,在匹配度大于或者等于预设阈值时,确定该匹配度对应的特征信息为匹配特征信息,该匹配特征信息对应的表情信息为目标表情信息,这样,当存在多个匹配度大于或者等于预设阈值时,则可以获取到多个目标表情信息,从而用户可以进一步从多个目标表情信息中选择需要的表情信息;方式二则是在得到全部匹配度后,从得到的全部匹配度中选择最大匹配度,并将该最大匹配度与预设阈值进行比较,在该最大匹配度大于或者等于预设阈值时,确定该最大匹配度对应的特征信息为匹配特征信息,该匹配特征信息对应的表情信息为目标表情信息。
在确定该目标数据库包括该目标特征信息与该目标表情信息之间的对应关系时,执行步骤205;
在确定该目标数据库不包括该目标特征信息与该目标表情信息之间的对应关系时,执行步骤206。
在步骤205中,输入该目标表情信息。
其中,该目标表情信息包括以下任一项:表情图标信息、表情符号信息,该表情图标信息可以是表情静态图片,也可以是表情动态图片;该表情符号信息可以是颜文字,该颜文字是通过标点符号或者英文字母组成的用于表示表情的图案,上述示例只是举例说明,本公开对此不作限定。
在本步骤中,终端可以将该目标表情信息输入至输入框,该输入框用于输入表情信息或文本信息,在该表情信息输入至输入框后,可以将该表情信息进行发送,例如,在聊天场景下,可以将该表情信息发送至对方;在浏览网页(如小米论坛)的场景下,可以对相关新闻或者帖子发表个人看法的表情信息;在更新个人主页(如微信朋友圈或者微博)的场景下,可以上传该表情信息。
需要说明的是,在步骤204中若存在多个匹配度大于或者等于预设阈值时,则可以获取到多个目标表情信息,此时,终端无法确定应该输入哪个目标表情信息,为了解决该问题,在本公开另一实施例中,终端可以将得到的多个目标表情信息通过展示框全部展示给用户,以便用户进行选择,并在用户确定所需的目标表情信息后,终端将输入用户选择的目标表情信息;在本公开另一实施例中,终端还可以将得到的全部目标表情信息都输入至输入框中,当然,为了进一步提高用户与终端的交互性,在本实施例中也可以由用户通过终端对输入至展示框的全部目标表情信息进行删减,以便得到准确的目标表情信息,并发送出去,上述示例只是举例说明,本公开对此不作限定。
在步骤206中,对该第一图像信息进行处理得到第二图像信息,并将该第二图像信息作为目标表情信息。
在一种可能的实现方式中,可以通过以下两种方式中的任一种对该第一图像信息进行处理得到该第二图像信息,并将该第二图像信息作为目标表情信息:
方式一:获取该输入者选定的模型图像;将该第一图像信息与该模型图像进行合成得到第二图像信息,将该第二图像信息作为该目标表情信息。具体地,提取该第一图像信息中的用户的特征信息,将该用户的特征信息添加至该模型图像上该输入者选定的图像区域,其中,该模型图像可以是预先设置的图像模板,用户可以在该图像模板中添加用户的特征信息。例如,当模型图像是一只缺少眼睛和嘴巴的小猫,提取到的用户特征是嘟嘴、眨眼睛时,则将该用户特征为嘟嘴和眨眼睛分别设置在小猫面部得嘴巴和眼睛对应的位置;又如,当模型图像是缺少眉毛和嘴巴的白娘子,提取到的用户特征是眉毛下弯、嘴角上扬时,则将该用户特征为眉毛下弯、嘴角上扬设置在白娘子面部的眉毛和嘴巴对应的位置;再如,当模型图像是缺少腿部的唐老鸭,提取到的用户特征是上腿跳起时,则将该用户特征为双腿跳起设置在唐老鸭的腿部对应的位置,上述示例只是举例说明,本公开对此不作限定。
方式二:获取该第一图像信息的图像参数,将该图像参数调整至该输入者确定的目标参数得到该第二图像信息,并将该第二图像信息作为该目标表情信息,其中,该图像参数可以包括图像的颜色,或者图像中五官的尺寸或者五官的位置等参数。例如,当获取的第一图像信息中的图像参数包括眼睛的大小以及嘴唇的颜色,终端可以调整该眼睛的大小以及嘴唇的颜色得到第二图像信息,并将该第二图像信息作为该目标表情信息;又如,当获取的第一图像信息中的图像参数包括肤色、脸型,终端可以调整该肤色和脸型得到该第二图像信息,并将该第二图像信息作为该目标表情信息;再如,当获取到的第一图像信息中的图像参数包括图像颜色为彩色,终端可以将该图像调整至黑白色得到第二图像信息,并将该第二图像信息作为该目标表情信息,上述示例只是举例说明,本公开对此不作限定。
为了进一步减少输入者对图像的处理操作,在另一种可能实现的方式中,还可以将该第一图像信息作为该第二图像信息,得到该目标表情信息,示例地,当获取到该第一图像信息为挥手再见的图像时,则可以直接将该挥手再见的图像作为目标表情信息,从而提高了用户的体验。
在确定该目标表情信息后,执行步骤205。
采用上述方法,通过获取输入者的目标特征信息,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取该目标特征信息对应的目标表情信息;输入该目标表情信息,这样,避免了相关技术在输入表情信息时耗费大量的查找时间,从而解决了表情信息输入效率低的技术问题。
图3是根据一示例性实施例示出的一种输入表情信息的方法的流程图,如图3所示,本实施例中以目标信息为音频信息为例进行说明,该方法可以包括以下步骤:
在步骤301中,获取音频信息。
在本步骤中,可以通过以下两种方式获取音频信息:通过采集设备采集该音频信息;或者,获取输入者从本地数据库中选定的音频信息。
示例地,用户在需要输入表情信息时,在输入键盘上点击表情输入键,此时,终端通过话筒采集用户的音频信息;或者,终端获取输入者从音乐库或者录音库(相当于本地数据库)中选定的音频信息。
在步骤302中,从音频信息中获取目标特征信息。
其中,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息。
在一种可能实现的方式中,终端将音频信息转换为文本信息后,从文本信息提取文本特征,该文本特征可以包括各种具有感情色彩的词语(如愉快、难过、愤怒、惊恐等词语),以及用在句末表示语气的助词(如啊、啦、呀、哇、唉、呜、吗等语气助词),还可以从音频信息提取到包括音调、响度、音色等语音参数,这样,终端可以根据该文本特征和/或该语音参数得到目标特征信息,如该文本特征为“哈哈”时,则该目标特征信息为微笑(即面部特征信息);又如该文本特征为“yeah”时,则该目标特征信息为剪刀手(即肢体特征信息),上述示例只是举例说明,本公开对此不作限定。
在步骤303中,获取目标数据库。
其中,该目标数据库包括指示输入者的特征信息与表情信息之间的对应关系,该表情信息是预先存储的大量表情模型(如开心、伤心、恐惧、厌恶等表情模型),可以预先通过话筒采集输入者的音频信息模型或者由输入者从本地数据库中选定音频信息模型,并将该音频信息模型转换为文本信息模型,并从文本信息模型中提取文本特征(如具有感情色彩的词语以及用在句末表示语气的助词),从而建立该文本特征与预设特征信息(即面部特征信息和肢体特征信息)之间的对应关系,也可以根据音频信息模型直接获取到音调、响度、音色等语音参数,并建立该语音参数与预设特征信息之间的对应关系。
例如,通过话筒采集到音频信息模型,并将该音频信息模型转换为文本信息模型后,从文本信息模型中提取到高兴、开心或者愉快等文本特征,则该文本特征与表示开心的面部特征信息或者肢体特征信息建立对应关系,并将该面部特征信息或者该肢体特征信息与表示笑脸的表情信息建立对应关系;又如,通过话筒采集到音频信息模型,并将该音频信息模型转换为文本信息模型后,从文本信息模型中提取到伤心、难过或者悲伤等文本特征,则将该文本特征与表示伤心的面部特征信息或者肢体特征信息建立对应关系,并将该面部特征信息或者该肢体特征信息与表示伤心的表情信息建立对应关系;再如,通过话筒采集到音频信息模型,并从该音频信息模型中提取到包括音调、响度和音色等语音参数,则将该语音参数与对应的面部特征信息或者肢体特征信息建立对应关系,并且将该面部特征信息或者该肢体特征信息与对应的表情信息建立对应关系,这样,在后续步骤中将获取的目标特征信息与该目标数据库中预设特征信息进行匹配得到目标表情信息。
在步骤304中,根据该目标数据库获取该目标特征信息对应的目标表情信息。
其中,可以通过以下两种方式中的任一种获取该目标特征信息对应的目标表情信息:
方式一:分别获取该目标特征信息与该目标数据库中预设特征信息的匹配度,并在该匹配度大于或者等于预设阈值时,确定该匹配度对应的预设特征信息为目标预设特征信息,该目标预设特征信息对应的表情信息为目标表情信息。
方式二:分别获取该目标特征信息与该目标数据库中预设特征信息的匹配度,对获取的该匹配度按照从大到小的顺序进行排序得到最大匹配度,在该最大匹配度大于或者等于预设阈值时,确定该最大匹配度对应的预设特征信息为目标预设特征信息,该目标预设特征信息对应的表情信息为目标表情信息。
由上述描述可知,方式一是将获取的匹配度依次与预设阈值进行比较,在匹配度大于或者等于预设阈值时,确定该匹配度对应的预设特征信息为目标预设特征信息,该目标预设特征信息对应的表情信息为目标表情信息,这样,当存在多个匹配度大于或者等于预设阈值时,则可以获取到多个目标表情信息;方式二则是在得到全部匹配度后,从得到的全部匹配度中选择最大匹配度,并将该最大匹配度与预设阈值进行比较,在该最大匹配度大于或者等于预设阈值时,确定该最大匹配度对应的预设特征信息为目标预设特征信息,该目标预设特征信息对应的表情信息为目标表情信息。
另外,若根据该目标数据库无法获取该目标特征信息对应的该目标表情信息,则终端可以通过提示框展示提示信息给用户,以提醒用户重新输入音频信息,该提示信息可以包括文本信息,如“表情匹配失败,请重新输入”,该提示信息还可以是以声音的形式展示给用户,该声音可以提前进行设置,示例地,可以设置成一段语音,如发出“输入失败”的声音,或者是一段音乐,还可以是提示音等信息,本公开对具体的声音设置不作限定,当然,该提示信息还可以通过终端的呼吸灯或者闪光灯进行提示,例如,通过呼吸灯或者闪光灯的发光频率,或者通过呼吸灯的颜色等方式进行提示。
在步骤305中,输入该目标表情信息。
其中,该目标表情信息包括以下任一项:表情图标信息、表情符号信息,该表情图标信息可以是表情静态图片,也可以是表情动态图片;该表情符号信息可以是颜文字,该颜文字是通过标点符号或者英文字母组成的用于表示表情的图案,上述示例只是举例说明,本公开对此不作限定。
在本步骤中,终端可以将该目标表情信息输入至输入框,该输入框用于输入表情信息或文本信息,在该表情信息输入至输入框后,可以将该表情信息进行发送,例如,在聊天场景下,可以将该表情信息发送至对方;在浏览网页(如小米论坛)的场景下,可以对相关新闻或者帖子发表个人看法的表情信息;在更新个人主页(如微信朋友圈或者微博)的场景下,可以上传该表情信息。
需要说明的是,在步骤304中若存在多个匹配度大于或者等于预设阈值时,则可以获取到多个目标表情信息,此时,终端无法确定应该输入哪个目标表情信息,为了解决该问题,在本公开另一实施例中,终端可以将得到的多个目标表情信息通过展示框全部展示给用户,以便用户进行选择,并在用户确定所需的目标表情信息后,终端将输入用户选择的目标表情信息;在本公开另一实施例中,终端还可以将得到的全部目标表情信息都输入至输入框中,当然,为了进一步提高用户与终端的交互性,在本实施例中也可以由用户通过终端对输入至展示框的全部目标表情信息进行删减,以便得到准确的目标表情信息,并发送出去。
采用上述方法,通过获取输入者的目标特征信息,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取该目标特征信息对应的目标表情信息;输入该目标表情信息,这样,避免了相关技术在输入表情信息时耗费大量的查找时间,从而解决了表情信息输入效率低的技术问题。
图4是根据一示例性实施例示出的一种输入表情信息的装置的框图,参照图4,该装置包括第一获取模块401,第二获取模块402和输入模块403。
该第一获取模块401,被配置为获取输入者的目标特征信息,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;
该第二获取模块402,被配置为获取该目标特征信息对应的目标表情信息;
该输入模块403,被配置为输入该目标表情信息。
可选地,图5是图4所示实施例示出的一种输入表情信息的装置的框图,该第一获取模块401包括:
第一获取子模块4011,被配置为被配置为获取目标信息,该目标信息包括以下至少一项:第一图像信息、音频信息;
第二获取子模块4012,被配置为从该目标信息中获取该目标特征信息。
可选地,该第一获取子模块4011,被配置为通过采集设备采集该目标信息;或者,获取该输入者从本地数据库中选定的目标信息。
可选地,图6是图4所示实施例示出的一种输入表情信息的装置的框图,该装置还包括:
第三获取模块404,被配置为获取目标数据库,该目标数据库包括指示输入者的特征信息与表情信息之间的对应关系;
该第二获取模块402,被配置为根据该目标数据库获取该目标特征信息对应的该目标表情信息。
可选地,该目标表情信息包括以下任一项:表情图标信息、表情符号信息、第二图像信息;其中,该第二图像信息是根据该第一图像信息获取的。
可选地,图7是图6所示实施例示出的一种输入表情信息的装置的框图,该装置还包括:
确定模块405,被配置为确定该目标数据库是否包括该目标特征信息与该目标表情信息之间的对应关系;
该第二获取模块402,被配置为当该目标数据库不包括该目标特征信息与该目标表情信息之间的对应关系时,将该第一图像信息作为该第二图像信息,得到该目标表情信息;或者,对该第一图像信息进行处理得到该第二图像信息,并将该第二图像信息作为所述目标表情信息。
可选地,该第二获取模块402,被配置为获取该输入者选定的模型图像;将该第一图像信息与该模型图像进行合成得到第二图像信息,将该第二图像信息作为该目标表情信息。
可选地,该第二获取模块402,被配置为提取该第一图像信息中的用户的特征信息;将该用户的特征信息添加至该模型图像上该输入者选定的图像区域。
可选地,该第二获取模块402,被配置为获取该第一图像信息的图像参数:将该图像参数调整至该输入者确定的目标参数得到该第二图像信息,并将该第二图像信息作为该目标表情信息。
采用上述装置,通过获取输入者的目标特征信息,该目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取该目标特征信息对应的目标表情信息;输入该目标表情信息,避免了相关技术在输入表情信息时耗费大量的查找时间,从而解决了表情信息输入效率低的技术问题。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图8是根据一示例性实施例示出的一种用于输入表情信息的装置800的框图。例如,装置800可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图8,装置800可以包括以下一个或多个组件:处理组件802,存储器804,电力组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制装置800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件802可以包括一个或多个处理器820来执行指令,以完成上述的输入表情信息的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理组件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在装置800的操作。这些数据的示例包括用于在装置800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为装置800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为装置800生成、管理和分配电力相关联的组件。
多媒体组件808包括在该装置800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。该触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与该触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当装置800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当装置800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。在一些实施例中,音频组件810还包括一个扬声器,用于输出音频信号。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为装置800提供各个方面的状态评估。例如,传感器组件814可以检测到装置800的打开/关闭状态,组件的相对定位,例如该组件为装置800的显示器和小键盘,传感器组件814还可以检测装置800或装置800一个组件的位置改变,用户与装置800接触的存在或不存在,装置800方位或加速/减速和装置800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1214还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于装置800和其他设备之间有线或无线方式的通信。装置800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,该通信组件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述输入表情信息的方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由装置800的处理器820执行以完成上述输入表情信息的方法。例如,该非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
本领域技术人员在考虑说明书及实践本公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (19)
1.一种输入表情信息的方法,其特征在于,所述方法包括:
获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;
获取所述目标特征信息对应的目标表情信息;
输入所述目标表情信息。
2.根据权利要求1所述的方法,其特征在于,所述获取输入者的目标特征信息,包括:
获取目标信息,所述目标信息包括以下至少一项:第一图像信息、音频信息;
从所述目标信息中获取所述目标特征信息。
3.根据权利要求2所述的方法,其特征在于,所述获取目标信息,包括:
通过采集设备采集所述目标信息;或者,
获取所述输入者从本地数据库中选定的目标信息。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
获取目标数据库,所述目标数据库包括指示输入者的特征信息与表情信息之间的对应关系;
所述获取所述目标特征信息对应的目标表情信息包括:
根据所述目标数据库获取所述目标特征信息对应的所述目标表情信息。
5.根据权利要求4所述的方法,其特征在于,所述目标表情信息包括以下任一项:表情图标信息、表情符号信息、第二图像信息;
其中,所述第二图像信息是根据所述第一图像信息获取的。
6.根据权利要求5所述的方法,其特征在于,所述方法还包括:
确定所述目标数据库是否包括所述目标特征信息与所述目标表情信息之间的对应关系;
所述获取所述目标特征信息对应的目标表情信息,包括:
当所述目标数据库不包括所述目标特征信息与所述目标表情信息之间的对应关系时,
将所述第一图像信息作为所述第二图像信息,得到所述目标表情信息;或者,对所述第一图像信息进行处理得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息。
7.根据权利要求6所述的方法,其特征在于,所述对所述第一图像信息进行处理得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息包括:
获取所述输入者选定的模型图像;
将所述第一图像信息与所述模型图像进行合成得到第二图像信息,将所述第二图像信息作为所述目标表情信息。
8.根据权利要求7所述的方法,其特征在于,所述将所述第一图像信息与所述模型图像进行合成得到第二图像信息包括:
提取所述第一图像信息中的用户的特征信息;
将所述用户的特征信息添加至所述模型图像上所述输入者选定的图像区域。
9.根据权利要求6所述的方法,其特征在于,所述对所述第一图像信息进行处理得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息包括:
获取所述第一图像信息的图像参数;
将所述图像参数调整至所述输入者确定的目标参数得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息。
10.一种输入表情信息的装置,其特征在于,所述装置包括:
第一获取模块,被配置为获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;
第二获取模块,被配置为获取所述目标特征信息对应的目标表情信息;
输入模块,被配置为输入所述目标表情信息。
11.根据权利要求10所述的装置,其特征在于,所述第一获取模块包括:
第一获取子模块,被配置为获取目标信息,所述目标信息包括以下至少一项:第一图像信息、音频信息;
第二获取子模块,被配置为从所述目标信息中获取所述目标特征信息。
12.根据权利要求11所述的装置,其特征在于,所述第一获取子模块,被配置为通过采集设备采集所述目标信息;或者,获取所述输入者从本地数据库中选定的目标信息。
13.根据权利要求10所述的装置,其特征在于,所述装置还包括:
第三获取模块,被配置为获取目标数据库,所述目标数据库包括指示输入者的特征信息与表情信息之间的对应关系;
所述第二获取模块,被配置为根据所述目标数据库获取所述目标特征信息对应的所述目标表情信息。
14.根据权利要求13所述的装置,其特征在于,所述目标表情信息包括以下任一项:表情图标信息、表情符号信息、第二图像信息;
其中,所述第二图像信息是根据所述第一图像信息获取的。
15.根据权利要求14所述的装置,其特征在于,所述装置还包括:
确定模块,被配置为确定所述目标数据库是否包括所述目标特征信息与所述目标表情信息之间的对应关系;
所述第二获取模块,被配置为当所述目标数据库不包括所述目标特征信息与所述目标表情信息之间的对应关系时,将所述第一图像信息作为所述第二图像信息,得到所述目标表情信息;或者,对所述第一图像信息进行处理得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息。
16.根据权利要求15所述的装置,其特征在于,所述第二获取模块,被配置为获取所述输入者选定的模型图像;将所述第一图像信息与所述模型图像进行合成得到第二图像信息,将所述第二图像信息作为所述目标表情信息。
17.根据权利要求16所述的装置,其特征在于,所述第二获取模块,被配置为提取所述第一图像信息中的用户的特征信息;将所述用户的特征信息添加至所述模型图像上所述输入者选定的图像区域。
18.根据权利要求15所述的装置,其特征在于,所述第二获取模块,被配置为获取所述第一图像信息的图像参数;将所述图像参数调整至所述输入者确定的目标参数得到所述第二图像信息,并将所述第二图像信息作为所述目标表情信息。
19.一种输入表情信息的装置,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:获取输入者的目标特征信息,所述目标特征信息包括以下至少一项:面部特征信息、肢体特征信息;获取所述目标特征信息对应的目标表情信息;输入所述目标表情信息。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611188433.XA CN106649712B (zh) | 2016-12-20 | 2016-12-20 | 输入表情信息的方法及装置 |
US15/837,772 US20180173394A1 (en) | 2016-12-20 | 2017-12-11 | Method and apparatus for inputting expression information |
EP17207154.0A EP3340077B1 (en) | 2016-12-20 | 2017-12-13 | Method and apparatus for inputting expression information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611188433.XA CN106649712B (zh) | 2016-12-20 | 2016-12-20 | 输入表情信息的方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106649712A true CN106649712A (zh) | 2017-05-10 |
CN106649712B CN106649712B (zh) | 2020-03-03 |
Family
ID=58834331
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611188433.XA Active CN106649712B (zh) | 2016-12-20 | 2016-12-20 | 输入表情信息的方法及装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US20180173394A1 (zh) |
EP (1) | EP3340077B1 (zh) |
CN (1) | CN106649712B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109254669A (zh) * | 2017-07-12 | 2019-01-22 | 腾讯科技(深圳)有限公司 | 一种表情图片输入方法、装置、电子设备及系统 |
CN109670393A (zh) * | 2018-09-26 | 2019-04-23 | 平安科技(深圳)有限公司 | 人脸数据采集方法、设备、装置及计算机可读存储介质 |
JP2019129413A (ja) * | 2018-01-24 | 2019-08-01 | 株式会社見果てぬ夢 | 放送波受信装置、放送受信方法、及び、放送受信プログラム |
WO2020228208A1 (zh) * | 2019-05-13 | 2020-11-19 | 深圳传音控股股份有限公司 | 用户智能设备及其情绪图符处理方法 |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108985241B (zh) * | 2018-07-23 | 2023-05-02 | 腾讯科技(深圳)有限公司 | 图像处理方法、装置、计算机设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102801652A (zh) * | 2012-08-14 | 2012-11-28 | 上海量明科技发展有限公司 | 通过表情数据添加联系人的方法、客户端及系统 |
CN103442137A (zh) * | 2013-08-26 | 2013-12-11 | 苏州跨界软件科技有限公司 | 一种在手机通话中查看对方虚拟人脸的方法 |
CN103647922A (zh) * | 2013-12-20 | 2014-03-19 | 百度在线网络技术(北京)有限公司 | 虚拟视频通话方法和终端 |
CN103916536A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 用于移动终端中的用户界面方法和系统 |
CN104635930A (zh) * | 2015-02-09 | 2015-05-20 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
US20150220774A1 (en) * | 2014-02-05 | 2015-08-06 | Facebook, Inc. | Ideograms for Captured Expressions |
US20150242679A1 (en) * | 2014-02-25 | 2015-08-27 | Facebook, Inc. | Techniques for emotion detection and content delivery |
CN105897551A (zh) * | 2015-02-13 | 2016-08-24 | 国际商业机器公司 | 用于表现电子聊天会话中的参与者的情绪的方法和系统 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005020129A2 (en) * | 2003-08-19 | 2005-03-03 | Bandalong Entertainment | Customizable avatar and differentiated instant messaging environment |
US8210848B1 (en) * | 2005-03-07 | 2012-07-03 | Avaya Inc. | Method and apparatus for determining user feedback by facial expression |
JP2007041988A (ja) * | 2005-08-05 | 2007-02-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
US20100177116A1 (en) * | 2009-01-09 | 2010-07-15 | Sony Ericsson Mobile Communications Ab | Method and arrangement for handling non-textual information |
TWI430189B (zh) * | 2009-11-10 | 2014-03-11 | Inst Information Industry | 訊息擬真處理系統、裝置及方法 |
EP2800351A4 (en) * | 2011-11-24 | 2016-06-01 | Ntt Docomo Inc | EXPRESSION OUTPUT DEVICE AND EXPRESSION PUBLISHING METHOD |
US9936165B2 (en) * | 2012-09-06 | 2018-04-03 | Intel Corporation | System and method for avatar creation and synchronization |
US10289265B2 (en) * | 2013-08-15 | 2019-05-14 | Excalibur Ip, Llc | Capture and retrieval of a personalized mood icon |
US9264770B2 (en) * | 2013-08-30 | 2016-02-16 | Rovi Guides, Inc. | Systems and methods for generating media asset representations based on user emotional responses |
JP2016009453A (ja) * | 2014-06-26 | 2016-01-18 | オムロン株式会社 | 顔認証装置および顔認証方法 |
US20160191958A1 (en) * | 2014-12-26 | 2016-06-30 | Krush Technologies, Llc | Systems and methods of providing contextual features for digital communication |
WO2016014597A2 (en) * | 2014-07-21 | 2016-01-28 | Feele, A Partnership By Operation Of Law | Translating emotions into electronic representations |
CN105184249B (zh) * | 2015-08-28 | 2017-07-18 | 百度在线网络技术(北京)有限公司 | 用于人脸图像处理的方法和装置 |
JP6985005B2 (ja) * | 2015-10-14 | 2021-12-22 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 感情推定方法、感情推定装置、及び、プログラムを記録した記録媒体 |
-
2016
- 2016-12-20 CN CN201611188433.XA patent/CN106649712B/zh active Active
-
2017
- 2017-12-11 US US15/837,772 patent/US20180173394A1/en not_active Abandoned
- 2017-12-13 EP EP17207154.0A patent/EP3340077B1/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102801652A (zh) * | 2012-08-14 | 2012-11-28 | 上海量明科技发展有限公司 | 通过表情数据添加联系人的方法、客户端及系统 |
CN103916536A (zh) * | 2013-01-07 | 2014-07-09 | 三星电子株式会社 | 用于移动终端中的用户界面方法和系统 |
CN103442137A (zh) * | 2013-08-26 | 2013-12-11 | 苏州跨界软件科技有限公司 | 一种在手机通话中查看对方虚拟人脸的方法 |
CN103647922A (zh) * | 2013-12-20 | 2014-03-19 | 百度在线网络技术(北京)有限公司 | 虚拟视频通话方法和终端 |
US20150220774A1 (en) * | 2014-02-05 | 2015-08-06 | Facebook, Inc. | Ideograms for Captured Expressions |
US20150242679A1 (en) * | 2014-02-25 | 2015-08-27 | Facebook, Inc. | Techniques for emotion detection and content delivery |
CN104635930A (zh) * | 2015-02-09 | 2015-05-20 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN105897551A (zh) * | 2015-02-13 | 2016-08-24 | 国际商业机器公司 | 用于表现电子聊天会话中的参与者的情绪的方法和系统 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109254669A (zh) * | 2017-07-12 | 2019-01-22 | 腾讯科技(深圳)有限公司 | 一种表情图片输入方法、装置、电子设备及系统 |
CN109254669B (zh) * | 2017-07-12 | 2022-05-10 | 腾讯科技(深圳)有限公司 | 一种表情图片输入方法、装置、电子设备及系统 |
JP2019129413A (ja) * | 2018-01-24 | 2019-08-01 | 株式会社見果てぬ夢 | 放送波受信装置、放送受信方法、及び、放送受信プログラム |
JP7017755B2 (ja) | 2018-01-24 | 2022-02-09 | 株式会社見果てぬ夢 | 放送波受信装置、放送受信方法、及び、放送受信プログラム |
CN109670393A (zh) * | 2018-09-26 | 2019-04-23 | 平安科技(深圳)有限公司 | 人脸数据采集方法、设备、装置及计算机可读存储介质 |
CN109670393B (zh) * | 2018-09-26 | 2023-12-19 | 平安科技(深圳)有限公司 | 人脸数据采集方法、设备、装置及计算机可读存储介质 |
WO2020228208A1 (zh) * | 2019-05-13 | 2020-11-19 | 深圳传音控股股份有限公司 | 用户智能设备及其情绪图符处理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20180173394A1 (en) | 2018-06-21 |
EP3340077B1 (en) | 2019-04-17 |
EP3340077A1 (en) | 2018-06-27 |
CN106649712B (zh) | 2020-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108363706B (zh) | 人机对话交互的方法和装置、用于人机对话交互的装置 | |
CN106649712B (zh) | 输入表情信息的方法及装置 | |
CN109637518B (zh) | 虚拟主播实现方法及装置 | |
CN107153496B (zh) | 用于输入表情图标的方法和装置 | |
CN110517185B (zh) | 图像处理方法、装置、电子设备及存储介质 | |
WO2020228208A1 (zh) | 用户智能设备及其情绪图符处理方法 | |
CN109819167B (zh) | 一种图像处理方法、装置和移动终端 | |
CN105677023B (zh) | 信息呈现方法及装置 | |
CN106547850B (zh) | 表情注释方法及装置 | |
WO2021232875A1 (zh) | 一种驱动数字人的方法、装置及电子设备 | |
CN110389667A (zh) | 一种输入方法及装置 | |
CN113920229A (zh) | 一种虚拟角色的处理方法、装置及存储介质 | |
CN111954063A (zh) | 视频直播间的内容显示控制方法及装置 | |
CN111526287A (zh) | 图像拍摄方法、装置、电子设备、服务器、系统及存储介质 | |
CN113656557A (zh) | 消息回复方法、装置、存储介质及电子设备 | |
CN113920559A (zh) | 一种虚拟角色的面部表情、肢体动作的生成方法和装置 | |
CN113553946A (zh) | 信息提示方法及装置、电子设备和存储介质 | |
CN111696536A (zh) | 语音处理方法、装置和介质 | |
CN113709548B (zh) | 基于图像的多媒体数据合成方法、装置、设备及存储介质 | |
CN111292743B (zh) | 语音交互方法及装置、电子设备 | |
CN109977303A (zh) | 多媒体信息的交互方法、装置及存储介质 | |
CN114356068B (zh) | 一种数据处理方法、装置和电子设备 | |
CN113923517A (zh) | 一种背景音乐生成方法、装置及电子设备 | |
CN112820265B (zh) | 一种语音合成模型训练方法和相关装置 | |
CN113420553A (zh) | 文本生成方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |