CN107450746A - 一种表情符号的插入方法、装置和电子设备 - Google Patents
一种表情符号的插入方法、装置和电子设备 Download PDFInfo
- Publication number
- CN107450746A CN107450746A CN201710712471.9A CN201710712471A CN107450746A CN 107450746 A CN107450746 A CN 107450746A CN 201710712471 A CN201710712471 A CN 201710712471A CN 107450746 A CN107450746 A CN 107450746A
- Authority
- CN
- China
- Prior art keywords
- emoticon
- speech data
- insertion position
- data
- matched
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/02—Input arrangements using manually operated switches, e.g. using keyboards or dials
- G06F3/023—Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
- G06F3/0233—Character input methods
- G06F3/0237—Character input methods using prediction or retrieval techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/1815—Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
Abstract
本发明提供了一种表情符号的插入方法、装置和电子设备,方法包括:接收语音数据;对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;将所述表情符号插入到所述语音数据,并展示在对话界面中;由此可见,本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
Description
技术领域
本发明涉及电子设备技术领域,更具体的说是涉及一种表情符号的插入方法、装置和电子设备。
背景技术
随着通信技术的发展,人们越来越多的在电子设备的聊天界面上进行交流。具体的,在交流过程中,用户可以使用表情符号来表达当前的情绪,表情符号的加入,使得聊天内容更加形象化。
目前,电子设备能够基于用户输入的文字内容自动调用与其匹配的表情符号。但是随着语音技术的发展,用户越来越倾向于在聊天界面使用语音进行交流,在使用语音聊天过程中,若用户想要使用表情符号,需要从表情符号库中手动选择并发送,操作繁琐,降低用户体验。
发明内容
有鉴于此,本发明提供一种表情符号的插入方法、装置和电子设备,以简化用户操作,提供用户体验。
为实现上述目的,本发明提供如下技术方案:
一种表情符号的插入方法,包括:
接收语音数据;
对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;
将所述表情符号插入到所述语音数据,并展示在对话界面中。
优选的,所述对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:
获取所述语音数据的语义内容;
确定与所述语义内容匹配的表情符号。
优选的,所述对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:
在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号;
和/或,在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。
优选的,所述将所述表情符号插入到所述语音数据,并展示在对话界面中,包括:
确定所述表情符号在所述语音数据中的插入位置;其中,所述插入位置为与所述表情符号匹配的语音数据处;
基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
将所述一条聊天信息展示在对话界面中。
优选的,所述将所述表情符号插入到所述语音数据,并展示在对话界面中,包括:
确定所述表情符号在所述语音数据中的插入位置;
以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;
将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
将插入有所述表情符号的多条聊天信息展示在对话界面中。
优选的,还包括:
当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据,其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
一种表情符号的插入装置,包括:
接收数据单元,用于接收语音数据;
分析确定单元,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;
插入数据单元,用于将所述表情符号插入到所述语音数据中,并展示在对话界面中。
优选的,所述插入数据单元,包括:
第一确定位置模块,用于确定所述表情符号在所述语音数据中的插入位置;其中,所述插入位置为与所述表情符号匹配的语音数据处;
第一插入符号模块,用于基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
第一展示信息模块,用于将所述一条聊天信息展示在对话界面中。
优选的,所述插入数据单元,包括:
第二确定位置模块,用于确定所述表情符号在所述语音数据中的插入位置;
第一拆分信息模块,用于以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;
第二插入符号模块,用于将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
第二展示信息模块,用于将插入有所述表情符号的多条聊天信息展示在对话界面中。
一种电子设备,包括:
语音采集单元,用于采集语音数据;
处理器,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,将所述表情符号插入到语音数据中;
显示单元,用于在对话界面中展示插入有所述表情符号的语音数据。
优选的,所述处理器具体用于确定所述表情符号在所述语音数据中的插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
所述显示单元,具体用于在对话界面中展示所述一条聊天信息。
其中,所述插入位置为与所述表情符号匹配的语音数据处。
优选的,所述处理器具体用于确定所述表情符号在所述语音数据中的插入位置,以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
所述显示单元,具体用于在对话界面中展示插入有所述表情符号的多条聊天信息。
经由上述的技术方案可知,与现有技术相比,本发明实施例提供了一种表情符号的插入方法,包括:接收语音数据,对语音数据进行分析,确定与语音数据匹配的表情符号,将所述表情符号插入到语音数据,并展示在对话界面中,由此可见,本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明一个实施例公开的一种表情符号的插入方法的流程示意图;
图2为本发明另一实施例公开的一种表情符号的插入方法的流程示意图;
图3为本发明实施例公开的电子设备的聊天界面的一种表现形式;
图4为本发明又一实施例公开的一种表情符号的插入方法的流程示意图;
图5为本发明实施例公开的电子设备的聊天界面的另一种表现形式;
图6为本发明又一实施例公开的一种表情符号的插入方法的流程示意图;
图7为本发明一个实施例公开的一种表情符号的插入装置的结构示意图;
图8为本发明另一实施例公开的插入数据单元的结构示意图;
图9为本发明又一实施例公开的插入数据单元的结构示意图;
图10为本发明又一实施例公开的一种表情符号的插入装置的结构示意图;
图11为本发明一个实施例公开的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明一个实施例公开了一种表情符号的插入方法,如图1所示,该方法包括以下步骤:
步骤101:接收语音数据;
本发明公开的一种表情符号的插入方法可以应用于电子设备中,电子设备所接收的语音数据为电子设备上的语音采集单元采集的语音数据。可选的,用户可以通过触发电子设备上的特定物理按键或者虚拟按键来使得电子设备的语音采集单元采集语音数据;当然,电子设备也可以在语音采集单元处于唤醒状态下,自动采集语音数据。
例如,电子设备当前运行有一聊天App,在聊天App的聊天界面上,在用户按下“按住说话”的虚拟按键的过程中,电子设备通过语音采集单元采集语音数据,当用户松开“按住说话”的虚拟按键时,电子设备的语音采集单元停止采集语音数据。
本发明公开的一种表情符号的插入方法也可以应用于服务器中,服务器接收电子设备发送的语音数据,当电子设备通过语音采集单元采集到语音数据后,将其发送给服务器。
步骤102:对语音数据进行分析,确定与所述语音数据匹配的表情符号;
在本发明中,表情符号包括用户在电子设备的对话界面中所使用各种数据,如动态图片、绘文字(emoji)、由字符串和/或文字组成的表情图案等等。
可选的,作为第一种实现方式,对语音数据进行分析,确定与所述语音数据匹配的表情符号,包括以下过程:
(1)获取所述语音数据的语义内容;
可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。
(2)确定与所述语义内容匹配的表情符号。
在本发明中,预先存储有表情符号库,表情符号库中建立有语义内容与表情符号的对应关系,因此,可以从表情符号库中查找与当前获取的语义内容对应的表情符号。
该表情符号库中建立的语义内容与表情符号的对应关系中,该语义内容可以为语音表现形式,也可以为文本表现形式。
例如,接收的语音数据为“今天好开心”,该语音数据的语义内容为“开心”,那么在表情符号库中查找与“开心”对应的表情符号。
需说明的是,当与同一语义内容对应的表情符号包括至少两个时,可以将所有与同一语义内容对应的表情符号均作为待插入到语音数据中的表情符号;或者,随机选择一个表情符号作为待插入到语音数据中的表情符号;或者,基于预先设定的选择策略选择一个或多个表情符号,如选择使用频率最高的一个表情符号作为待插入到语音数据中的表情符号。
可选的,作为第二种实现方式,对语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号。
在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以建立不同的语气信息所对应的表情符号,在接收到语音数据后,通过语气训练模型确定与该语音数据所匹配的表情符号。
例如,系统接收的语音数据为“你在做什么”,用户在向电子设备发送“你在做什么”是生气的语气,系统在预先建立的语气训练模型中确定与“你在做什么”的生气语气匹配的表情符号。
可选的,作为第三种实现方式,对语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。
在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以建立不同的语速信息所对应的表情符号,在接收到语音数据后,通过语速训练模型确定与该语音数据所匹配的表情符号。
例如,系统接收的语音数据为“你在做什么”,用户在向电子设备发送“你在做什么”的语速非常快,系统在预先建立的语速训练模型中确定与“你在做什么”的语速匹配的表情符号。
需说明的是,为了提高确定与语音数据匹配的表情符号的准确性,在发明中,可以并列实施上述实现方式的两种或三种,例如,将上述第一种实现方式和第二种实现方式并列实施,通过语义与语气的配合处理,筛选出与语音数据匹配的表情符号;或者,将上述第二种实现方式和第三种实现方式并列实施,通过语气与语速的配合处理,筛选出与语音数据匹配的表情符号;或者将上述第一种实现方式和第三种实现方式并列实施,通过语义和语速的配合处理,筛选出与语音数据匹配的表情符号;当然,也可以将上述三种实现方式并列实施,通过语义、语气和语速的匹配处理,筛选出与语音数据匹配的表情符号。
也就是说,上述三种实现方式可以并列执行,也可以单独执行,或者任意两个并列执行,即上述三种实现方式可以为“和/或”的关系。
步骤103:将所述表情符号插入到所述语音数据,并展示在对话界面中。
该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。
将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。
由此可见,本发明实施例提供了一种表情符号的插入方法,包括:接收语音数据,对语音数据进行分析,确定与语音数据匹配的表情符号,将所述表情符号插入到语音数据,并展示在对话界面中。本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明另一实施例公开了一种表情符号的插入方法,如图2所示,该方法包括以下步骤:
步骤201:接收语音数据;
步骤202:对语音数据进行分析,确定与所述语音数据匹配的表情符号;
步骤203:确定所述表情符号在所述语音数据中的插入位置;
其中,所述插入位置为与所述表情符号匹配的语音数据处。
作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。作为又一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
需说明的是,以上仅是插入位置的几种确认方式,在本发明的可选实施例中,也可以将用于匹配表情符号的语音数据的最后位置确定为插入位置。
步骤204:基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
通过将表情符号插入到语音数据中的所述插入位置,从而生成一条聊天信息。
也就是说,该一条聊天信息中包含了插入表情符号的语音数据。例如,以语音数据为“今天很开心,谢谢你”为例,通过分析确定与该语音数据匹配的表情符号包括两个,一个是用于表征“开心”的表情符号,一个是用于表征“谢谢你”的表情符号。那么,可以将用于表征“开心”的表情符号插入到语音数据为“今天很开心”的后面,将用于表征“谢谢你”的表情符号插入到语音数据为“谢谢你”的后面。
步骤205:将所述一条聊天信息展示在对话界面中。
步骤203-步骤205为步骤将所述表情符号插入到所述语音数据,并展示在对话界面中的具体实现。
如图3所示,为电子设备的聊天界面的一种表现形式,电子设备100上显示有聊天界面100A,在聊天界面100A上,用户A1和用户A2通过语音聊天,电子设备100能够通过语音采集单元采集用户A1的语音数据,同时也能接收用户A2发送过来的语音数据,以语音数据aa为例,在语音数据aa中插入了两个表情符号,那么,当电子设备播放该条语音数据aa时,用户不仅能够能到听到语音内容,还能够看到插入到该条语音数据中的表情符号。
由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明又一实施例公开了一种表情符号的插入方法,如图4所示,该方法包括以下步骤:
步骤401:接收语音数据;
步骤402:对语音数据进行分析,确定与所述语音数据匹配的表情符号;
步骤403:确定所述表情符号在所述语音数据中的插入位置;
其中,所述插入位置为与所述表情符号匹配的语音数据处。
作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
需说明的是,由于本实施例中涉及到对语音数据的拆分,为了保证拆分后的一条聊天信息的完整性,插入位置可以基于用于与表情符号匹配的语音数据的语义内容进行确定。
步骤404:以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;
可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。
步骤405:将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
也就是说,表情符号和被拆分的语音数据分别作为单独的一条聊天信息。例如,一段语音数据aa被拆分成两条聊天信息,分别为aa1和aa2,在aa1和aa2之间具有一条表情符号,在aa2之后具有一条表情符号,那么语音数据aa共包括4条聊天信息。
步骤406:将插入有所述表情符号的多条聊天信息展示在对话界面中。
步骤403-步骤406为步骤将所述表情符号插入到所述语音数据,并展示在对话界面中的具体实现。
如图5所示,为电子设备聊天界面的一种表现形式,电子设备100上显示有聊天界面100A,在聊天界面100A上,用户A1和用户A2通过语音聊天,电子设备100能够通过语音采集单元采集用户A1的语音数据,同时也能接收用户A2发送过来的语音数据,其中,一段语音数据拆分成两条聊天信息,分别为语音数据aa1和语音数据aa2,在语音数据aa1和语音数据aa2中插入有一条表情符号bb1,在语音数据aa2的最后插入有一条表情符号bb2。那么,电子设备可以顺序的播放多条语音数据,即顺序的播放语音数据aa1和语音数据aa2,用户不仅能够能到听到语音内容,还能够看到插入到两条语音数据中的表情符号bb1和插入到语音数据aa2之后的表情符号bb2。
由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明又一实施例公开了一种表情符号的插入方法,如图6所示,该方法包括以下步骤:
步骤601:接收语音数据;
步骤602:对语音数据进行分析,确定与所述语音数据匹配的表情符号;
步骤603:将所述表情符号插入到所述语音数据,并展示在对话界面中;
步骤604:当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据。
该语音转换操作可以为触发对话界面中的语音数据的时间达到预设时间并在对话界面弹出选择界面时,点击“转换为文字”的控件的操作,当然,该语音转换操作也可以为其他预设操作。
其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。
由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
与上述一种表情符号的插入方法对应的,本发明实施例还公开了一种表情符号的插入装置,可以应用于电子设备中,也可以应用于服务器中。以下通过各个实施例进行描述:
本发明一个实施例公开了一种表情符号的插入装置,如图7所示,该装置包括:接收数据单元701、分析确定单元702和插入数据单元703;其中:
接收数据单元701,用于接收语音数据;
分析确定单元702,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;
可选的,作为第一种实现方式,分析确定单元702,包括:获取内容模块以及确定符合模块;其中:
获取内容模块,用于获取所述语音数据的语义内容;
可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。
确定符号模块,用于确定与所述语义内容匹配的表情符号。
在本发明中,预先存储有表情符号库,表情符号库中预先建立有语义内容与表情符号的对应关系,因此,可以从表情符号库中查找与当前获取的语义内容对应的表情符号。
该表情符号库中建立的语义内容与表情符号的对应关系中,该语义内容可以为语音表现形式,也可以为文本表现形式。
需说明的是,当与同一语义内容对应的表情符号包括至少两个时,可以将所有与同一语义内容对应的表情符号均作为待插入到语音数据中的表情符号;或者,随机选择一个表情符号作为待插入到语音数据中的表情符号;或者,基于预先设定的选择策略选择一个或多个表情符号,如选择使用频率最高的一个表情符号作为待插入到语音数据中的表情符号。
可选的,作为第二种实现方式,分析确定单元702包括:第一确定符号模块;
第一确定符号模块,用于在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号。
在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以获取不同的语气信息所对应的表情符号,在接收到语音数据后,通过语气训练模型确定与该语音数据所匹配的表情符号。
可选的,作为第三种实现方式,分析确定单元702,包括:第二确定符号模块;
第二确定符号模块,用于在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。
在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以获取不同的语速信息所对应的表情符号,在接收到语音数据后,通过语速训练模型确定与该语音数据所匹配的表情符号。
上述三种实现方式可以并列执行,也可以单独执行,或者任意两个并列执行,即上述三种实现方式可以为“和/或”的关系。
插入数据单元703,用于将所述表情符号插入到所述语音数据中,并展示在对话界面中。
该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。
将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。
由此可见,本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明另一实施例公开了一种表情符号的插入装置,在本实施例中,如图8所示,插入数据单元包括:第一确定位置模块8031、第一插入符号模块8032以及第一展示信息模块8033;具体的:
第一确定位置模块8031,用于确定所述表情符号在所述语音数据中的插入位置;
其中,所述插入位置为与所述表情符号匹配的语音数据处。
作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。作为又一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
需说明的是,以上仅是插入位置的几种确认方式,在本发明的可选实施例中,也可以将用于匹配表情符号的语音数据的最后位置确定为插入位置。
第一插入符号模块8032,用于基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
第一展示信息模块8033,用于将所述一条聊天信息展示在对话界面中。
由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明又一实施例公开了一种表情符号的插入装置,在本实施例中,如图9所示,插入数据单元包括:第二确定位置模块9031、第一拆分信息模块9032、第二插入符号模块9033以及第二展示信息模块9034;具体的:
第二确定位置模块9031,用于确定所述表情符号在所述语音数据中的插入位置;
其中,所述插入位置为与所述表情符号匹配的语音数据处。
作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
需说明的是,由于本实施例中涉及到对语音数据的拆分,为了保证拆分后的一条聊天信息的完整性,插入位置可以基于用于与表情符号匹配的语音数据的语义内容进行确定。
第一拆分信息模块9032,用于以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;
可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。
第二插入符号模块9033,用于将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
第二展示信息模块9034,用于将插入有所述表情符号的多条聊天信息展示在对话界面中。
由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明又一实施例公开了一种表情符号的插入装置,如图10所示,该装置包括:接收数据单元1001、分析确定单元1002、插入数据单元1003以及转换文本单元1004;其中:
接收数据单元1001,用于接收语音数据;
分析确定单元1002,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;
插入数据单元1003,用于将所述表情符号插入到所述语音数据中,并展示在对话界面中;
转换文本单元1004,用于当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据。
其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。
由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
与上述一种表情符号的插入方法对应的,本发明还公开了一种电子设备,以下通过几个实施例进行描述。
本发明一个实施例公开了一种电子设备,如图11所示,该电子设备包括:语音采集单元110、处理器120以及显示单元130;其中:
语音采集单元110,用于采集语音数据;
可选的,用户可以通过触发电子设备上的特定物理按键或者虚拟按键来使得电子设备的语音采集单元采集语音数据;当然,电子设备也可以在语音采集单元处于唤醒状态下,自动采集语音数据。
处理器120,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,将所述表情符号插入到语音数据中;
可选的,作为第一种实现方式,处理器具体用于获取所述语音数据的语义内容,确定与所述语义内容匹配的表情符号。
具体的,处理器可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,处理器先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。
在本发明中,电子设备预先存储有表情符号库,表情符号库中建立有语义内容与表情符号的对应关系,因此,可以从表情符号库中查找与当前获取的语义内容对应的表情符号。
该表情符号库中建立的语义内容与表情符号的对应关系中,该语义内容可以为语音表现形式,也可以为文本表现形式。
需说明的是,当与同一语义内容对应的表情符号包括至少两个时,可以将所有与同一语义内容对应的表情符号均作为待插入到语音数据中的表情符号;或者,随机选择一个表情符号作为待插入到语音数据中的表情符号;或者,基于预先设定的选择策略选择一个或多个表情符号,如选择使用频率最高的一个表情符号作为待插入到语音数据中的表情符号。
可选的,作为第二种实现方式,处理器具体用于在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号。
在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以获取不同的语气信息所对应的表情符号,在接收到语音数据后,通过语气训练模型确定与该语音数据所匹配的表情符号。
可选的,作为第三种实现方式,处理器具体用于在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。
在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以获取不同的语速信息所对应的表情符号,在接收到语音数据后,通过语速训练模型确定与该语音数据所匹配的表情符号。
上述三种实现方式可以并列执行,也可以单独执行,或者任意两个并列执行,即上述三种实现方式可以为“和/或”的关系。
显示单元130,用于在对话界面中展示插入有所述表情符号的语音数据。
该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。
将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。
由此可见,本发明能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明另一实施例公开了一种电子设备,在本实施例中,处理器在将所述表情符号插入到所述语音数据,具体包括:处理器用于确定所述表情符号在所述语音数据中的插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息。
其中,所述插入位置为与所述表情符号匹配的语音数据处。
作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。作为又一个可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
需说明的是,以上仅是插入位置的几种确认方式,在本发明的可选实施例中,也可以将用于匹配表情符号的语音数据的最后位置确定为插入位置。
显示单元,具体用于在对话界面中展示所述一条聊天信息。
其中,所述插入位置为与所述表情符号匹配的语音数据处。
本发明又一实施例公开了一种电子设备,在本实施例中,处理器在将所述表情符号插入到所述语音数据,具体包括:处理器用于确定所述表情符号在所述语音数据中的插入位置,以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中。
其中,所述插入位置为与所述表情符号匹配的语音数据处。
作为一个可选实施例,当基于前文所描述的确定与语义内容匹配的表情符号时,该插入位置可以为语音数据中用于匹配表情符号的语义内容的后面位置。作为另一可选实施例,当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。当基于前文所描述的在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号时,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
需说明的是,由于本实施例中涉及到对语音数据的拆分,为了保证拆分后的一条聊天信息的完整性,插入位置可以基于用于与表情符号匹配的语音数据的语义内容进行确定。
可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。
显示单元,具体用于在对话界面中展示插入有所述表情符号的多条聊天信息。
本发明又一实施例公开了一种电子设备,在本实施例中,处理器还用于当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据。显示单元还用于在所述对话界面上展示包含所述表情符号的所述文本数据。
其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。
由此可见,本实施例能够基于接收的语音数据自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (10)
1.一种表情符号的插入方法,其特征在于,包括:
接收语音数据;
对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;
将所述表情符号插入到所述语音数据,并展示在对话界面中。
2.根据权利要求1所述的方法,其特征在于,所述对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:
获取所述语音数据的语义内容;
确定与所述语义内容匹配的表情符号。
3.根据权利要求1所述的方法,其特征在,所述对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,包括:
在预先建立的语气训练模型中确定与所述语音数据匹配的表情符号;
和/或,在预先建立的语速训练模型中确定与所述语音数据匹配的表情符号。
4.根据权利要求1所述的方法,其特征在于,所述将所述表情符号插入到所述语音数据,并展示在对话界面中,包括:
确定所述表情符号在所述语音数据中的插入位置;其中,所述插入位置为与所述表情符号匹配的语音数据处;
基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
将所述一条聊天信息展示在对话界面中。
5.根据权利要求1所述的方法,其特征在于,所述将所述表情符号插入到所述语音数据,并展示在对话界面中,包括:
确定所述表情符号在所述语音数据中的插入位置;
以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;
将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
将插入有所述表情符号的多条聊天信息展示在对话界面中。
6.根据权利要求1所述的方法,其特征在于,还包括:
当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据,其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
7.一种表情符号的插入装置,其特征在于,包括:
接收数据单元,用于接收语音数据;
分析确定单元,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号;
插入数据单元,用于将所述表情符号插入到所述语音数据中,并展示在对话界面中。
8.一种电子设备,其特征在于,包括:
语音采集单元,用于采集语音数据;
处理器,用于对所述语音数据进行分析,确定与所述语音数据匹配的表情符号,将所述表情符号插入到语音数据中;
显示单元,用于在对话界面中展示插入有所述表情符号的语音数据。
9.根据权利要求8所述的电子设备,其特征在于,所述处理器具体用于确定所述表情符号在所述语音数据中的插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
所述显示单元,具体用于在对话界面中展示所述一条聊天信息;
其中,所述插入位置为与所述表情符号匹配的语音数据处。
10.根据权利要求8所述的电子设备,其特征在于,所述处理器具体用于确定所述表情符号在所述语音数据中的插入位置,以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
所述显示单元,具体用于在对话界面中展示插入有所述表情符号的多条聊天信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710712471.9A CN107450746A (zh) | 2017-08-18 | 2017-08-18 | 一种表情符号的插入方法、装置和电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710712471.9A CN107450746A (zh) | 2017-08-18 | 2017-08-18 | 一种表情符号的插入方法、装置和电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN107450746A true CN107450746A (zh) | 2017-12-08 |
Family
ID=60491529
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710712471.9A Pending CN107450746A (zh) | 2017-08-18 | 2017-08-18 | 一种表情符号的插入方法、装置和电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107450746A (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108970123A (zh) * | 2018-07-16 | 2018-12-11 | 网易(杭州)网络有限公司 | 游戏中干扰信息的发送方法及装置、电子设备 |
CN109088811A (zh) * | 2018-06-25 | 2018-12-25 | 维沃移动通信有限公司 | 一种信息发送方法及移动终端 |
CN109462768A (zh) * | 2018-10-25 | 2019-03-12 | 维沃移动通信有限公司 | 一种字幕显示方法及终端设备 |
CN109817210A (zh) * | 2019-02-12 | 2019-05-28 | 百度在线网络技术(北京)有限公司 | 语音写作方法、装置、终端和存储介质 |
CN110058752A (zh) * | 2018-01-19 | 2019-07-26 | 北京搜狗科技发展有限公司 | 数据处理方法、装置、电子设备和存储介质 |
CN110910898A (zh) * | 2018-09-15 | 2020-03-24 | 华为技术有限公司 | 一种语音信息处理的方法和装置 |
CN111128190A (zh) * | 2019-12-31 | 2020-05-08 | 恒信东方文化股份有限公司 | 一种表情匹配的方法及系统 |
CN111724799A (zh) * | 2019-03-21 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 声音表情的应用方法、装置、设备及可读存储介质 |
CN112118359A (zh) * | 2020-09-22 | 2020-12-22 | 珠海格力电器股份有限公司 | 文本信息的处理方法、装置、电子设备和电子系统 |
CN112231605A (zh) * | 2020-10-09 | 2021-01-15 | 北京三快在线科技有限公司 | 信息展示的方法和装置 |
CN112331209A (zh) * | 2020-11-03 | 2021-02-05 | 建信金融科技有限责任公司 | 一种语音转文本的方法、装置、电子设备及可读存储介质 |
CN112866469A (zh) * | 2021-01-19 | 2021-05-28 | 维沃移动通信(杭州)有限公司 | 通话内容的记录方法及装置 |
WO2021115351A1 (zh) * | 2019-12-10 | 2021-06-17 | 华为技术有限公司 | 一种表情制作方法和装置 |
CN114880062A (zh) * | 2022-05-30 | 2022-08-09 | 网易(杭州)网络有限公司 | 聊天表情展示方法、设备、电子设备及存储介质 |
Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101183294A (zh) * | 2007-12-17 | 2008-05-21 | 腾讯科技(深圳)有限公司 | 表情输入方法及装置 |
CN103823561A (zh) * | 2014-02-27 | 2014-05-28 | 广州华多网络科技有限公司 | 表情输入方法和装置 |
CN104407834A (zh) * | 2014-11-13 | 2015-03-11 | 腾讯科技(成都)有限公司 | 信息输入方法和装置 |
US20160132292A1 (en) * | 2013-06-07 | 2016-05-12 | Openvacs Co., Ltd. | Method for Controlling Voice Emoticon in Portable Terminal |
CN106021599A (zh) * | 2016-06-08 | 2016-10-12 | 维沃移动通信有限公司 | 一种表情符号推荐方法及移动终端 |
CN106024014A (zh) * | 2016-05-24 | 2016-10-12 | 努比亚技术有限公司 | 一种语音转换方法、装置及移动终端 |
CN106020504A (zh) * | 2016-05-17 | 2016-10-12 | 百度在线网络技术(北京)有限公司 | 信息输出方法和装置 |
CN106257378A (zh) * | 2016-07-19 | 2016-12-28 | 北京新美互通科技有限公司 | 一种表情符号输入方法及装置 |
CN106372059A (zh) * | 2016-08-30 | 2017-02-01 | 北京百度网讯科技有限公司 | 信息输入方法和装置 |
CN106407176A (zh) * | 2015-07-31 | 2017-02-15 | 联想(新加坡)私人有限公司 | 在语音识别中插入字符的方法和设备 |
CN106570106A (zh) * | 2016-11-01 | 2017-04-19 | 北京百度网讯科技有限公司 | 一种输入过程中将语音信息转化为表情的方法和装置 |
CN106648130A (zh) * | 2015-11-02 | 2017-05-10 | 天脉聚源(北京)科技有限公司 | 一种表情符号输入方法及系统 |
CN106796583A (zh) * | 2014-07-07 | 2017-05-31 | 机械地带有限公司 | 用于识别和建议表情符号的系统和方法 |
-
2017
- 2017-08-18 CN CN201710712471.9A patent/CN107450746A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101183294A (zh) * | 2007-12-17 | 2008-05-21 | 腾讯科技(深圳)有限公司 | 表情输入方法及装置 |
US20160132292A1 (en) * | 2013-06-07 | 2016-05-12 | Openvacs Co., Ltd. | Method for Controlling Voice Emoticon in Portable Terminal |
CN103823561A (zh) * | 2014-02-27 | 2014-05-28 | 广州华多网络科技有限公司 | 表情输入方法和装置 |
CN106796583A (zh) * | 2014-07-07 | 2017-05-31 | 机械地带有限公司 | 用于识别和建议表情符号的系统和方法 |
CN104407834A (zh) * | 2014-11-13 | 2015-03-11 | 腾讯科技(成都)有限公司 | 信息输入方法和装置 |
CN106407176A (zh) * | 2015-07-31 | 2017-02-15 | 联想(新加坡)私人有限公司 | 在语音识别中插入字符的方法和设备 |
CN106648130A (zh) * | 2015-11-02 | 2017-05-10 | 天脉聚源(北京)科技有限公司 | 一种表情符号输入方法及系统 |
CN106020504A (zh) * | 2016-05-17 | 2016-10-12 | 百度在线网络技术(北京)有限公司 | 信息输出方法和装置 |
CN106024014A (zh) * | 2016-05-24 | 2016-10-12 | 努比亚技术有限公司 | 一种语音转换方法、装置及移动终端 |
CN106021599A (zh) * | 2016-06-08 | 2016-10-12 | 维沃移动通信有限公司 | 一种表情符号推荐方法及移动终端 |
CN106257378A (zh) * | 2016-07-19 | 2016-12-28 | 北京新美互通科技有限公司 | 一种表情符号输入方法及装置 |
CN106372059A (zh) * | 2016-08-30 | 2017-02-01 | 北京百度网讯科技有限公司 | 信息输入方法和装置 |
CN106570106A (zh) * | 2016-11-01 | 2017-04-19 | 北京百度网讯科技有限公司 | 一种输入过程中将语音信息转化为表情的方法和装置 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110058752A (zh) * | 2018-01-19 | 2019-07-26 | 北京搜狗科技发展有限公司 | 数据处理方法、装置、电子设备和存储介质 |
CN110058752B (zh) * | 2018-01-19 | 2022-04-19 | 北京搜狗智能科技有限公司 | 数据处理方法、装置、电子设备和存储介质 |
CN109088811A (zh) * | 2018-06-25 | 2018-12-25 | 维沃移动通信有限公司 | 一种信息发送方法及移动终端 |
CN108970123A (zh) * | 2018-07-16 | 2018-12-11 | 网易(杭州)网络有限公司 | 游戏中干扰信息的发送方法及装置、电子设备 |
CN110910898A (zh) * | 2018-09-15 | 2020-03-24 | 华为技术有限公司 | 一种语音信息处理的方法和装置 |
CN109462768A (zh) * | 2018-10-25 | 2019-03-12 | 维沃移动通信有限公司 | 一种字幕显示方法及终端设备 |
CN109817210A (zh) * | 2019-02-12 | 2019-05-28 | 百度在线网络技术(北京)有限公司 | 语音写作方法、装置、终端和存储介质 |
CN111724799A (zh) * | 2019-03-21 | 2020-09-29 | 阿里巴巴集团控股有限公司 | 声音表情的应用方法、装置、设备及可读存储介质 |
WO2021115351A1 (zh) * | 2019-12-10 | 2021-06-17 | 华为技术有限公司 | 一种表情制作方法和装置 |
US11941323B2 (en) | 2019-12-10 | 2024-03-26 | Huawei Technologies Co., Ltd. | Meme creation method and apparatus |
CN111128190A (zh) * | 2019-12-31 | 2020-05-08 | 恒信东方文化股份有限公司 | 一种表情匹配的方法及系统 |
CN112118359A (zh) * | 2020-09-22 | 2020-12-22 | 珠海格力电器股份有限公司 | 文本信息的处理方法、装置、电子设备和电子系统 |
CN112118359B (zh) * | 2020-09-22 | 2021-06-29 | 珠海格力电器股份有限公司 | 文本信息的处理方法、装置、存储介质、处理器和电子设备 |
CN112231605A (zh) * | 2020-10-09 | 2021-01-15 | 北京三快在线科技有限公司 | 信息展示的方法和装置 |
CN112331209A (zh) * | 2020-11-03 | 2021-02-05 | 建信金融科技有限责任公司 | 一种语音转文本的方法、装置、电子设备及可读存储介质 |
CN112331209B (zh) * | 2020-11-03 | 2023-08-08 | 建信金融科技有限责任公司 | 一种语音转文本的方法、装置、电子设备及可读存储介质 |
CN112866469A (zh) * | 2021-01-19 | 2021-05-28 | 维沃移动通信(杭州)有限公司 | 通话内容的记录方法及装置 |
CN114880062A (zh) * | 2022-05-30 | 2022-08-09 | 网易(杭州)网络有限公司 | 聊天表情展示方法、设备、电子设备及存储介质 |
CN114880062B (zh) * | 2022-05-30 | 2023-11-14 | 网易(杭州)网络有限公司 | 聊天表情展示方法、设备、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107450746A (zh) | 一种表情符号的插入方法、装置和电子设备 | |
CN114938360A (zh) | 一种基于即时通讯应用的数据处理方法和装置 | |
CN106448630B (zh) | 歌曲的数字乐谱文件的生成方法和装置 | |
US8170872B2 (en) | Incorporating user emotion in a chat transcript | |
CN109254669B (zh) | 一种表情图片输入方法、装置、电子设备及系统 | |
CN102708454B (zh) | 终端故障解决方案提供方法及装置 | |
CN106357416A (zh) | 一种群信息推荐方法、装置及终端 | |
CN106453971A (zh) | 呼叫中心质检语音的获取方法和呼叫中心质检系统 | |
CN109767757A (zh) | 一种会议记录生成方法和装置 | |
CN109325091A (zh) | 兴趣点属性信息的更新方法、装置、设备及介质 | |
CN109065051A (zh) | 一种语音识别处理方法及装置 | |
CN105959271A (zh) | 一种文字内容信息的语音转换方法、播放方法及装置 | |
CN103034407B (zh) | 终端和快速输入常用短语的方法 | |
CN111768781A (zh) | 语音打断的处理方法和装置 | |
CN110490428A (zh) | 空中交通管制工作质量评估方法及相关装置 | |
CN103796181A (zh) | 一种发送消息的播放方法、系统及相关设备 | |
CN106953962A (zh) | 一种通话录音方法及装置 | |
CN107479723A (zh) | 一种表情符号的插入方法、装置和电子设备 | |
CN109873751A (zh) | 一种群聊语音信息的处理方法、装置、存储介质及服务器 | |
CN103905612A (zh) | 一种信息处理的方法及电子设备 | |
CN111914078A (zh) | 数据处理方法、装置 | |
WO2008004844A1 (en) | Method and system for providing voice analysis service, and apparatus therefor | |
CN109670030A (zh) | 问答交互方法及装置 | |
CN108777804A (zh) | 媒体播放方法及装置 | |
CN104079703B (zh) | 一种信息处理方法及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20171208 |