CN107479723A - 一种表情符号的插入方法、装置和电子设备 - Google Patents

一种表情符号的插入方法、装置和电子设备 Download PDF

Info

Publication number
CN107479723A
CN107479723A CN201710711973.XA CN201710711973A CN107479723A CN 107479723 A CN107479723 A CN 107479723A CN 201710711973 A CN201710711973 A CN 201710711973A CN 107479723 A CN107479723 A CN 107479723A
Authority
CN
China
Prior art keywords
emoticon
speech data
chat message
collecting device
state parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710711973.XA
Other languages
English (en)
Other versions
CN107479723B (zh
Inventor
谢兵
黎广斌
张旭辉
王东洋
张天铖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lenovo Beijing Ltd
Original Assignee
Lenovo Beijing Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lenovo Beijing Ltd filed Critical Lenovo Beijing Ltd
Priority to CN201710711973.XA priority Critical patent/CN107479723B/zh
Publication of CN107479723A publication Critical patent/CN107479723A/zh
Application granted granted Critical
Publication of CN107479723B publication Critical patent/CN107479723B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/02Input arrangements using manually operated switches, e.g. using keyboards or dials
    • G06F3/023Arrangements for converting discrete items of information into a coded form, e.g. arrangements for interpreting keyboard generated codes as alphanumeric codes, operand codes or instruction codes
    • G06F3/0233Character input methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明提供了一种表情符号的插入方法、装置和电子设备,方法包括:获取与电子设备连接的采集设备所采集的语音数据;获取与传感单元所检测的状态参数对应的表情符号;其中,所述传感单元设置在所述采集设备上;将所述表情符号插入到所述语音数据,并展示在对话界面上;由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。

Description

一种表情符号的插入方法、装置和电子设备
技术领域
本发明涉及电子设备技术领域,更具体的说是涉及一种表情符号的插入方法、装置和电子设备。
背景技术
随着通信技术的发展,人们越来越多的在电子设备的聊天界面上进行交流。具体的,在交流过程中,用户可以使用表情符号来表达当前的情绪,表情符号的加入,使得聊天内容更加形象化。
目前,电子设备能够基于用户输入的文字内容自动调用与其匹配的表情符号。但是随着语音技术的发展,用户越来越倾向于在聊天界面使用语音进行交流,在使用语音聊天过程中,有一部分用户还会选择使用耳机来发送语音,这种情况下,若用户想要使用表情符号,需要从表情符号库中手动选择并发送,操作繁琐,降低用户体验。
发明内容
有鉴于此,本发明提供了一种表情符号的插入方法、装置和电子设备,以简化用户操作,提高用户体验。
为实现上述目的,本发明提供如下技术方案:
一种表情符号的插入方法,包括:
获取与电子设备连接的采集设备所采集的语音数据;
获取与传感单元所检测的状态参数对应的表情符号;其中,所述传感单元设置在所述采集设备上;
将所述表情符号插入到所述语音数据,并展示在对话界面上。
优选的,所述将所述表情符号插入到所述语音数据,并展示在对话界面上,包括:
获取所述传感单元检测所述状态参数的第一时间;
在所述语音数据中确定与所述第一时间对应的位置为插入位置;
基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
将所述聊天信息展示在对话界面上。
优选的,所述将所述表情符号插入到所述语音数据,并展示在对话界面中,包括:
对所述语音数据进行分析,确定与所述表情符号匹配的插入位置;
基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
将所述聊天信息展示在对话界面上。
优选的,所述基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息,包括:
基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
将所述一条聊天信息展示在对话界面中。
优选的,所述基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息,包括:
以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;
将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
将插入有所述表情符号的多条聊天信息展示在对话界面中。
一种表情符号的插入装置,包括:
获取数据单元,用于获取与电子设备连接的采集设备所采集的语音数据;
获取符号单元,用于获取与传感单元所检测的状态参数对应的表情符号;其中,所述传感单元设置在所述采集设备上;
插入展示单元,用于将所述表情符号插入到所述语音数据,并展示在对话界面上。
优选的,所述插入展示单元,包括:
获取时间模块,用于获取所述传感单元检测所述状态参数的第一时间;
第一确定模块,用于在所述语音数据中确定与所述第一时间对应的位置为插入位置;
插入生成模块,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
第一展示模块,用于将所述聊天信息展示在对话界面上。
优选的,所述插入展示单元,包括:
确定位置模块,用于对所述语音数据进行分析,确定与所述表情符号匹配的插入位置;
插入生成模块,用于基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
第二展示模块,用于将所述聊天信息展示在对话界面上。
优选的,所述插入生成模块,具体用于基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息,将所述一条聊天信息展示在对话界面中。
优选的,所述插入生成模块,具体用于以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中,将插入有所述表情符号的多条聊天信息展示在对话界面中。
一种电子设备,包括:
接收单元,用于接收与电子设备连接的采集设备所采集的语音数据;
处理器,用于获取与传感单元所检测的状态参数对应的表情符号,将所述表情符号插入到所述语音数据;其中,所述传感单元设置在所述采集设备上;
显示单元,用于在对话界面中展示插入有所述表情符号的语音数据。
优选的,所述处理器具体用于获取所述传感单元检测所述状态参数的第一时间,在所述语音数据中确定与所述第一时间对应的位置为插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
所述显示单元具体用于在对话界面上展示所述聊天信息。
优选的,所述处理器具体用于对所述语音数据进行分析,确定与所述表情符号匹配的插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
所述显示单元具体用于在所述对话界面上展示所述聊天信息。
优选的,所述处理器具体用于基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
所述显示单元具体用于在所述对话界面上展示所述一条聊天信息。
优选的,所述处理器具体用于以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
所述显示单元具体用于在所述对话界面上展示插入有所述表情符号的多条聊天信息。
经由上述的技术方案可知,与现有技术相比,本发明提供了一种表情符号的插入方法,包括:获取与电子设备连接的采集设备所采集的语音数据;获取与传感单元所检测的状态参数对应的表情符号;其中,所述传感单元设置在所述采集设备上;将所述表情符号插入到所述语音数据,并展示在对话界面上;由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1为本发明一个实施例公开了一种表情符号的插入方法的流程示意图;
图2为本发明另一实施例公开了一种表情符号的插入方法的流程示意图;
图3为本发明又一实施例公开了一种表情符号的插入方法的流程示意图;
图4为本发明实施例公开的电子设备的一种聊天界面;
图5为本发明实施例公开的电子设备的另一种聊天界面;
图6为本发明又一实施例公开的一种表情符号的插入方法的流程示意图;
图7为本发明一个实施例公开的一种表情符号的插入装置的结构示意图;
图8为本发明另一实施例公开的插入展示单元的结构示意图;
图9为本发明又一实施例公开的插入展示单元的结构示意图;
图10为本发明又一实施例公开的一种表情符号的插入装置的结构示意图;
图11为本发明一个实施例公开的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明一个实施例公开了一种表情符号的插入方法,如图1所示,该方法包括以下步骤:
步骤101:获取与电子设备连接的采集设备所采集的语音数据;
该采集设备与电子设备的接口有线连接,或者,该采集设备与电子设备无线连接。可选的,该采集设备可以为智能耳机,智能耳机上设置有采集单元,可以通过智能耳机上的采集单元来采集语音数据。
本发明公开的一种表情符号的插入方法可以应用于电子设备中,电子设备接收与其相连的采集设备发送的语音数据。可选的,用户可以通过触发采集设备上的特定物理按键或者触发电子设备上的虚拟按键来使得采集设备采集语音数据;当然,采集单元也可以在处于唤醒状态下,自动采集语音数据。
例如,电子设备当前运行有一聊天App,在聊天App的聊天界面上,在用户按下“按住说话”的虚拟按键的过程中,采集设备采集语音数据,当用户松开“按住说话”的虚拟按键时,采集设备停止采集语音数据。
本发明公开的一种表情符号的插入方法也可以应用于服务器中,采集设备可以将其采集的语音数据发送给电子设备,由电子设备将接收的语音数据发送给服务器;或者,采集设备与服务器建立通信连接,将其采集的语音数据直接发送给服务器。
步骤102:获取与传感单元所检测的状态参数对应的表情符号;
其中,传感单元设置在采集设备上。
在本发明中,表情符号包括用户在电子设备的对话界面中所使用各种数据,如动态图片、绘文字(emoji)、由字符串和/或文字组成的表情图案等等。
可选的,该采集设备可以为可穿戴式采集设备,如头戴式智能耳机、穿戴式智能手表、穿戴式智能手环、穿戴式智能头盔等,用户将采集设备穿戴在身体的相应部位,从而使得设置在采集设备上的传感单元能够检测到相应的状态参数。
其中,该传感单元可以为运动传感器,如重力传感器,用于检测采集设备的状态参数。该状态参数用于表征携带所述采集设备的用户的运动状态。
在本发明公开的一种可选实施例中,获取与传感单元所检测的状态参数对应的表情符号,包括以下过程:
(1)接收所述采集设备发送的传感单元所检测的状态参数;
(2)确定与所述状态参数对应的表情符号。
若本发明公开的一种表情符号的插入方法应用于电子设备中,那么,采集设备可以将传感单元所检测的状态参数发送给电子设备,由电子设备确定与状态参数对应的表情符号。若本发明公开的一种表情符号的插入方法应用于服务器中,那么,服务器可以通过电子设备接收采集设备发送的传感单元所检测的状态参数;或者,服务器直接接收采集设备发送的传感单元所检测的状态参数。
在本发明中,电子设备或服务器中预先建立有表情符号库,表情符号库中存储有状态参数与表情符号的对应关系,通过查找该对应关系能够确定与状态参数对应的表情符号。
在本发明公开的另一可选实施例中,获取与传感单元所检测的状态参数对应的表情符号,包括以下过程:
接收所述采集设备发送的与传感单元所检测的状态参数对应的表情符号。
若本发明公开的一种表情符号的插入方法应用于电子设备中,那么,电子设备直接接收采集设备发送的与传感单元所检测的状态参数对应的表情符号。若本发明公开的一种表情符号的插入方法应用于服务器中,那么,服务器可以通过电子设备接收采集设备发送的与传感单元所检测的状态参数对应的表情符号;或者,服务器直接接收采集设备发送的与传感单元所检测的状态参数对应的表情符号。
具体的,与状态参数对应的表情符号由采集设备基于所传感单元所检测的状态参数确定。可选的,采集设备中预先建立有表情符号库,表情符号库中存储有状态参数与表情符号的对应关系,通过查找该对应关系能够确定与状态参数对应的表情符号。
例如,以采集设备为头戴式耳机为例,用户将头戴式耳机戴在头上,当头戴式耳机通过传感单元采集到与用户点头对应的状态参数时,与该状态参数对应的表情符号可以为表征“YES”的图片。当头戴式耳机通过传递单元采集到与用户摇头对应的状态参数时,与该状态参数对应的表情符号可以为表征“NO”的图片。
为了增强确定表情符号的形象性,在确定与传感单元所检测的状态参数对应的表情符号时,还可以基于语音数据进行确定,具体的,获取与传感单元所检测的状态参数对应的表情符号,可以为:获取与传感单元所检测的状态参数以及语音数据对应的表情符号。即表情符号库中存储有状态参数以及语音数据与表情符号的对应关系,通过查找该对应关系能够确定与状态参数以及语言数据对应的表情符号。
仍以头戴式耳机为例,当用户捧腹大笑时,传感单元能够采集到与用于“捧腹”对应的状态参数,而语音数据中包含“大笑”数据,那么,与状态参数以及语音数据对应的表情符号可以为表征“捧腹大笑”的图片。
步骤103:将所述表情符号插入到所述语音数据,并展示在对话界面上。
该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。
将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。
由此可见,本发明实施例提供了一种表情符号的插入方法,包括:获取与电子设备连接的采集设备所采集的语音数据;获取与传感单元所检测的状态参数对应的表情符号;其中,所述传感单元设置在所述采集设备上;将所述表情符号插入到所述语音数据,并展示在对话界面上。本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明另一实施例公开了一种表情符号的插入方法,如图2所示,该方法包括以下步骤:
步骤201:获取与电子设备连接的采集设备所采集的语音数据;
步骤202:获取与传感单元所检测的状态参数对应的表情符号;
其中,所述传感单元设置在采集设备上。
步骤203:获取传感单元检测所述状态参数的第一时间;
可选的,电子设备或服务器可以将接收到采集设备的传感单元所检测的状态参数的时间确定为第一时间,或者,采集设备在通过传感单元检测状态参数的同时确定第一时间。也就是说,该第一时间为传感单元采集状态参数的时间。
步骤204:在所述语音数据中确定与所述第一时间对应的位置为插入位置;
其中,语音数据具有与其对应的采集时间,一段语音数据对应一段采集时间。
可选的,在确定传感单元检测状态参数的第一时间时,可以以采集设备开始采集语音数据为起点开始计时,从而确定第一时间,以及在语音数据中确定与第一时间对应的位置为插入位置。例如,以采集设备开始采集语音数据为起点开始计时,该段语音数据共用10s,而传感单元检测所述状态参数的第一时间为第5s,那么可以确定语音数据中第5s的位置为插入位置。
可选的,在确定传感单元检测状态参数的第一时间时,还可以以采集设备的当前时间为基准,来确定传感单元检测状态参数的第一时间以及在语音数据中确定与第一时间对应的位置为插入位置。例如,采集设备在当前时间为8:50开始采集语音数据,该段语音数据共用10s,而传感单元检测状态参数的第一数据为8:55,那么可以确定语音数据中第5s的位置为插入位置。
步骤205:基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
步骤206:将所述聊天信息展示在对话界面上。
其中,步骤203-步骤206为步骤将所述表情符号插入到所述语音数据中,并展示在对话界面上的具体实现。
由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明又一实施例公开了一种表情符号的插入方法,如图3所示,该方法包括以下步骤:
步骤301:获取与电子设备连接的采集设备所采集的语音数据;
步骤302:获取与传感单元所检测的状态参数对应的表情符号;
其中,所述传感单元设置在采集设备上。
步骤303:对所述语音数据进行分析,确定与所述表情符号匹配的插入位置;
可选的,作为第一种实现方式,对语音数据进行分析,确定与所述表情符号匹配的插入位置,可以包括以下过程:
(1)获取所述语音数据的语义内容;
(2)确定与所述表情符号匹配的语义内容的位置为插入位置。
可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。
在本发明中,预先建立有表情符号与语义内容的对应关系,因此,当获取到语音数据的语义内容后,可以确定与表情符号对应的语义内容,并将该语义内容的位置确定为插入位置。该插入位置可以为语音数据中与表情符号匹配的语义内容的后面位置。
可选的,作为第二种实现方式,对语音数据进行分析,确定与所述表情符号匹配的插入位置,可以包括以下过程:
基于预先建立的语气训练模型确定语音数据中与表情符号匹配的位置为插入位置。
在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以建立不同的语气信息所对应的表情符号,在接收到语音数据后,基于语气训练模型确定与表情符号匹配的位置为插入位置。可选的,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。
可选的,作为第三种实现方式,对语音数据进行分析,确定与所述表情符号匹配的插入位置,可以包括以下过程:
基于预先建立的语速训练模型确定语音数据中与所述表情符号匹配的位置为插入位置。
在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以建立不同的语速信息所对应的表情符号,在接收到语音数据后,基于语速训练模型确定与表情符号匹配的位置为插入位置。可选的,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
步骤304:基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
步骤305:将所述聊天信息展示在对话界面上。
其中,步骤303-步骤305为步骤将所述表情符号插入到所述语音数据,并展示在对话界面上的具体实现。
由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
在本发明一个可选实施例中,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息,包括以下过程:
(1)基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
(2)将所述一条聊天信息展示在对话界面中。
通过将表情符号插入到语音数据中的所述插入位置,从而生成一条聊天信息。
也就是说,该一条聊天信息中包含了插入表情符号的语音数据。例如,以语音数据为“今天很开心,谢谢你”为例,通过分析确定与状态参数对应的表情符号包括两个,一个是用于表征“开心”的表情符号,一个是用于表征“谢谢你”的表情符号。那么,可以将用于表征“开心”的表情符号插入到语音数据为“今天很开心”的后面,将用于表征“谢谢你”的表情符号插入到语音数据为“谢谢你”的后面,从而生成一条包含两个表情符号的聊天信息。
如图4所示,为电子设备的聊天界面的一种表现形式,电子设备100上显示有聊天界面100A,在聊天界面100A上,用户A1和用户A2通过语音聊天,电子设备100能够通过语音采集单元采集用户A1的语音数据,同时也能接收用户A2发送过来的语音数据,以语音数据aa为例,在语音数据aa中插入了两个表情符号,那么,当电子设备播放该条语音数据aa时,用户不仅能够能到听到语音内容,还能够看到插入到该条语音数据中的表情符号。
在本发明另一个可选实施例中,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息,包括以下过程:
(1)以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;
可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。
(2)将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
也就是说,表情符号和被拆分的语音数据分别作为单独的一条聊天信息。例如,一段语音数据aa被拆分成两条聊天信息,分别为aa1和aa2,在aa1和aa2之间具有一条表情符号,在aa2之后具有一条表情符号,那么语音数据aa共包括4条聊天信息。
(3)将插入有所述表情符号的多条聊天信息展示在对话界面中。
如图5所示,为电子设备的聊天界面的一种表现形式,电子设备100上显示有聊天界面100A,在聊天界面100A上,用户A1和用户A2通过语音聊天,电子设备100能够通过语音采集单元采集用户A1的语音数据,同时也能接收用户A2发送过来的语音数据,其中,一段语音数据拆分成两条聊天信息,分别为语音数据aa1和语音数据aa2,在语音数据aa1和语音数据aa2中插入有一条表情符号bb1,在语音数据aa2的最后插入有一条表情符号bb2。那么,电子设备可以顺序的播放多条语音数据,即顺序的播放语音数据aa1和语音数据aa2,用户不仅能够能到听到语音内容,还能够看到插入到两条语音数据中的表情符号bb1和插入到语音数据aa2之后的表情符号bb2。
本发明又一实施例公开了一种表情符号的插入方法,如图6所示,该方法包括以下步骤:
步骤601:获取与电子设备连接的采集设备所采集的语音数据;
步骤602:获取与传感单元所检测的状态参数对应的表情符号;
其中,所述传感单元设置在所述采集设备上。
步骤603:将所述表情符号插入到所述语音数据,并展示在对话界面上;
步骤604:当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据。
该语音转换操作可以为触发对话界面中的语音数据的时间达到预设时间并在对话界面弹出选择界面时,点击“转换为文字”的控件的操作,当然,该语音转换操作也可以为其他预设操作。
其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。
由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
与上述一种表情符号的插入方法对应的,本发明还公开了一种表情符号的插入装置,以下通过几个实施例进行说明:
本发明一个实施例公开了一种表情符号的插入装置,如图7所示,该装置包括:获取数据单元701、获取符号单元702以及插入展示单元703;其中:
获取数据单元701,用于获取与电子设备连接的采集设备所采集的语音数据;
该采集设备与电子设备的接口有线连接,或者,该采集设备与电子设备无线连接。可选的,该采集设备可以为智能耳机,智能耳机上设置有采集单元,可以通过智能耳机上的采集单元来采集语音数据。
本发明公开的一种表情符号的插入装置可以应用于电子设备中,电子设备接收与其相连的采集设备发送的语音数据。可选的,用户可以通过触发采集设备上的特定物理按键或者触发电子设备上的虚拟按键来使得采集设备采集语音数据;当然,采集单元也可以在处于唤醒状态下,自动采集语音数据。
本发明公开的一种表情符号的插入装置也可以应用于服务器中,采集设备可以将其采集的语音数据发送给电子设备,由电子设备将接收的语音数据发送给服务器;或者,采集设备与服务器建立通信连接,将其采集的语音数据直接发送给服务器。
获取符号单元702,用于获取与传感单元所检测的状态参数对应的表情符号;
其中,所述传感单元设置在所述采集设备上。
可选的,该采集设备可以为可穿戴式采集设备,如头戴式智能耳机、穿戴式智能手表、穿戴式智能手环、穿戴式智能头盔等,用户将采集设备穿戴在身体的相应部位,从而使得设置在采集设备上的传感单元能够检测到相应的状态参数。
其中,该传感单元可以为运动传感器,如重力传感器,用于检测采集设备的状态参数。该状态参数用于表征携带所述采集设备的用户的运动状态。
在本发明公开的一种可选实施例中,获取符号单元702包括:第一接收模块和确定符号模块;具体的:
第一接收模块,用于接收所述采集设备发送的传感单元所检测的状态参数;确定符号模块,用于确定与所述状态参数对应的表情符号。
若本发明公开的一种表情符号的插入装置应用于电子设备中,那么,采集设备可以将传感单元所检测的状态参数发送给电子设备的第一接收模块。若本发明公开的一种表情符号的插入装置应用于服务器中,那么,第一接收模块可以通过电子设备接收采集设备发送的传感单元所检测的状态参数;或者,第一接收模块直接接收采集设备发送的传感单元所检测的状态参数。
在本发明中,电子设备或服务器中预先建立有表情符号库,表情符号库中存储有状态参数与表情符号的对应关系,通过查找该对应关系能够确定与状态参数对应的表情符号。
在本发明公开的另一可选实施例中,获取符号单元702包括:第二接收模块;
第二接收模块,用于接收所述采集设备发送的与传感单元所检测的状态参数对应的表情符号。
其中,与所述状态参数对应的表情符号由所述采集设备基于所述传感单元所检测的状态参数确定。
若本发明公开的一种表情符号的插入装置应用于电子设备中,那么,第二接收模块直接接收采集设备发送的与传感单元所检测的状态参数对应的表情符号。若本发明公开的一种表情符号的插入装置应用于服务器中,那么,第二接收模块可以通过电子设备接收采集设备发送的与传感单元所检测的状态参数对应的表情符号;或者,第二接收模块直接接收采集设备发送的与传感单元所检测的状态参数对应的表情符号。
具体的,与状态参数对应的表情符号由采集设备基于所传感单元所检测的状态参数确定。可选的,采集设备中预先建立有表情符号库,表情符号库中存储有状态参数与表情符号的对应关系,通过查找该对应关系能够确定与状态参数对应的表情符号。
为了增强确定表情符号的形象性,获取符号单元702在确定与传感单元所检测的状态参数对应的表情符号时,还可以基于语音数据进行确定,具体的,获取符号单元702具体用于获取与传感单元所检测的状态参数以及语音数据对应的表情符号。即表情符号库中存储有状态参数以及语音数据与表情符号的对应关系,通过查找该对应关系能够确定与状态参数以及语言数据对应的表情符号。
插入展示单元703,用于将所述表情符号插入到所述语音数据,并展示在对话界面上。
该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。
将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。
由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明另一实施例公开了一种表情符号的插入装置,在本实施例中,如图8所示,插入展示单元,包括:获取时间模块8031、第一确定模块8032、插入生成模块8033以及第一展示模块8034;具体的:
获取时间模块8031,用于获取所述传感单元检测所述状态参数的第一时间;
可选的,获取时间模块8031可以将接收到采集设备的传感单元所检测的状态参数的时间确定为第一时间,或者,采集设备在通过传感单元检测状态参数的同时确定第一时间。也就是说,该第一时间为传感单元采集状态参数的时间。
第一确定模块8032,用于在所述语音数据中确定与所述第一时间对应的位置为插入位置;
其中,语音数据具有与其对应的采集时间,一段语音数据对应一段采集时间。
可选的,获取时间模块在确定传感单元检测状态参数的第一时间时,可以以采集设备开始采集语音数据为起点开始计时,从而确定第一时间,以及第一确定模块在语音数据中确定与第一时间对应的位置为插入位置。例如,以采集设备开始采集语音数据为起点开始计时,该段语音数据共用10s,而传感单元检测所述状态参数的第一时间为第5s,那么可以确定语音数据中第5s的位置为插入位置。
可选的,获取时间模块在确定传感单元检测状态参数的第一时间时,还可以以采集设备的当前时间为基准,来确定传感单元检测状态参数的第一时间,以及第一确定模块在语音数据中确定与第一时间对应的位置为插入位置。例如,采集设备在当前时间为8:50开始采集语音数据,该段语音数据共用10s,而传感单元检测状态参数的第一数据为8:55,那么可以确定语音数据中第5s的位置为插入位置。
插入生成模块8033,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
第一展示模块8034,用于将所述聊天信息展示在对话界面上。
本发明又一实施例公开了一种表情符号的插入装置,在本实施例中,如图9所示,插入展示单元,包括:确定位置模块9031、插入生成模块9032以及第二展示模块9033;具体的:
确定位置模块9031,用于对所述语音数据进行分析,确定与所述表情符号匹配的插入位置;
可选的,作为第一种实现方式,确定位置模块具体用于获取所述语音数据的语义内容,确定与所述表情符号匹配的语义内容的位置为插入位置。
确定位置模块可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,确定位置模块先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。
在本发明中,预先建立有表情符号与语义内容的对应关系,因此,当获取到语音数据的语义内容后,可以确定与表情符号对应的语义内容,并将该语义内容的位置确定为插入位置。该插入位置可以为语音数据中与表情符号匹配的语义内容的后面位置。
可选的,作为第二种实现方式,确定位置模块具体用于基于预先建立的语气训练模型确定语音数据中与表情符号匹配的位置为插入位置。
在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以建立不同的语气信息所对应的表情符号,在接收到语音数据后,基于语气训练模型确定与表情符号匹配的位置为插入位置。可选的,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。
可选的,作为第三种实现方式,确定位置模块具体用于基于预先建立的语速训练模型确定语音数据中与所述表情符号匹配的位置为插入位置。
在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以建立不同的语速信息所对应的表情符号,在接收到语音数据后,基于语速训练模型确定与表情符号匹配的位置为插入位置。可选的,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
插入生成模块9032,用于基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
第二展示模块9033,用于将所述聊天信息展示在对话界面上。
在本发明一个可选实施例中,插入生成模块,具体用于基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息,将所述一条聊天信息展示在对话界面中。
通过将表情符号插入到语音数据中的所述插入位置,从而生成一条聊天信息。
在本发明另一可选实施例中,插入生成模块,具体用于以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中,将插入有所述表情符号的多条聊天信息展示在对话界面中。
可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。
其中,表情符号和被拆分的语音数据分别作为单独的一条聊天信息。
本发明又一实施例还公开了一种表情符号的插入装置,如图10所示,该装置包括:获取数据单元1001、获取符号单元1002、插入展示单元1003以及转换文本单元1004;其中:
获取数据单元1001,用于获取与电子设备连接的采集设备所采集的语音数据;
获取符号单元1002,用于获取与传感单元所检测的状态参数对应的表情符号;
其中,所述传感单元设置在所述采集设备上。
插入展示单元1003,用于将所述表情符号插入到所述语音数据,并展示在对话界面上;
转换文本单元1004,用于当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据。
该语音转换操作可以为触发对话界面中的语音数据的时间达到预设时间并在对话界面弹出选择界面时,点击“转换为文字”的控件的操作,当然,该语音转换操作也可以为其他预设操作。
其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。
由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
与上述一种表情符号的插入方法对应的,本发明还公开了一种电子设备,以下通过几个实施例进行描述。
本发明一个实施例公开了一种电子设备,如图11所示,该电子设备包括:接收单元110、处理器120以及显示单元130;其中:
接收单元110,用于接收与电子设备连接的采集设备所采集的语音数据;
该采集设备与电子设备的接口有线连接,或者,该采集设备与电子设备无线连接。可选的,该采集设备可以为智能耳机,智能耳机上设置有采集单元,可以通过智能耳机上的采集单元来采集语音数据。
可选的,用户可以通过触发采集设备上的特定物理按键或者触发电子设备上的虚拟按键来使得采集设备采集语音数据;当然,采集单元也可以在处于唤醒状态下,自动采集语音数据。
处理器120,用于获取与传感单元所检测的状态参数对应的表情符号,将所述表情符号插入到所述语音数据;
其中,所述传感单元设置在所述采集设备上。
可选的,该采集设备可以为可穿戴式采集设备,如头戴式智能耳机、穿戴式智能手表、穿戴式智能手环、穿戴式智能头盔等,用户将采集设备穿戴在身体的相应部位,从而使得设置在采集设备上的传感单元能够检测到相应的状态参数。
其中,该传感单元可以为运动传感器,如重力传感器,用于检测采集设备的状态参数。该状态参数用于表征携带所述采集设备的用户的运动状态。
在本发明公开的一种可选实施例中,接收单元具体用于接收所述采集设备发送的传感单元所检测的状态参数;处理器具体用于确定与所述状态参数对应的表情符号。
在本发明中,电子设备预先建立有表情符号库,表情符号库中存储有状态参数与表情符号的对应关系,处理器通过查找该对应关系能够确定与状态参数对应的表情符号。
在本发明公开的另一可选实施例中,接收单元具体用于接收所述采集设备发送的与传感单元所检测的状态参数对应的表情符号。
其中,与所述状态参数对应的表情符号由所述采集设备基于所述传感单元所检测的状态参数确定。可选的,采集设备中预先建立有表情符号库,表情符号库中存储有状态参数与表情符号的对应关系,通过查找该对应关系能够确定与状态参数对应的表情符号。
为了增强确定表情符号的形象性,处理器在确定与传感单元所检测的状态参数对应的表情符号时,还可以基于语音数据进行确定,具体的,处理器具体用于获取与传感单元所检测的状态参数以及语音数据对应的表情符号。即表情符号库中存储有状态参数以及语音数据与表情符号的对应关系,通过查找该对应关系能够确定与状态参数以及语言数据对应的表情符号。
显示单元130,用于在对话界面中展示插入有所述表情符号的语音数据。
该对话界面为用户通过电子设备与其他用户进行聊天的聊天界面,具体的,由于该语音数据是由本端电子设备通过语音采集单元采集的数据,因此在本端电子设备的对话界面中,是将插入有表情符号的语音数据以发送者的角度进行展示,而在对端电子设备的对话界面中,是将插入有表情符号的语音数据以接收者的角度进行展示。
将所述表情符号插入到所述语音数据,并展示在对话界面中后,当播放该语音数据时,用户不仅能够能到听到语音内容,还能够看到插入到语音数据中的表情符号。
由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本发明另一实施例公开了一种电子设备,在本实施例中,处理器将所述表情符号插入到所述语音数据,并展示在对话界面上,具体包括:处理器用于获取所述传感单元检测所述状态参数的第一时间,在所述语音数据中确定与所述第一时间对应的位置为插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息。
相应的,显示单元具体用于在对话界面上展示所述聊天信息。
可选的,处理器可以将接收到采集设备的传感单元所检测的状态参数的时间确定为第一时间,或者,采集设备在通过传感单元检测状态参数的同时确定第一时间。也就是说,该第一时间为传感单元采集状态参数的时间。
其中,语音数据具有与其对应的采集时间,一段语音数据对应一段采集时间。
可选的,处理器在确定传感单元检测状态参数的第一时间时,可以以采集设备开始采集语音数据为起点开始计时,从而确定第一时间,以及在语音数据中确定与第一时间对应的位置为插入位置。或者,处理器在确定传感单元检测状态参数的第一时间时,还可以以采集设备的当前时间为基准,来确定传感单元检测状态参数的第一时间以及在语音数据中确定与第一时间对应的位置为插入位置。
本发明又一实施例公开了一种电子设备,在本实施例中,处理器将所述表情符号插入到所述语音数据,并展示在对话界面上,具体包括:处理器用于对所述语音数据进行分析,确定与所述表情符号匹配的插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息。
相应的,显示单元具体用于在所述对话界面上展示所述聊天信息。
可选的,作为第一种实现方式,处理器对语音数据进行分析,确定与所述表情符号匹配的插入位置,可以包括:处理器用于获取所述语音数据的语义内容,确定与所述表情符号匹配的语义内容的位置为插入位置。
处理器可以通过语音提取算法提取语音数据中的语义内容,该语义内容为语音表现形式;或者,先将语音数据转换为文本数据,然后提取文本数据中的语义内容,该语义内容为文本表现形式。
在本发明中,预先建立有表情符号与语义内容的对应关系,因此,当获取到语音数据的语义内容后,可以确定与表情符号对应的语义内容,并将该语义内容的位置确定为插入位置。该插入位置可以为语音数据中与表情符号匹配的语义内容的后面位置。
可选的,作为第二种实现方式,处理器对语音数据进行分析,确定与所述表情符号匹配的插入位置,可以包括:处理器具体用于基于预先建立的语气训练模型确定语音数据中与表情符号匹配的位置为插入位置。
在本发明中,系统可以预先训练大量的语音数据来构建语气训练模型,以建立不同的语气信息所对应的表情符号,在接收到语音数据后,基于语气训练模型确定与表情符号匹配的位置为插入位置。可选的,该插入位置可以基于语气强度的属性信息进行确定,例如,插入位置为语音数据中语气强度由高变低后的位置。
可选的,作为第三种实现方式,处理器对语音数据进行分析,确定与所述表情符号匹配的插入位置,可以包括:处理器具体用于基于预先建立的语速训练模型确定语音数据中与所述表情符号匹配的位置为插入位置。
在本发明中,系统可以预先训练大量的语音数据来构建语速训练模型,以建立不同的语速信息所对应的表情符号,在接收到语音数据后,基于语速训练模型确定与表情符号匹配的位置为插入位置。可选的,该插入位置可以基于语速的属性信息确定,例如,该插入位置可以为语音数据中语速由快变慢后的位置,或者该插入位置为语音数据中语速发生改变的位置。
在本发明一个可选实施例中,处理器具体用于基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;相应的,显示单元具体用于在所述对话界面上展示所述一条聊天信息。
通过将表情符号插入到语音数据中的所述插入位置,从而生成一条聊天信息。
在本发明另一可选实施例中,处理器具体用于以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息,将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;相应的,显示单元具体用于在所述对话界面上展示插入有所述表情符号的多条聊天信息。
可以理解的,本实施例中,是以插入位置位于语音数据中的位置为拆分点;若插入位置位于一条语音数据的最前面或者最后,即位于该条语音数据的两端,那么则无需拆分。
其中,表情符号和被拆分的语音数据分别作为单独的一条聊天信息。
本发明又一实施例公开了一种电子设备,在本实施例中,处理器还用于当接收到语音转换操作时,将所述语音转换操作对应的语音数据转换为文本数据;其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
显示单元还用于在所述对话界面上展示包含所述表情符号的所述文本数据。
该语音转换操作可以为触发对话界面中的语音数据的时间达到预设时间并在对话界面弹出选择界面时,点击“转换为文字”的控件的操作,当然,该语音转换操作也可以为其他预设操作。
其中,所述文本数据中包含所述表情符号,所述表情符号在所述文本数据的插入位置与其在所述语音数据的插入位置对应。
也就是说,在将语音数据中插入表情符号后,若用户需要将该语音数据转换为文本数据,系统在转换的过程中,并不会去掉该表情符号,而是基于表情符号在语音数据的插入位置将其插入到对应的文本数据中。
由此可见,本发明能够基于采集设备上的传感单元所检测的状态参数自动匹配表情符号,并自动将其插入到语音数据展示在对话界面上,无需用户从表情符号库手动选择,简化了用户操作,提高了用户体验。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (10)

1.一种表情符号的插入方法,其特征在于,包括:
获取与电子设备连接的采集设备所采集的语音数据;
获取与传感单元所检测的状态参数对应的表情符号;其中,所述传感单元设置在所述采集设备上;
将所述表情符号插入到所述语音数据,并展示在对话界面上。
2.根据权利要求1所述的方法,其特征在于,所述将所述表情符号插入到所述语音数据,并展示在对话界面上,包括:
获取所述传感单元检测所述状态参数的第一时间;
在所述语音数据中确定与所述第一时间对应的位置为插入位置;
基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
将所述聊天信息展示在对话界面上。
3.根据权利要求1所述的方法,其特征在于,所述将所述表情符号插入到所述语音数据,并展示在对话界面中,包括:
对所述语音数据进行分析,确定与所述表情符号匹配的插入位置;
基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
将所述聊天信息展示在对话界面上。
4.根据权利要求2或3所述的方法,其特征在于,所述基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息,包括:
基于所述插入位置将所述表情符号插入到所述语音数据,并处理成一条聊天信息;
将所述一条聊天信息展示在对话界面中。
5.根据权利要求2或3所述的方法,其特征在于,所述基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息,包括:
以所述插入位置为拆分点,将所述语音数据拆分为多条聊天信息;
将所述表情符号作为单独的一条聊天信息插入到与其对应的所述多条聊天信息中;
将插入有所述表情符号的多条聊天信息展示在对话界面中。
6.一种表情符号的插入装置,其特征在于,包括:
获取数据单元,用于获取与电子设备连接的采集设备所采集的语音数据;
获取符号单元,用于获取与传感单元所检测的状态参数对应的表情符号;其中,所述传感单元设置在所述采集设备上;
插入展示单元,用于将所述表情符号插入到所述语音数据,并展示在对话界面上。
7.根据权利要求6所述的装置,其特征在于,所述插入展示单元,包括:
获取时间模块,用于获取所述传感单元检测所述状态参数的第一时间;
第一确定模块,用于在所述语音数据中确定与所述第一时间对应的位置为插入位置;
插入生成模块,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
第一展示模块,用于将所述聊天信息展示在对话界面上。
8.一种电子设备,其特征在于,包括:
接收单元,用于接收与电子设备连接的采集设备所采集的语音数据;
处理器,用于获取与传感单元所检测的状态参数对应的表情符号,将所述表情符号插入到所述语音数据;其中,所述传感单元设置在所述采集设备上;
显示单元,用于在对话界面中展示插入有所述表情符号的语音数据。
9.根据权利要求8所述的电子设备,其特征在于,所述处理器具体用于获取所述传感单元检测所述状态参数的第一时间,在所述语音数据中确定与所述第一时间对应的位置为插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
所述显示单元具体用于在对话界面上展示所述聊天信息。
10.根据权利要求8所述的电子设备,其特征在于,所述处理器具体用于对所述语音数据进行分析,确定与所述表情符号匹配的插入位置,基于所述插入位置将所述表情符号插入到所述语音数据,生成聊天信息;
所述显示单元具体用于在所述对话界面上展示所述聊天信息。
CN201710711973.XA 2017-08-18 2017-08-18 一种表情符号的插入方法、装置和电子设备 Active CN107479723B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710711973.XA CN107479723B (zh) 2017-08-18 2017-08-18 一种表情符号的插入方法、装置和电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710711973.XA CN107479723B (zh) 2017-08-18 2017-08-18 一种表情符号的插入方法、装置和电子设备

Publications (2)

Publication Number Publication Date
CN107479723A true CN107479723A (zh) 2017-12-15
CN107479723B CN107479723B (zh) 2021-01-15

Family

ID=60601608

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710711973.XA Active CN107479723B (zh) 2017-08-18 2017-08-18 一种表情符号的插入方法、装置和电子设备

Country Status (1)

Country Link
CN (1) CN107479723B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866469A (zh) * 2021-01-19 2021-05-28 维沃移动通信(杭州)有限公司 通话内容的记录方法及装置
CN115460166A (zh) * 2022-09-06 2022-12-09 网易(杭州)网络有限公司 即时语音通信方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101183294A (zh) * 2007-12-17 2008-05-21 腾讯科技(深圳)有限公司 表情输入方法及装置
CN103823561A (zh) * 2014-02-27 2014-05-28 广州华多网络科技有限公司 表情输入方法和装置
CN104407834A (zh) * 2014-11-13 2015-03-11 腾讯科技(成都)有限公司 信息输入方法和装置
US20160132292A1 (en) * 2013-06-07 2016-05-12 Openvacs Co., Ltd. Method for Controlling Voice Emoticon in Portable Terminal
CN106372059A (zh) * 2016-08-30 2017-02-01 北京百度网讯科技有限公司 信息输入方法和装置
CN106407176A (zh) * 2015-07-31 2017-02-15 联想(新加坡)私人有限公司 在语音识别中插入字符的方法和设备
CN106570106A (zh) * 2016-11-01 2017-04-19 北京百度网讯科技有限公司 一种输入过程中将语音信息转化为表情的方法和装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101183294A (zh) * 2007-12-17 2008-05-21 腾讯科技(深圳)有限公司 表情输入方法及装置
US20160132292A1 (en) * 2013-06-07 2016-05-12 Openvacs Co., Ltd. Method for Controlling Voice Emoticon in Portable Terminal
CN103823561A (zh) * 2014-02-27 2014-05-28 广州华多网络科技有限公司 表情输入方法和装置
CN104407834A (zh) * 2014-11-13 2015-03-11 腾讯科技(成都)有限公司 信息输入方法和装置
CN106407176A (zh) * 2015-07-31 2017-02-15 联想(新加坡)私人有限公司 在语音识别中插入字符的方法和设备
CN106372059A (zh) * 2016-08-30 2017-02-01 北京百度网讯科技有限公司 信息输入方法和装置
CN106570106A (zh) * 2016-11-01 2017-04-19 北京百度网讯科技有限公司 一种输入过程中将语音信息转化为表情的方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
吴龙照等: "《高新技术科普丛书 大千世界入掌来 智能终端技术及其在智慧城市的应用》", 31 August 2015 *
李艳红等: "《传感器原理及实际应用设计》", 31 May 2016, 北京理工大学出版社 *
林强等: "《行为识别与智能计算》", 30 November 2016 *
陈乙雄等: "《移动设备新技术简明教程》", 31 August 2016, 重庆大学出版社 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112866469A (zh) * 2021-01-19 2021-05-28 维沃移动通信(杭州)有限公司 通话内容的记录方法及装置
CN115460166A (zh) * 2022-09-06 2022-12-09 网易(杭州)网络有限公司 即时语音通信方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN107479723B (zh) 2021-01-15

Similar Documents

Publication Publication Date Title
CN107450746A (zh) 一种表情符号的插入方法、装置和电子设备
CN110381389B (zh) 一种基于人工智能的字幕生成方法和装置
CN114938360B (zh) 一种基于即时通讯应用的数据处理方法和装置
CN104113471B (zh) 通讯连接异常时的信息处理方法和装置
US8170872B2 (en) Incorporating user emotion in a chat transcript
CN102568479B (zh) 一种移动手持设备的语音解锁方法及系统
CN105099855B (zh) 电子装置以及语音信息的播放控制方法
CN109254669B (zh) 一种表情图片输入方法、装置、电子设备及系统
CN103116576A (zh) 一种语音手势交互翻译装置及其控制方法
KR101870849B1 (ko) 정보 전송 방법 및 전송 장치
WO2017161741A1 (zh) 聋哑人进行信息交流的方法、装置及智能终端
CN112863547A (zh) 虚拟资源转移处理方法、装置、存储介质及计算机设备
CN109492221B (zh) 一种基于语义分析的信息回复方法及可穿戴设备
CN106357416A (zh) 一种群信息推荐方法、装置及终端
CN103095557A (zh) 即时通信消息进行语音输出的方法及系统
WO2020155490A1 (zh) 基于语音分析的管理音乐的方法、装置和计算机设备
CN203149569U (zh) 一种语音手势交互翻译装置
CN107479723A (zh) 一种表情符号的插入方法、装置和电子设备
CN104361787A (zh) 信号转换系统和信号转换方法
WO2020143256A1 (zh) 群聊语音信息的处理方法、装置、存储介质及服务器
CN106683668A (zh) 一种智能设备的唤醒控制的方法以及系统
CN105450970B (zh) 一种信息处理方法及电子设备
CN109040188A (zh) 一种智能音箱的音频处理方法及系统
CN111914078A (zh) 数据处理方法、装置
WO2008004844A1 (en) Method and system for providing voice analysis service, and apparatus therefor

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant