CN104252226B - 一种信息处理的方法及电子设备 - Google Patents
一种信息处理的方法及电子设备 Download PDFInfo
- Publication number
- CN104252226B CN104252226B CN201310268641.0A CN201310268641A CN104252226B CN 104252226 B CN104252226 B CN 104252226B CN 201310268641 A CN201310268641 A CN 201310268641A CN 104252226 B CN104252226 B CN 104252226B
- Authority
- CN
- China
- Prior art keywords
- electronic equipment
- speech data
- expression
- control instruction
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- User Interface Of Digital Computer (AREA)
Abstract
本发明涉及多媒体技术领域,公开了一种信息处理的方法及电子设备,所述方法应用于第一电子设备中,具体为:在所述第一电子设备与第二电子设备进行通信的过程中,获得第一语音数据;基于所述第一语音数据,获得第一控制指令;将所述第一语音数据以及与所述第一控制指令发送至第二电子设备,以使得所述第二电子设备播放所述第一语音数据以及在播放所述第一语音数据的过程中基于所述第一控制指令产生一用于辅助所述第一语音数据的辅助效果。也就是直接通过第一电子设备的用户所产生的语音聊天内容,产生对应的控制指令,进而产生对应的辅助效果,而不需要再检测并响应其它操作,故而达到了对通信过程的控制更加方便的技术效果。
Description
技术领域
本发明涉及多媒体技术领域,特别涉及一种信息处理的方法及电子设备。
背景技术
随着科学技术的不断发展,电子技术也得到了飞速的发展,电子产品的种类也越来越多,人们也享受到了科技发展带来的各种便利。现在人们可以通过各种类型的电子设备,享受随着科技发展带来的舒适生活。比如,手机、平板电脑、笔记本电脑等等,人们可以通过这些电子设备进行各种通信,比如:文字通信、语音通信、视频通信等等。
在现有技术中,在用户通过电子设备进行文字通信的过程中,可以通过用户的选择操作,确定出对应的表情信息,进而将表情信息发送至另一电子设备,进而实现通信过程更加多样化,以提高用户体验度。
本申请发明人至少发现现有技术中存在如下技术问题:
由于在现有技术中,电子设备需要响应用户的选择操作才能确定对应的表情信息,故而,在通信过程中添加表情信息不够方便,也就是现有技术中存在着对通信过程的控制不够方便的技术问题,并且也不够直观,导致用户体验度差。
发明内容
本发明实施例提供一种信息处理的方法及电子设备,用于解决现有技术中对通信过程的控制不够方便的技术问题。
根据本发明的第一方面,提供一种信息处理的方法,应用于第一电子设备中,所述方法包括:在所述第一电子设备与第二电子设备进行通信的过程中,获得第一语音数据;基于所述第一语音数据,获得第一控制指令;将所述第一语音数据以及与所述第一控制指令发送至第二电子设备,以使得所述第二电子设备播放所述第一语音数据以及在播放所述第一语音数据的过程中基于所述第一控制指令产生一用于辅助所述第一语音数据的辅助效果。
结合第一方面,在第一种可能的实现方式中,所述基于所述第一语音数据,获得第一控制指令,具体包括:判断是否存在满足第一预设条件的第一操作;在存在所述第一操作时,启动语音识别引擎,基于所述语音识别引擎处理所述第一语音数据,获得所述第一控制指令。
结合第一方面,在第二种可能的实现方式中,所述通信具体为:所述第一电子设备接收来自所述第二电子设备的第二语音数据或/和第二视频数据以及所述第一电子设备发送所述第一语音数据,以使得所述第二电子设备能够接收所述第一语音数据的通信;或
所述通信具体为:所述第一电子设备接收来自所述第二电子设备的第二语音数据或/和第二视频数据以及所述第一电子设备发送所述第一语音数据和第一视频数据,以使得所述第二电子设备能够接收所述第一语音数据和所述第一视频数据的通信。
结合第二种可能的实现方式,在第三种可能的实现方式中,所述辅助效果具体为:基于所述第一控制指令产生呈现第一表情的第一图像和/或体现所述第一表情的第一声音并将所述呈现第一表情的第一图像和/或所述体现所述第一表情的第一声音叠加在所述通信过程中。
结合第三种可能的实现方式,在第四种可能的实现方式中,在所述辅助效果中包括所述呈现第一表情的第一图像时,所述第一控制指令还用于:确定所述呈现第一表情的第一图像的第一显示位置信息,以使所述第二电子设备能够基于所述第一显示位置信息确定所述辅助效果在所述第二电子设备的第二显示单元的第二显示位置信息。
结合第四种可能的实现方式,在第五种可能的实现方式中,所述第一显示位置信息具体为通过如下方式获得的信息:对所述第一视频数据或所述第二视频数据进行分析,以确定第一预设目标体;基于所述第一预设目标体确定所述第一显示位置信息。
结合第四种可能的实现方式,在第六种可能的实现方式中,所述第一显示位置信息具体通过如下方式获得的信息:在所述第一电子设备的第一显示单元的表面存在满足第二预设条件的第二操作时,确定所述第二操作在所述第一显示单元上的第一位置;基于所述第一位置确定所述第一显示位置信息。
结合第六种可能的实现方式,在第七种可能的实现方式中,所述第二操作与所述第一操作为相同的操作。
根据本发明的第二方面,提供一种电子设备,包括:第一获得模块,用于在所述电子设备与第二电子设备进行通信的过程中,获得第一语音数据;第二获得模块,用于基于所述第一语音数据,获得第一控制指令;发送模块,用于将所述第一语音数据以及与所述第一控制指令发送至第二电子设备,以使得所述第二电子设备播放所述第一语音数据以及在播放所述第一语音数据的过程中基于所述第一控制指令产生一用于辅助所述第一语音数据的辅助效果。
结合第二方面,在第一种可能的实现方式中,所述第二获得模块,具体包括:判断单元,用于判断是否存在满足第一预设条件的第一操作;启动单元,用于在存在所述第一操作时,启动语音识别引擎,基于所述语音识别引擎处理所述第一语音数据,获得所述第一控制指令。
结合第二方面,在第二种可能的实现方式中,所述通信具体为:所述电子设备接收来自所述第二电子设备的第二语音数据或/和第二视频数据以及所述电子设备发送所述第一语音数据,以使得所述第二电子设备能够接收所述第一语音数据的通信;或
所述通信具体为:所述电子设备接收来自所述第二电子设备的第二语音数据或/和第二视频数据以及所述电子设备发送所述第一语音数据和第一视频数据,以使得所述第二电子设备能够接收所述第一语音数据和所述第一视频数据的通信。
结合第二种可能的实现方式,在第三种可能的实现方式中,所述辅助效果具体为:基于所述第一控制指令产生呈现第一表情的第一图像和/或体现所述第一表情的第一声音并将所述呈现第一表情的第一图像和/或所述体现所述第一表情的第一声音叠加在所述通信过程中。
结合第三种可能的实现方式,在第四种可能的实现方式中,在所述辅助效果中包括所述呈现第一表情的第一图像时,所述第一控制指令还用于:确定所述呈现第一表情的第一图像的第一显示位置信息,以使所述第二电子设备能够基于所述第一显示位置信息确定所述辅助效果在所述第二电子设备的第二显示单元的第二显示位置信息。
结合第四种可能的实现方式,在第五种可能的实现方式中,所述电子设备还包括:第一确定模块,用于对所述第一视频数据或所述第二视频数据进行分析,以确定第一预设目标体;第二确定模块,用于基于所述第一预设目标体确定所述第一显示位置信息。
结合第四种可能的实现方式,在第六种可能的实现方式中,所述电子设备,还包括:第三确定模块,用于在所述电子设备的第一显示单元的表面存在满足第二预设条件的第二操作时,确定所述第二操作在所述第一显示单元上的第一位置;第四确定模块,用于基于所述第一位置确定所述第一显示位置信息。
结合第六种可能的实现方式,在第七种可能的实现方式中,所述第二操作与所述第一操作为相同的操作。
本发明有益效果如下:
本发明实施例中,在第一电子设备与第二电子设备进行通信的过程中,获得第一语音数据,然后通过第一语音数据获得第一控制指令,进而将该第一控制指令发送至第二电子设备,进而可以在第二电子设备播放该第一语音数据时通过该第一控制指令产生对应的辅助效果,由于不需要检测或者响应其它操作,就能够控制该第二电子设备产生对应的辅助效果,故而达到了对通信过程的控制更加方便的技术效果;并且也更为直观,提高了用户的体验度。
附图说明
图1为本申请实施例信息处理的方法的流程图;
图2为本申请实施例信息处理的方法中获得第一控制指令的流程图;
图3为本申请实施例信息处理的方法中确定第一显示位置信息的第一种方式的流程图;
图4为本申请实施例信息处理的方法中确定第一显示位置信息的第二方式的流程图;
图5a为本申请实施例一中在笔记本电脑A上确定第一显示位置信息的显示界面示意图;
图5b为本申请实施例一中在笔记本电脑B上显示呈现第一表情的第一图像的示意图;
图6a为本申请实施例二中在手机C上确定第一显示位置信息的显示界面示意图;
图6b为本申请实施例二中在手机D上显示第一表情信息的示意图;
图7为本申请实施例中电子设备的结构图。
具体实施方式
为了解决现有技术中所存在的对通信过程的控制不够方便的技术问题,本发明实施例中提供了一种信息处理的方法,具体为:在第一电子设备和第二电子设备进行通信的过程中,获得第一语音数据;基于该第一语音数据,获得第一控制指令;将该第一语音数据以及与该第一控制指令发送至第二电子设备,以使得该第二电子设备播放该第一语音数据以及在播放该第一语音数据的过程中基于该第一控制指令产生一用于辅助该第一语音数据的辅助效果。具体来讲,也就是直接对该第一电子设备的用户所产生的语音聊天内容进行分析,进而产生对应的第一控制指令,而不要检测或者响应其它操作,故而达到了对通信过程控制更加方便的技术效果。
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
一方面,本申请实施例提供一种信息处理的方法,应用于第一电子设备中,该第一电子设备例如为:笔记本电脑、手机、平板电脑等等。
请参考图1,该信息处理的方法包括如下步骤:
步骤S101:在该第一电子设备与第二电子设备进行通信的过程中,获得第一语音数据;
步骤S102:基于该第一语音数据,获得第一控制指令;
步骤S103:将该第一语音数据以及与该第一控制指令发送至第二电子设备,以使得该第二电子设备播放该第一语音数据以及在播放该第一语音数据的过程中基于该第一控制指令产生一用于辅助该第一语音数据的辅助效果。
其中,步骤S101中,该通信可以为多种情况的通信,下面列举其中的几种进行介绍,当然,在具体实施过程中,不限于以下几种情况。
第一种,该通信具体为:该第一电子设备接收来自该第二电子设备的第二语音数据以及该第一电子设备发送该第一语音数据,以使得该第二电子设备能够接收该第一语音数据通信。
也即是:该第一电子设备和该第二电子设备进行的语音通信,比如:语音聊天、语音通话等等。
第二种,该通信具体为:该第一电子设备接收来自该第二电子设备的第二视频数据以及该第一电子设备发送该第一语音数据,以使得该第二电子设备能够接收该第一语音数据通信。
例如:该第一电子设备与该第二电子设备进行视频聊天,而该第一电子设备没有摄像头,该第二电子设备没有麦克风,故而该第一电子设备仅仅向该第二电子设备发送该第一语音数据,而该第二电子设备仅仅向该第一电子设备发送该第二视频数据。
第三种,该第一电子设备接收来自该第二电子设备的第二语音数据和第二视频数据以及该第一电子设备发送该第一语音数据,以使得该第二电子设备能够接收该第一语音数据的通信。
例如:该第二电子设备与该第一电子设备进行视频通话,但是该第一电子设备并无摄像头或者摄像头坏了,故而该第一电子设备可以接收该第二语音数据和该第二视频数据,但是该第一电子设备仅仅向该第二电子设备发送该第一语音数据。
第四种,该通信具体为:该第一电子设备接收来自该第二电子设备的第二语音数据以及该第一电子设备发送该第一语音数据和第一视频数据,以使得该第二电子设备能够接收该第一语音数据和该第一视频数据的通信。
例如:该第一电子设备和该第二电子设备进行视频通话,该第二电子设备并无摄像头,故而该第一电子设备能够发送该第一语音数据和该第一视频数据,但是仅仅能够接收到该第二语音数据。
第五种,该通信具体为:该第一电子设备接收来自该第二电子设备的第二视频数据以及该第一电子设备发送该第一语音数据和第一视频数据,以使得该第二电子设备能够接收该第一语音数据和该第一视频数据的通信。
例如:该第一电子设备和该第二电子设备进行视频聊天,该第二电子设备并无麦克风,故而该第一电子设备能够发送该第一语音数据和该第一视频数据,但是仅仅能够接收到该第二视频数据。
第六种,该通信具体为:该第一电子设备接收来自该第二电子设备的第二语音数据和第二视频数据以及该第一电子设备发送该第一语音数据和第一视频数据,以使得该第二电子设备能够接收该第一语音数据和该第一视频数据的通信。
也即是:该第一电子设备和该第二电子设备进行视频聊天或视频通话,并且该第一电子设备和该第二电子设备的麦克风和摄像头都处于正常工作状态。
其中,步骤S102中,在获得所述第一控制指令时,可以包括如下步骤:
按照一预设规则对所述第一语音数据所包含的用户情绪进行分析,进而获得用于表征所述用户的情绪的所述第一控制指令。
在具体实施过程中,所述预设规则可以为多种预设规则,下面列举其中的三种进行分析,当然,在具体实施过程中,不限于以下三种情况。
第一种,通过所述第一语音数据中的语音进行分析;
具体来讲,也就是对所述第一语音数据的语音进行分析,例如:如果第一语音数据的语音较高则表示用户很激动、语音较慵懒则表示用户很瞌睡等等。
第二种,通过所述第一语音数据中的语调进行分析;
具体来讲,也就是对所述第一语音数据的抑扬顿挫进行分析,例如:如果抑扬顿挫变化明显则表示用户很兴奋、如果抑扬顿挫变化不明显,则表示用户很平和等等。
第三种,通过所述第一语音数据中的语义进行分析。
具体来讲,也就是分析所述第一语音数据所表达的含义,其中可以通过关键词分析的方式确定所述语义,例如:如果分析出关键词中包含“去死吧”则表示用户很愤怒、关键词中出现“哈哈哈”则表示用户很开心等等。
其中,步骤S102中,可以通过多种时机获得该第一控制指令,下面介绍其中的两种获得时机,当然,在具体实施过程中,并不限于以下两种方式。
第一种,请参考图2,具体包括如下步骤:
步骤S201:判断是否存在满足第一预设条件的第一操作;
步骤S202:在存在该第一操作时,启动语音识别引擎,基于该语音识别引擎处理该第一语音数据,获得该第一控制指令。
其中,步骤S201中,该第一操作可以为任意操作,比如:触摸该第一电子设备的第一显示单元的操作、产生一预设手势的操作、点击一预设按钮的操作等等,对于该第一操作为何种操作,本申请实施例不作限制。
其中,步骤S202中,通常情况下,该第一电子设备内置或者外接的语音识别引擎处于关闭状态,而在检测到该第一操作时,则表明使用该第一电子设备的用户希望向第二电子设备发送第一控制指令,进而产生该辅助效果,故而通过该第一电子设备自带或者外接的语音识别引擎对该第一语音数据进行识别,进而产生对应的第一控制指令。
由以上描述可知,由于在本申请实施例中,在启动语音识别引擎对第一语音数据进行识别之前,首先需要确定存在满足第一预设条件的第一操作,也就是在存在一触发操作时才开启语音识别引擎,故而不用时刻开启语音识别引擎,达到了降低电子设备处理器负担以及降低能耗的技术效果。
第二种,每隔一预设时间间隔,对该第一语音数据进行识别。在这种情况下,该第一电子设备内置或者外接的语音识别引擎一直处于开启状态,可以即时对该第一语音数据进行识别,以获得该第一控制指令,其中,该预设时间间隔可以为任意时间间隔,比如:2s、3s、5s等等。
由以上描述可知,由于语音识别引擎时刻处于开启状态,不需要触发操作也可以对第一语音数据进行识别,故而达到了对通信过程的控制更加精确的技术效果。
进一步的,所述启动所述语音识别引擎又可以分为多种情况,下面列举其中的两种进行介绍,当然,在具体实施过程中,不限于以下两种情况。
①控制所述语音识别引擎所对应的应用程序从关闭状态进入开启状态。
具体来讲,也就是所述应用程序处于关闭状态,故而为了能够对所述第一语音数据进行识别,需要控制所述语音识别引擎进入所述开启状态。
②控制所述语音识别引擎所对应的应用程序处于语音识别状态。
具体来讲,也就是所述应用程序一直处于开启状态,但是并未进入语音识别状态,故而这种情况下,启动语音识别引擎就是控制所述应用程序进入语音识别状态。
其中,步骤S103中,该辅助效果可以为多种情况的辅助效果,下面列举其中的三种进行介绍,当然,在具体实施过程中,并不限于以下三种情况。
第一种,该辅助效果具体为:基于该第一控制指令产生呈现第一表情的第一图像并将该呈现第一表情的第一图像叠加在该通信过程中。
具体来讲,也就是该第一控制指令对应有呈现第一表情的第一图像,其中,基于该第一语音数据的不同进而所产生第一控制指令也不同,进而该呈现第一表情的第一图像也不同,例如:该第一语音数据为“去死吧”,对应的呈现第一表情的第一图像为“拳击”;该第一语音数据为“很厉害”,对应的第一表情信息为“竖起大拇指”等等。
在该第一语音数据发送至该第二电子设备,并在该第二电子设备播放时,就可以同时播放该呈现第一表情的第一图像。
第二种,该辅助效果具体为:基于该第一控制指令产生体现所述第一表情的第一声音并将该体现所述第一表情的第一声音叠加在该通信过程中。
具体来讲,也就是该第一控制指令对应有体现所述第一表情的第一声音,其中,基于该第一语音数据的不同,该第一控制指令也不同,进而该体现所述第一表情的第一声音也不同,例如:该第一语音数据为“去死吧”,对应的该体现所述第一表情的第一声音为“嘭”;该第一语音数据为“真厉害”,对应的该体现所述第一表情的第一声音为“鼓掌声”等等。
在该第一语音数据发送至该第二电子设备,并在该第二电子设备播放时,就可以同时播放该体现所述第一表情的第一声音。
第三种,该辅助效果具体为:基于该第一控制指令产生呈现第一表情的第一图像和体现所述第一表情的第一声音并将该呈现第一表情的第一图像和该体现所述第一表情的第一声音叠加在该通信过程中。
具体来讲,也就是该第一控制指令既可以产生该呈现第一表情的第一图像也可以产生该体现所述第一表情的第一声音,然后在将该第一语音数据发送至该第二电子设备并播放该第一语音数据时,可以同时播放该呈现第一表情的第一图像和该体现所述第一表情的第一声音。
在具体实施过程中,在该辅助效果中包括该呈现第一表情的第一图像时,该第一控制指令还用于:确定该呈现第一表情的第一图像的第一显示位置信息,以使该第二电子设备能够基于该第一显示位置信息确定该辅助效果在该第二电子设备的第二显示单元的第二显示位置信息。
在具体实施过程中,假设用户A通过该第一电子设备与用户B通过该第二电子设备进行视频聊天,那么,在第一电子设备的第一显示单元上针对用户A会存在第一聊天窗口,针对用户B会存在第二聊天窗口,而在第二电子设备的第二显示单元表面针对用户A会存在第三聊天窗口,针对用户B会存在第四聊天窗口,第一聊天窗口和第二聊天窗口大小不同,第三聊天窗口和第四聊天窗口大小也不同,例如:第一聊天窗口小于第二聊天窗口,而第三聊天窗口大于第四聊天窗口,故而,该呈现第一表情的第一图像在第一显示单元上的第一显示位置与该呈现第一表情的第一图像在第二显示单元上的第二显示位置并不相同,故而,在确定该第一显示位置信息之后,还需要将其转换为该第二显示位置信息。
由以上描述可知,由于在本申请实施例中,在辅助效果包括基于第一控制指令所产生呈现第一表情的第一图像时,还可以确定该呈现第一表情的第一图像的第一显示位置信息和第二显示位置信息,以使呈现第一表情的第一图像在预先确定的位置进行显示,故而达到了对通信过程的控制更加精确的技术效果。
其中,该第一显示位置信息可以通过多种方式确定,下面介绍其中的三种确定方式,当然,在具体实施过程中,并不限于以下三种方式。
第一种,请参考图3,该第一显示位置信息具体通过如下方式获得:
步骤S301:对所述第一视频数据或所述第二视频数据进行分析,以确定第一预设目标体;
步骤S302:基于该第一预设目标体确定该第一显示位置信息。
其中,步骤S301中,其中,该第一预设目标体可以为任意预设目标体,比如:眼睛所在区域、鼻子所在区域等等;
而步骤S302中,基于该第一预设目标提确定该第一显示位置也可以采用任意确定方式,比如:眼睛所在区域、脸颊所在区域等等;又比如:基于呈现第一表情的第一图像的不同,确定不同的第一显示位置,例如:如果呈现第一表情的第一图像为
“拳击”表情,那么第一显示位置信息为眼睛所在区域;又比如:如果呈现第一表情的第一图像为“竖起大拇指”,那么第一显示位置信息为脸颊所在区域等等。
第二种,请参考图4,该第一显示位置信息具体通过如下方式获得:
步骤S401:在该第一电子设备的第一显示单元的表面存在满足第二预设条件的第二操作时,确定该第二操作在该第一显示单元上的第一位置;
步骤S402:基于该第一位置确定该第一显示位置信息。
其中,步骤S401中,该第二操作可以为多种操作,比如:触摸该第一显示单元的操作、悬空点击该第一显示单元的操作等等,基于该第二操作的不同,该第一位置的确定方式也不同,如果该第二操作为触摸该第一显示单元的操作,那么该第一位置则为用户的手指与该第一显示单元的接触位置;而如果该第二操作为悬空点击该第一显示单元的操作,则该第一位置为用户的手指的延长线与该第一显示单元的相交位置等等。
其中,步骤S402中,基于该第一位置确定该第一显示位置也可以有多种确定方式,例如:将该第一位置确定为该第一显示位置、将该第一位置的临近区域确定为该第一区域等等,本申请实施例不作限制。
进一步的,该第二操作与该第一操作为相同的操作。
具体来讲,也就是步骤S201中需要通过第一操作来触发对第一语音数据的识别操作,而如果该第一操作在该第一显示单元上对应一操作位置,那么,即可以直接通过第一操作来确定第一显示位置信息。
第三种,随机确定该第一显示位置信息,具体来说,也就是通过一个随即算法直接确定第一显示位置信息,而不需要对第一视频数据进行识别、也不需要对第一操作的位置进行确定,故而具有更加方便的技术效果。
由以上描述可知,由于在本申请实施例中,可以通过多种方式确定该第一显示位置信息,例如:通过第二操作所在的第一位置确定、通过对第一视频数据或第二视频数据进行分析进行获得的第一预设目标体确定、随机确定等等,故而达到了对通信过程的控制更加灵活的技术效果。
在具体实施过程中,在基于步骤S102获得所述第一控制指令之后,所述方法还包括:
执行所述第一控制指令,以在所述第一电子设备上产生所述辅助效果。
具体来讲,也就是除了将所述第二控制指令发送至所述第二电子设备,在所述第二电子设备产生所述辅助效果之外,还在所述第一电子设备上显示所述辅助效果,比如:通过所述第一显示单元显示所述呈现第一表情的第一图像、或通过所述第一电子设备的音响播放所述第一声音、或既显示所述呈现第一表情的第一图像又播放所述第一声音等等,对此本发明实施例不作限制。
以下通过几个具体的实施例来介绍本发明中的信息处理的方法,下面的实施例主要介绍了该信息处理的方法的可能实现过程。需要说明的是,本发明中的实施例只用于解释本发明,而不能用于限制本发明。一切符合本发明思想的实施例均在本发明的保护范围之内,本领域技术人员自然知道应该如何根据本发明的思想进行变形。
实施例一
在本申请实施例一中将以该第一电子设备为笔记本电脑A、第二电子设备为笔记本电脑B为例,介绍本申请实施例所介绍的信息处理的方法,其中,笔记本电脑A对应用户A,笔记本电脑B对应用户B。
在T1时刻,用户A与用户B建立相互的视频通信,也就是笔记本电脑A向笔记本电脑B发送第一视频数据和第一视频数据,而笔记本电脑B向笔记本电脑A发送第二视频数据和第二视频数据。
在T2时刻,如图5a所示,用户A通过手指触摸笔记本电脑A的显示屏50上的第一区域51,该笔记本电脑A检测到用户A的触摸操作之后,确定该触摸操作满足第一预设条件,开始启动该笔记本电脑A的语音识别引擎;
该语音识别引擎开始对用户A所产生的第一语音数据进行识别,经过识别确定出如下语音数据“去死吧”,进而确定对应“去死吧”的辅助效果,也就是显示表情图像“拳头”,同时将所述第一区域51确定为表情图像“拳头”所对应的第一显示位置信息52,进而基于该第一显示位置信息52确定该呈现第一表情的第一图像在该笔记本电脑B的显示屏53上的第二显示位置信息54,进而确定出对应的第一控制指令为:在该第二显示单元的第二显示位置信息54显示表情图像“拳头”。
在T3时刻,笔记本电脑A将该第一控制指令发送至该笔记本电脑B;
在T4时刻,该笔记本电脑B接收到该第一控制指令之后,进而在该显示屏B上第一视频数据,并通过麦克风播放该第一音频数据,以及执行该第一控制指令,如图5b所示,进而在该显示屏53的第二显示位置信息54上显示“表情图像”拳头。
实施例二
在本实施中,将以该第一电子设备为手机C、该第二电子设备为手机D为例,介绍本申请实施例所介绍的信息处理的方法,其中,手机C对应用户C,手机D对应用户D。
在T5时刻,用户C与用户D进行视频通话,通过手机C向手机D发送第一语音数据和第一视频数据,同时手机C接收到手机D发送至的第二视频数据和第二声音数据,每隔2s该手机C的语音识别引擎就对该第一语音数据进行识别;
在T6时刻,手机C识别出该第一语音数据中包含“去死吧”的语音数据,进而确定产生对应“去死吧”的呈现第一表情的第一图像和体现所述第一表情的第一声音,也就是产生表情图像“拳头”以及声音“嘭”;然后通过图像识别引擎对第二视频数据进行识别,如图6所示,进而确定出在手机C的显示屏60上用户D的“眼睛”所在位置确定为第一显示位置信息61,然后将其转换为在手机D的显示屏上表情图像“拳头”所显示的第二显示位置信息,进而产生如下的第一控制指令:在第二显示位置信息上显示表情图像“拳头”同时播放声音“嘭”;
在T7时刻,手机C将第一语音数据、第一视频数据以及第一控制指令发送至手机D;
在T8时刻,手机D接收到用户C发送的第一语音数据、第一视频数据以及第一控制指令,进而在手机D的显示单元上播放该第一视频数据、通过手机D的扬声器播放该第一语音数据,同时执行该第一控制指令,进而,如图6b所示,在第一语音数据播放到“去死吧“时,在手机D的显示屏62的第二显示位置信息63上显示表情图像“拳头”,同时播放声音“嘭”。
实施例三
在本实施例中,将以该第一电子设备为手机E、该第二电子设备为手机F为例进行介绍,其中,手机E对用户E,手机F对应用户F。
在T9时刻,用户E与用户F通过微信进行语音聊天;
在T10时刻,用户E轻敲手机E的外壳,该手机E检测到用户E的轻敲操作之后,确定该轻敲操作满足第一预设条件,开始对用户E所产生的语音数据进行识别,进而识别出关键词“去死吧”从识别出与“去死吧”对应的体现所述第一表情的第一声音(假设为“嘭”),进而基于该体现所述第一表情的第一声音确定对应的第一控制指令;
在T11时刻手机E将体现所述第一表情的第一声音和第一语音数据发送至该手机F;
在T12时刻,手机F接收到手机E发送至的该体现所述第一表情的第一声音和该第一语音数据,进而通过该手机F的扬声器播放该该第一语音数据和该体现所述第一表情的第一声音,其中,该用户F除了听到用户E的正常语音信息之外,在听到用户E说“去死吧”时,还听到“嘭”的一声响。
另一方面,基于同一发明构思,本发明另一方面提供一种电子设备,该电子设备即为使用本申请实施例中信息处理的方法所采用的电子设备,也即第一电子设备。
请参考图7,该电子设备具体包括:
第一获得模块70,用于在该电子设备与第二电子设备进行通信的过程中,获得第一语音数据;
第二获得模块71,用于基于该第一语音数据,获得第一控制指令;
发送模块72,用于将该第一语音数据以及与该第一控制指令发送至第二电子设备,以使得该第二电子设备播放该第一语音数据以及在播放该第一语音数据的过程中基于该第一控制指令产生一用于辅助该第一语音数据的辅助效果。
可选的,该第二获得模块,具体包括:
判断单元,用于判断是否存在满足第一预设条件的第一操作;
启动单元,用于在存在该第一操作时,启动语音识别引擎,基于该语音识别引擎处理该第一语音数据,获得该第一控制指令。
可选的,该通信具体为:该电子设备接收来自该第二电子设备的第二语音数据或/和第二视频数据以及该电子设备发送该第一语音数据,以使得该第二电子设备能够接收该第一语音数据的通信;或
该通信具体为:该电子设备接收来自该第二电子设备的第二语音数据或/和第二视频数据以及该电子设备发送该第一语音数据和第一视频数据,以使得该第二电子设备能够接收该第一语音数据和该第一视频数据的通信。
可选的,该辅助效果具体为:基于该第一控制指令产生呈现第一表情的第一图像和/或体现所述第一表情的第一声音并将该呈现第一表情的第一图像和/或该体现所述第一表情的第一声音叠加在该通信过程中。
可选的,在该辅助效果中包括该呈现第一表情的第一图像时,该第一控制指令还用于:确定该呈现第一表情的第一图像的第一显示位置信息,以使该第二电子设备能够基于该第一显示位置信息确定该辅助效果在该第二电子设备的第二显示单元的第二显示位置信息。
可选的,该电子设备还包括:
第一确定模块,用于对该视频通信所对应的视频数据进行分析,以确定第一预设目标体;
第二确定模块,用于基于该第一预设目标体确定该第一显示位置信息。
可选的,该电子设备,还包括:
第三确定模块,用于在该电子设备的第一显示单元的表面存在满足第二预设条件的第二操作时,确定该第二操作在该第一显示单元上的第一位置;
第四确定模块,用于基于该第一位置确定该第一显示位置信息。
可选的,该第二操作与该第一操作为相同的操作。
由于上述电子设备为实施本发明实施例所介绍信息处理的方法所采用的电子设备,故而基于本发明实施例所介绍的信息处理的方法,本领域所属技术人员能够了解本发明实施例所介绍的电子设备具体结构及变形,故而在此不再详细介绍。
本申请提供的一个或多个技术方案,至少具有如下技术效果或优点:
(1)由于在本申请实施例中,在第一电子设备与第二电子设备进行通信的过程中,获得第一语音数据,然后通过第一语音数据获得第一控制指令,进而将该第一控制指令发送至第二电子设备,进而可以在第二电子设备播放该第一语音数据时通过该第一控制指令产生对应的辅助效果,由于不需要检测或者响应其它操作,就能够控制该第二电子设备产生对应的辅助效果,故而达到了对通信过程的控制更加方便的技术效果;并且也更为直观,提高了用户的体验度。
(2)由于在本申请实施例中,在启动语音识别引擎对第一语音数据进行识别之前,首先需要确定存在满足第一预设条件的第一操作,也就是在存在一触发操作时才开启语音识别引擎,故而不用时刻开启语音识别引擎,达到了降低电子设备处理器负担以及降低能耗的技术效果。
(3)由于在本申请实施例中,在辅助效果包括基于第一控制指令所产生呈现第一表情的第一图像时,还可以确定该呈现第一表情的第一图像的第一显示位置信息和第二显示位置信息,以使呈现第一表情的第一图像在预先确定的位置进行显示,故而达到了对通信过程的控制更加精确的技术效果。
(4)由于在本申请实施例中,可以通过多种方式确定该第一显示位置信息,例如:通过第二操作所在的第一位置确定、通过对第一视频数据或第二视频数据进行分析进行获得的第一预设目标体确定、随机确定等等,故而达到了对通信过程的控制更加灵活的技术效果。
本领域的技术人员应明白,本发明的实施例可提供为方法、装置(设备)、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、装置(设备)和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明进行各种改动和变型而不脱离本发明的精神和范围。这样,倘若本发明的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。
Claims (14)
1.一种信息处理的方法,应用于第一电子设备中,其特征在于,所述方法包括:
在所述第一电子设备与第二电子设备进行通信的过程中,获得第一语音数据;
基于所述第一语音数据,获得第一控制指令;
将所述第一语音数据以及与所述第一控制指令发送至第二电子设备,以使得所述第二电子设备播放所述第一语音数据以及在播放所述第一语音数据的过程中基于所述第一控制指令产生一用于辅助所述第一语音数据的辅助效果;
其中,所述基于所述第一语音数据,获得第一控制指令,具体包括:
判断是否存在满足第一预设条件的第一操作;
在存在所述第一操作时,启动语音识别引擎,基于所述语音识别引擎处理所述第一语音数据,获得所述第一控制指令。
2.如权利要求1所述的方法,其特征在于,所述通信具体为:所述第一电子设备接收来自所述第二电子设备的第二语音数据或/和第二视频数据以及所述第一电子设备发送所述第一语音数据,以使得所述第二电子设备能够接收所述第一语音数据的通信;或
所述通信具体为:所述第一电子设备接收来自所述第二电子设备的第二语音数据或/和第二视频数据以及所述第一电子设备发送所述第一语音数据和第一视频数据,以使得所述第二电子设备能够接收所述第一语音数据和所述第一视频数据的通信。
3.如权利要求2所述的方法,其特征在于,所述辅助效果具体为:基于所述第一控制指令产生呈现第一表情的第一图像和/或体现所述第一表情的第一声音并将所述呈现第一表情的第一图像和/或所述体现所述第一表情的第一声音叠加在所述通信过程中。
4.如权利要求3所述的方法,其特征在于,在所述辅助效果中包括所述呈现第一表情的第一图像时,所述第一控制指令还用于:确定所述呈现第一表情的第一图像的第一显示位置信息,以使所述第二电子设备能够基于所述第一显示位置信息确定所述辅助效果在所述第二电子设备的第二显示单元的第二显示位置信息。
5.如权利要求4所述的方法,其特征在于,所述第一显示位置信息具体为通过如下方式获得的信息:
对所述第一视频数据或所述第二视频数据进行分析,以确定第一预设目标体;
基于所述第一预设目标体确定所述第一显示位置信息。
6.如权利要求4所述的方法,其特征在于,所述第一显示位置信息具体通过如下方式获得的信息:
在所述第一电子设备的第一显示单元的表面存在满足第二预设条件的第二操作时,确定所述第二操作在所述第一显示单元上的第一位置;
基于所述第一位置确定所述第一显示位置信息。
7.如权利要求6所述的方法,其特征在于,所述第二操作与所述第一操作为相同的操作。
8.一种电子设备,其特征在于,包括:
第一获得模块,用于在所述电子设备与第二电子设备进行通信的过程中,获得第一语音数据;
第二获得模块,用于基于所述第一语音数据,获得第一控制指令;
发送模块,用于将所述第一语音数据以及与所述第一控制指令发送至第二电子设备,以使得所述第二电子设备播放所述第一语音数据以及在播放所述第一语音数据的过程中基于所述第一控制指令产生一用于辅助所述第一语音数据的辅助效果;
其中,所述第二获得模块,具体包括:
判断单元,用于判断是否存在满足第一预设条件的第一操作;
启动单元,用于在存在所述第一操作时,启动语音识别引擎,基于所述语音识别引擎处理所述第一语音数据,获得所述第一控制指令。
9.如权利要求8所述的电子设备,其特征在于,所述通信具体为:所述电子设备接收来自所述第二电子设备的第二语音数据或/和第二视频数据以及所述电子设备发送所述第一语音数据,以使得所述第二电子设备能够接收所述第一语音数据的通信;或
所述通信具体为:所述电子设备接收来自所述第二电子设备的第二语音数据或/和第二视频数据以及所述电子设备发送所述第一语音数据和第一视频数据,以使得所述第二电子设备能够接收所述第一语音数据和所述第一视频数据的通信。
10.如权利要求9所述的电子设备,其特征在于,所述辅助效果具体为:基于所述第一控制指令产生呈现第一表情的第一图像和/或体现所述第一表情的第一声音并将所述呈现第一表情的第一图像和/或所述体现所述第一表情的第一声音叠加在所述通信过程中。
11.如权利要求10所述的电子设备,其特征在于,在所述辅助效果中包括所述呈现第一表情的第一图像时,所述第一控制指令还用于:确定所述呈现第一表情的第一图像的第一显示位置信息,以使所述第二电子设备能够基于所述第一显示位置信息确定所述辅助效果在所述第二电子设备的第二显示单元的第二显示位置信息。
12.如权利要求11所述的电子设备,其特征在于,所述电子设备还包括:
第一确定模块,用于对所述第一视频数据或所述第二视频数据进行分析,以确定第一预设目标体;
第二确定模块,用于基于所述第一预设目标体确定所述第一显示位置信息。
13.如权利要求11所述的电子设备,其特征在于,所述电子设备,还包括:
第三确定模块,用于在所述电子设备的第一显示单元的表面存在满足第二预设条件的第二操作时,确定所述第二操作在所述第一显示单元上的第一位置;
第四确定模块,用于基于所述第一位置确定所述第一显示位置信息。
14.如权利要求13所述的电子设备,其特征在于,所述第二操作与所述第一操作为相同的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310268641.0A CN104252226B (zh) | 2013-06-28 | 2013-06-28 | 一种信息处理的方法及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310268641.0A CN104252226B (zh) | 2013-06-28 | 2013-06-28 | 一种信息处理的方法及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104252226A CN104252226A (zh) | 2014-12-31 |
CN104252226B true CN104252226B (zh) | 2017-11-07 |
Family
ID=52187219
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310268641.0A Active CN104252226B (zh) | 2013-06-28 | 2013-06-28 | 一种信息处理的方法及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104252226B (zh) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104703043A (zh) * | 2015-03-26 | 2015-06-10 | 努比亚技术有限公司 | 一种添加视频特效的方法和装置 |
CN104780338A (zh) * | 2015-04-16 | 2015-07-15 | 美国掌赢信息科技有限公司 | 一种即时视频中的表情特效动画加载方法和电子设备 |
CN104780459A (zh) * | 2015-04-16 | 2015-07-15 | 美国掌赢信息科技有限公司 | 一种即时视频中的特效加载方法和电子设备 |
CN105929941B (zh) * | 2016-04-13 | 2021-02-05 | Oppo广东移动通信有限公司 | 信息处理方法、装置和终端设备 |
CN107318054A (zh) * | 2016-04-26 | 2017-11-03 | 富泰华工业(深圳)有限公司 | 影音自动处理系统及方法 |
CN105872838A (zh) * | 2016-04-28 | 2016-08-17 | 徐文波 | 即时视频的媒体特效发送方法和装置 |
CN107623830B (zh) * | 2016-07-15 | 2019-03-15 | 掌赢信息科技(上海)有限公司 | 一种视频通话方法及电子设备 |
CN106601231A (zh) * | 2016-12-22 | 2017-04-26 | 深圳市元征科技股份有限公司 | 车辆控制方法和装置 |
CN106888158B (zh) * | 2017-02-28 | 2020-07-03 | 天翼爱动漫文化传媒有限公司 | 一种即时通信方法和装置 |
CN109243443B (zh) * | 2018-09-28 | 2022-05-31 | 联想(北京)有限公司 | 语音控制方法、装置及电子设备 |
CN110187862A (zh) * | 2019-05-29 | 2019-08-30 | 北京达佳互联信息技术有限公司 | 语音消息显示方法、装置、终端及存储介质 |
CN113726936B (zh) * | 2021-08-30 | 2023-10-24 | 联想(北京)有限公司 | 一种音频数据处理方法及装置 |
CN115604213A (zh) * | 2022-09-30 | 2023-01-13 | 维沃移动通信有限公司(Cn) | 交互方法、装置、电子设备 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1427626A (zh) * | 2001-12-20 | 2003-07-02 | 松下电器产业株式会社 | 虚拟电视通话装置 |
CN1532775A (zh) * | 2003-03-19 | 2004-09-29 | ���µ�����ҵ��ʽ���� | 可视电话终端 |
CN101073247A (zh) * | 2004-11-09 | 2007-11-14 | 索尼爱立信移动通讯股份有限公司 | 用于响应于所提供的情绪数据来提供与呼叫关联的容貌图像的方法和设备 |
CN101175264A (zh) * | 2006-10-31 | 2008-05-07 | 上海晨兴电子科技有限公司 | 一种可视通信的装置 |
CN101893964A (zh) * | 2010-07-21 | 2010-11-24 | 中兴通讯股份有限公司 | 移动终端远程控制方法及移动终端 |
CN102087854A (zh) * | 2009-12-08 | 2011-06-08 | 康佳集团股份有限公司 | 手机智能提醒装置、方法及智能提醒手机 |
CN102170617A (zh) * | 2011-04-07 | 2011-08-31 | 中兴通讯股份有限公司 | 移动终端及其远程控制方法 |
CN102752442A (zh) * | 2011-04-21 | 2012-10-24 | 英业达股份有限公司 | 手持通信装置及其通信方法 |
CN102810316A (zh) * | 2012-06-29 | 2012-12-05 | 宇龙计算机通信科技(深圳)有限公司 | 通话中加入背景音的方法及通信终端 |
-
2013
- 2013-06-28 CN CN201310268641.0A patent/CN104252226B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1427626A (zh) * | 2001-12-20 | 2003-07-02 | 松下电器产业株式会社 | 虚拟电视通话装置 |
CN1532775A (zh) * | 2003-03-19 | 2004-09-29 | ���µ�����ҵ��ʽ���� | 可视电话终端 |
CN101073247A (zh) * | 2004-11-09 | 2007-11-14 | 索尼爱立信移动通讯股份有限公司 | 用于响应于所提供的情绪数据来提供与呼叫关联的容貌图像的方法和设备 |
CN101175264A (zh) * | 2006-10-31 | 2008-05-07 | 上海晨兴电子科技有限公司 | 一种可视通信的装置 |
CN102087854A (zh) * | 2009-12-08 | 2011-06-08 | 康佳集团股份有限公司 | 手机智能提醒装置、方法及智能提醒手机 |
CN101893964A (zh) * | 2010-07-21 | 2010-11-24 | 中兴通讯股份有限公司 | 移动终端远程控制方法及移动终端 |
CN102170617A (zh) * | 2011-04-07 | 2011-08-31 | 中兴通讯股份有限公司 | 移动终端及其远程控制方法 |
CN102752442A (zh) * | 2011-04-21 | 2012-10-24 | 英业达股份有限公司 | 手持通信装置及其通信方法 |
CN102810316A (zh) * | 2012-06-29 | 2012-12-05 | 宇龙计算机通信科技(深圳)有限公司 | 通话中加入背景音的方法及通信终端 |
Also Published As
Publication number | Publication date |
---|---|
CN104252226A (zh) | 2014-12-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104252226B (zh) | 一种信息处理的方法及电子设备 | |
CN110288077B (zh) | 一种基于人工智能的合成说话表情的方法和相关装置 | |
WO2021036644A1 (zh) | 一种基于人工智能的语音驱动动画方法和装置 | |
CN103529934B (zh) | 用于处理多个输入的方法和装置 | |
CN112099628A (zh) | 基于人工智能的vr互动方法、装置、计算机设备及介质 | |
US20130211826A1 (en) | Audio Signals as Buffered Streams of Audio Signals and Metadata | |
CN107896273A (zh) | 一种终端进程管理方法、终端及计算机可读存储介质 | |
KR20100062207A (ko) | 화상통화 중 애니메이션 효과 제공 방법 및 장치 | |
CN107919138B (zh) | 一种语音中的情绪处理方法及移动终端 | |
CN103430217A (zh) | 输入支持装置、输入支持方法及记录介质 | |
CN104898821B (zh) | 一种信息处理的方法及电子设备 | |
CN110830368B (zh) | 即时通讯消息发送方法及电子设备 | |
CN110568926B (zh) | 一种声音信号处理方法及终端设备 | |
CN104052886B (zh) | 一种信息处理方法及电子设备 | |
CN108073572A (zh) | 信息处理方法及其装置、同声翻译系统 | |
CN109360549A (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN110808019A (zh) | 一种歌曲生成方法及电子设备 | |
CN108874363A (zh) | 用于ar场景的对象控制方法、装置、设备及存储介质 | |
CN110390953A (zh) | 啸叫语音信号的检测方法、装置、终端及存储介质 | |
CN114360527A (zh) | 车载语音交互方法、装置、设备及存储介质 | |
CN106921802B (zh) | 音频数据的播放方法及装置 | |
CN108364635A (zh) | 一种语音识别的方法和装置 | |
CN110798327A (zh) | 消息处理方法、设备及存储介质 | |
CN110111795B (zh) | 一种语音处理方法及终端设备 | |
CN108922523B (zh) | 位置提示方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |