CN105227765A - 通话过程中的互动方法及系统 - Google Patents

通话过程中的互动方法及系统 Download PDF

Info

Publication number
CN105227765A
CN105227765A CN201510571159.3A CN201510571159A CN105227765A CN 105227765 A CN105227765 A CN 105227765A CN 201510571159 A CN201510571159 A CN 201510571159A CN 105227765 A CN105227765 A CN 105227765A
Authority
CN
China
Prior art keywords
local terminal
mobile device
information
wearable device
receiving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510571159.3A
Other languages
English (en)
Other versions
CN105227765B (zh
Inventor
陈方园
张国梁
亓向国
王治
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Samsung Electronics China R&D Center
Samsung Electronics Co Ltd
Original Assignee
Samsung Electronics China R&D Center
Samsung Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Samsung Electronics China R&D Center, Samsung Electronics Co Ltd filed Critical Samsung Electronics China R&D Center
Priority to CN201510571159.3A priority Critical patent/CN105227765B/zh
Publication of CN105227765A publication Critical patent/CN105227765A/zh
Application granted granted Critical
Publication of CN105227765B publication Critical patent/CN105227765B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请公开了一种通话过程中的互动方法及系统,其中,该方法包括:在本端移动设备进行通话的过程中,本端可穿戴设备获取用户的肢体动作信息,并将获取到的肢体动作信息发送给本端移动设备;在接收到本端可穿戴设备发来的肢体动作信息之后,本端移动设备对该肢体动作信息进行动作识别,将识别结果所表示的含义信息发送给通话的对端移动设备;在接收到来自对端移动设备的含义信息之后,本端移动设备转发接收到的含义信息给本端可穿戴设备;本端可穿戴设备在接收到本端移动设备发来的含义信息之后,显示接收到的含义信息。本申请解决了目前通话中双方交互不够充分的问题,改善了通话的交互体验,能很好地满足用户交流的需求。

Description

通话过程中的互动方法及系统
技术领域
本申请涉及移动通信技术领域,特别涉及一种通话过程中的互动方法及系统。
背景技术
随着通信技术的不断发展,手机、平板电脑等移动设备日益普及,并且功能也日趋智能化和个性化。人们除了可以使用移动设备进行正常的通话、收发短信以外,还可以使用这些移动设备观看多媒体文件、上网、办公、安排日程等。
目前,人们不仅可以使用移动设备随时随地的进行语音通话,还可以进行视频通话,使得人与人之间的交流联系愈来愈方便。但是,用户在通话过程中可能会遇到一些无法或者不愿意直接用语言表达的事情,此时,现有技术的语音通话的互动方法就无法满足人们沟通的需要。
发明内容
有鉴于此,本申请提供了一种通话过程中的互动方法及系统。
本申请的技术方案如下:
一方面,提供了一种通话过程中的互动方法,包括:
在本端移动设备进行通话的过程中,本端可穿戴设备获取用户的肢体动作信息,并将获取到的肢体动作信息发送给本端移动设备;
在接收到本端可穿戴设备发来的肢体动作信息之后,本端移动设备对该肢体动作信息进行动作识别,将识别结果所表示的含义信息发送给通话的对端移动设备;
在接收到来自对端移动设备的含义信息之后,本端移动设备转发接收到的含义信息给本端可穿戴设备;
本端可穿戴设备在接收到本端移动设备发来的含义信息之后,显示接收到的含义信息。
其中,肢体动作信息是手部动作信息和/或脚部动作信息,含义信息以文字和/或图片形式表示。
其中,通话过程中的互动方法还包括:在接收到对端移动设备发来的通话语音之后,本端移动设备对接收到的通话语音进行语音情绪识别;若本次识别出的情绪信息与上一次识别出的情绪信息不同,则本端移动设备将本次识别出的情绪信息发送给本端可穿戴设备;本端可穿戴设备在接收到本端移动设备发来的情绪信息之后,输出接收到的情绪信息。
其中,情绪信息以文字和/或图片和/或震动形式表示,其中,震动形式包括:震动点数、震动图形、震动次数和震动间隔。
其中,在接收到对端移动设备发来的通话语音之后,还包括:本端移动设备识别接收到的通话语音中出现的关键字;本端移动设备将识别出的关键字发送给本端可穿戴设备;本端可穿戴设备在接收到本端移动设备发来的关键字之后,输出接收到的关键字。
其中,关键字以文字和/或图片和/或音乐形式表示。
其中,通话过程中的互动方法还包括:本端移动设备根据用户的设定,记录关键字及其对应的多媒体信息,其中,多媒体信息是文字和/或图片和/或音乐;本端移动设备对本端用户的通话语音进行识别,当识别出一关键字时,将与识别出的关键字对应的多媒体信息发送给对端移动设备;本端移动设备接收到对端移动设备发来的多媒体信息之后,转发接收到的多媒体信息给本端可穿戴设备;本端可穿戴设备在接收到本端移动设备发来的多媒体信息之后,输出接收到的多媒体信息。
另一方面,还提供了一种通话过程中的互动系统,包括:本端移动设备和本端可穿戴设备,其中:
本端可穿戴设备,用于在本端移动设备进行通话的过程中,获取用户的肢体动作信息,并将获取到的肢体动作信息发送给本端移动设备;还用于在接收到本端移动设备发来的含义信息之后,显示接收到的含义信息;
本端移动设备,用于在接收到本端可穿戴设备发来的肢体动作信息之后,对该肢体动作信息进行动作识别,将识别结果所表示的含义信息发送给通话的对端移动设备;还用于在接收到来自对端移动设备的含义信息之后,转发接收到的含义信息给本端可穿戴设备。
其中,肢体动作信息是手部动作信息和/或脚部动作信息,含义信息以文字和/或图片形式表示。
其中,本端移动设备,还用于在接收到对端移动设备发来的通话语音之后,对接收到的通话语音进行语音情绪识别,若本次识别出的情绪信息与上一次识别出的情绪信息不同,则将本次识别出的情绪信息发送给本端可穿戴设备;本端可穿戴设备,还用于在接收到本端移动设备发来的情绪信息之后,输出接收到的情绪信息。
其中,情绪信息以文字和/或图片和/或震动形式表示,其中,震动形式包括:震动点数、震动图形、震动次数和震动间隔。
其中,本端移动设备,还用于在接收到对端移动设备发来的通话语音之后,识别接收到的通话语音中出现的关键字,将识别出的关键字发送给本端可穿戴设备;本端可穿戴设备,还用于在接收到本端移动设备发来的关键字之后,输出接收到的关键字。
其中,关键字以文字和/或图片和/或音乐形式表示。
其中,本端移动设备,还用于根据用户的设定,记录关键字及其对应的多媒体信息,其中,多媒体信息是文字和/或图片和/或音乐;还用于对本端用户的通话语音进行识别,当识别出一关键字时,将与识别出的关键字对应的多媒体信息发送给对端移动设备;还用于在接收到对端移动设备发来的多媒体信息之后,转发接收到的多媒体信息给本端可穿戴设备;本端可穿戴设备,还用于在接收到本端移动设备发来的多媒体信息之后,输出接收到的多媒体信息。
本申请的以上技术方案中,用户在使用移动设备进行通话的过程中,可以使用本端可穿戴设备对用户的肢体动作信息进行获取,将获取到的肢体动作信息发送给本端移动设备进行识别,本端移动设备将识别结果所表示的含义信息发送给通话的对端移动设备,再由对端移动设备发送给对端可穿戴设备进行显示,从而,一方用户可以通过肢体动作将自己想要表达的意思传送给对方用户,解决了目前通话中双方交互不够充分的问题,改善了通话的交互体验,能很好地满足用户交流的需求。
附图说明
图1是本申请实施例的通过识别肢体动作进行互动的方法的流程图;
图2是本申请实施例的通过识别通话语音的情绪进行互动的方法的流程图;
图3是本申请实施例的可穿戴设备上的4个震动点的分布示意图;
图4是本申请实施例的通过识别对端通话语音中的关键字进行互动的方法的流程图;
图5是本申请实施例的通过识别本端通话语音中的关键字进行互动的方法的流程图;
图6是本申请实施例的通话过程中的互动系统的示意图。
具体实施方式
用户在使用移动设备进行通话的过程中,可能会遇到一些无法或者不愿意直接用语言表达的事情,此时,现有技术的语音通话的互动方法就无法满足人们沟通的需要。为了解决现有技术中存在的上述问题,本申请以下实施例中提供了一种通话过程中的互动方法,以及一种可以应用该方法的系统。
本申请以下实施例中的移动设备可以是手机、平板电脑等具有通话功能的移动设备,可穿戴设备可以带在用户的手腕、手指、指甲、脚腕、脖子等部位。
本申请实施例的通话过程中的互动方法包括以下内容:
在通话的任意一方,移动设备与可穿戴设备先进行配对连接,例如,通过蓝牙、WIFI(无线高保真)、超声波技术等进行配对连接。之后,双方的移动设备进行通话。双方用户可以在使用移动设备进行通话的过程中进行本申请以下实施例的交互过程。
以下为了描述方便,将通话一方的移动设备和可穿戴设备命名为第一移动设备和第一可穿戴设备,将另一方的移动设备和可穿戴设备命名为第二移动设备和第二可穿戴设备。
1、肢体动作的互动
如图1所示,本申请实施例的通过识别肢体动作进行互动的方法包括以下步骤:
步骤S102,在第一移动设备与第二移动设备进行通话的过程中,第一可穿戴设备获取用户的肢体动作信息,并将获取到的肢体动作信息发送给第一移动设备;
用户可以预先在可穿戴设备上设置是否在通话过程中将自己的肢体动作信息发送给对方用户,则,可穿戴设备会根据用户的设置,将获取用户肢体动作信息功能的状态设置成on(开启)状态或者off(关闭)状态,如表1所示,如果设置成on状态,则在通话过程中可穿戴设备就会获取用户的肢体动作信息,并将获取到的肢体动作信息发送给移动设备,如果设置成off状态,则不会获取用户的肢体动作信息。
表1
其中,肢体动作信息是手部动作信息和/或脚部动作信息。
在步骤S102中,第一可穿戴设备可通过加速度计或陀螺仪收集用户的肢体动作信息,如握拳、摇手、OK、捶打、竖大拇指等手部动作信息,然后,通过滑动窗口法及能量法截取出用户动作的有效数据段,并将该动作数据段发送给第一移动设备。
步骤S104,在接收到第一可穿戴设备发来的肢体动作信息之后,第一移动设备对接收到的肢体动作信息进行动作识别,将识别结果所表示的含义信息发送给第二移动设备;
用户可以预先在移动设备上设置含义信息的表现形式(或显示形式),这样,移动设备会根据用户的设置,将肢体动作所表示的含义信息的表现形式设定成如表2所示。如表2所示,用户可以将含义信息的表现形式设定成文字和/或图片。
表2
表现形式 文字和/或图片
在设置了含义信息的表现形式之后,用户还可以在移动设备上设置不同肢体动作对应的含义信息,这样,移动设备会根据用户的设置建立肢体动作与含义信息的对应关系表并保存。例如,该对应关系表可以如表3所示:
表3
肢体动作 表示含义
握拳 ‘I love you’和/或相关图片
OK ‘高兴或同意’和/或相关图片
摇手 ‘不高兴或不情愿’和/或相关图片
竖大拇指 ‘你真棒’和/或相关图片
捶打 ‘愤怒’和/或相关图片
连续的弹钢琴动作 连续含义的文字和/或相关多张图片
在实际实施过程中,用户可根据自身需要设置不同肢体动作所表达的含义。当用户设置了含义信息的表现形式是文字时,在自定义该对应关系表时,不同肢体动作所表达的含义信息就只能用文字表示;当用户设置了含义信息的表现形式是图片时,在自定义该对应关系表时,不同肢体动作所表达的含义信息就只能用图片表示;当用户设置了含义信息的表现形式是文字和图片时,在自定义该对应关系表时,不同肢体动作所表达的含义信息可以用文字和/或图片表示。具体的,当含义信息用图片表示时,在该对应关系表中保存的是该图片的存储地址。另外,用户也可以不进行设置,而直接使用移动设备中自带的对应关系表。
这样,在步骤S104中,第一移动设备对接收到的肢体动作信息进行动作识别,如果识别出的肢体动作是如表3中所示的特定动作,则在表3所示的对应关系表中查找到与识别出的肢体动作对应的含义信息,将查找到的含义信息通过网络发送给第二移动设备;如果识别出的肢体动作不是如表3中所示的特定动作,而是写字或画图等连续性的动态动作,则识别写字内容或画图内容,将识别出的写字内容或画图内容通过网络发送给第二移动设备。
步骤S106,在接收到第一移动设备发来的含义信息之后,第二移动设备转发接收到的含义信息给第二可穿戴设备;
步骤S108,第二可穿戴设备在接收到第二移动设备发来的含义信息之后,显示接收到的含义信息。
另外,用户还可以设置是否进行来信提醒,则,根据用户设置,第一可穿戴设备可以设定来信提醒功能的状态,如果设定为on状态,则在收到含义信息(以文字和/或图片形式表示的含义信息)之后,第一可穿戴设备会进行来信提醒,如果设定成Off状态,则不会进行提醒。另外,用户还可以设置来信提醒的形式,例如,音乐或者震动形式,具体的,如果设置成音乐形式,则还可以设置使用的音乐的名称、播放时长和播放间隔等;如果设置成震动形式,则还可以设置震动类型、震动时长和震动间隔等。这样,第一可穿戴设备在收到含义信息之后,会根据用户设置通过音乐或者震动的形式进行来信提醒。
在实际实施过程中,当含义信息的内容较大时,会将一个完整的信息分成多个进行处理,例如,当一个含义信息的内容较大时,移动设备将该含义信息分成连续的多个部分,第一部分的开始以START进行标记,最后一个部分以END进行标记,然后,每一个部分以消息的形式发送给可穿戴设备。这样,有的含义信息会作为一个独立消息发送(一个独立消息即携带一个含义信息),而有的含义信息会作为连续的消息发送(连续消息中的每一个消息携带一个含义信息的一部分)。
此时,对于消息冲突的处理为:如果在显示消息1时接收到了消息2,则将消息2进行缓存,并判断消息2是独立消息还是连续消息,若消息2是独立消息,那么,如果在缓存消息2的过程中未收到其它消息,则在消息1显示完毕后显示消息2;如果在缓存消息2的过程中又接收到了消息3,则删除消息2,对消息3进行缓存,并判断消息3是独立消息还是连续消息,后续处理同消息2;若消息2是连续消息,那么,继续缓存消息2所属连续消息(称为连续消息1)中的其它消息,直到连续消息1全部缓存完毕,若在连续消息1全部缓存完毕之前又接收到了消息3,删除已经缓存的连续消息1,并将消息3缓存并等待显示。用户可以点击新消息提示icon(提示)手动随时手动加载消息。
其中,判断一个消息是独立消息还是连续消息的方法是:如果该消息的开始有START标记,结尾有END标记,则说明该消息是独立消息;如果该消息中只有START标记或END标记,或者该消息中既没有START标记也没有END标记,则说明该消息是连续消息。
2、语音情绪的互动
如图2所示,本申请实施例的通过识别通话语音的情绪进行互动的方法包括:
步骤S202,第一移动设备接收第二移动设备发来的通话语音;
步骤S204,第一移动设备对接收到的通话语音进行语音情绪识别;
用户可以预先在移动设备上设置是否需要对通话语音进行语音情绪识别,这样,移动设备会根据用户的设置,将语音情绪识别功能的状态设置成on状态或者off状态,如表4所示,如果设置成on状态,则会在通话过程中对接收到的通话语音进行语音情绪识别,如果设置成off状态,则不会进行语音情绪识别。
表4
在步骤S204中,可以根据特定算法识别出包含在通话语音中的情绪。如,通过语调、语速、停顿时间和声音力度等,识别出说话人的情绪。例如,可以将情绪信息分为喜、怒、惊、悲,如表5所示。
表5
步骤S204,第一移动设备判断本次识别出的情绪信息与上一次识别出的情绪信息是否相同,若是,则返回步骤S202,否则,执行步骤S206;
步骤206,第一移动设备将本次识别出的情绪信息发送给第一可穿戴设备;
用户可以预先在移动设备上设置情绪信息的表现形式(或输出形式),这样,移动设备会根据用户的设置,将情绪信息的表现形式设定成如表6所示。如表6所示,用户将情绪信息的表现形式设定成图片、文字、震动中的任意一种或多种的组合。如果设置成文字,情绪信息最终就会以文字形式显示,如果设置成图片,情绪信息最终就会以图片形式显示,如果设置成震动,情绪信息最终就会以震动形式输出和显示。
表6
其中,震动形式中包括:震动点数、震动图形、震动次数和震动间隔。假设,可穿戴设备上共设置了4个震动点,如图3所示,此时:
当震动点数为1时,震动图形可以是震动点1、2、3、4中的任一点震动;
当震动点数为2时,震动图形可以是震动点1、2、3、4中任意两个点震动,例如,1→2,或2→4、或2→3、或4→1等;
当震动点数为3时,震动图形可以是震动点1、2、3、4中任意三个点震动,例如,1→2→3、或2→3→4、或1→3→2、或1→4→3等;
当震动点数为4时,震动图形可以是震动点1、2、3、4中任意四个点震动,例如,1→2→3→4、或1→3→2→4、或1→4→3→2等;
震动次数可以是M次,即,一共震动M次停止震动;
震动间隔,可以是S毫秒,即,两次震动之间的间隔时间是S毫秒。
这样,用户在设定好情绪信息的表现形式之后,就可以设置不同情绪信息对应的具体表现形式,例如,如表7所示。
表7
在步骤S206中,第一移动设备从表7所示的对应关系表中查找到与本次识别出的情绪信息对应的具体表现内容,将该具体表现内容发送给第一可穿戴设备。
步骤S208,第一可穿戴设备输出接收到的情绪信息。
在步骤S208中,如果收到的是图片,则第一可穿戴设备显示该图片,如果收到的是文字,则第一可穿戴设备显示该文字,如果收到的是震动形式,则第一可穿戴设备按照该震动形式进行震动。
另外,用户还可以设置是否进行来信提醒,则,根据用户设置,第一可穿戴设备可以设定来信提醒功能的状态,如果设定为on状态,则在收到情绪信息(以文字和/或图片和/或震动形式表示的情绪信息)之后,第一可穿戴设备会进行来信提醒,如果设定成Off状态,则不会进行提醒。另外,用户还可以设置来信提醒的形式,例如,音乐或者震动形式,具体的,如果设置成音乐形式,则还可以设置使用的音乐的名称、播放时长和播放间隔等;如果设置成震动形式,则还可以设置震动类型、震动时长和震动间隔等。这样,第一可穿戴设备在收到情绪信息之后,会根据用户设置通过音乐或者震动的形式进行来信提醒。
在实际实施过程中,当情绪信息的内容较大时,会将一个完整的信息分成多个进行处理,例如,当一个情绪信息的内容较大时,移动设备将该情绪信息分成连续的多个部分,第一部分的开始以START进行标记,最后一个部分以END进行标记,然后,每一个部分以消息的形式发送给可穿戴设备。这样,有的情绪信息会作为一个独立消息发送(一个独立消息即携带一个情绪信息),而有的情绪信息会作为连续的消息发送(连续消息中的每一个消息携带一个情绪信息的一部分)。
此时,对于消息冲突的处理为:如果在显示消息1时接收到了消息2,则将消息2进行缓存,并判断消息2是独立消息还是连续消息,若消息2是独立消息,那么,如果在缓存消息2的过程中未收到其它消息,则在消息1显示完毕后显示消息2;如果在缓存消息2的过程中又接收到了消息3,则删除消息2,对消息3进行缓存,并判断消息3是独立消息还是连续消息,后续处理同消息2;若消息2是连续消息,那么,继续缓存消息2所属连续消息(称为连续消息1)中的其它消息,直到连续消息1全部缓存完毕,若在连续消息1全部缓存完毕之前又接收到了消息3,删除已经缓存的连续消息1,并将消息3缓存并等待显示。用户可以点击新消息提示icon(提示)手动随时手动加载消息。
其中,判断一个消息是独立消息还是连续消息的方法是:如果该消息的开始有START标记,结尾有END标记,则说明该消息是独立消息;如果该消息中只有START标记或END标记,或者该消息中既没有START标记也没有END标记,则说明该消息是连续消息。
3、关键字的一种互动
如图4所示,本申请实施例的通过识别对端通话语音中的关键字进行互动的方法包括:
步骤S302,第一移动设备接收第二移动设备发来的通话语音;
步骤S304,第一移动设备识别接收到的通话语音中出现的关键字;
可以预设一些语音关键字,可以识别通话语音中是否出现了某一关键字。另外,用户设置移动设备的语音关键字识别功能的状态,当设定为on状态时,移动设备会识别通话语音中出现的关键字,当设定为off状态时,移动设备不会识别通话语音中出现的关键字。然后,用户可以进一步设置语音关键字的表现形式,如文字、图片、音乐中的一种或多种的组合。在设置好表现形式后,就可以设置不同关键字对应的具体表现内容。
步骤S306,第一移动设备将识别出的关键字发送给第一可穿戴设备;
在步骤S306中第一移动设备将与识别出的关键字对应的具体表现内容发送给第一可穿戴设备。
步骤S308,第一可穿戴设备输出接收到的关键字。
在步骤S308中,如果收到的是文字,则第一可穿戴设备显示收到的文字,如果收到的是图片,则第一可穿戴设备显示收到的图片,如果收到是的音乐,则第一可穿戴设备播放收到的音乐。
另外,用户还可以设置是否进行来信提醒,则,根据用户设置,第一可穿戴设备可以设定来信提醒功能的状态,如果设定为on状态,则在收到关键字(以文字和/或图片和/或音乐形式表示的关键字)之后,第一可穿戴设备会进行来信提醒,如果设定成Off状态,则不会进行提醒。另外,用户还可以设置来信提醒的形式,例如,音乐或者震动形式,具体的,如果设置成音乐形式,则还可以设置使用的音乐的名称、播放时长和播放间隔等;如果设置成震动形式,则还可以设置震动类型、震动时长和震动间隔等。这样,第一可穿戴设备在收到关键字之后,会根据用户设置通过音乐或者震动的形式进行来信提醒。
在实际实施过程中,当关键字的内容较大时,会将一个完整的信息分成多个进行处理,例如,当一个关键字的内容较大时,移动设备将该关键字分成连续的多个部分,第一部分的开始以START进行标记,最后一个部分以END进行标记,然后,每一个部分以消息的形式发送给可穿戴设备。这样,有的关键字会作为一个独立消息发送(一个独立消息即携带一个关键字),而有的关键字会作为连续的消息发送(连续消息中的每一个消息携带一个关键字的一部分)。
此时,对于消息冲突的处理为:如果在显示消息1时接收到了消息2,则将消息2进行缓存,并判断消息2是独立消息还是连续消息,若消息2是独立消息,那么,如果在缓存消息2的过程中未收到其它消息,则在消息1显示完毕后显示消息2;如果在缓存消息2的过程中又接收到了消息3,则删除消息2,对消息3进行缓存,并判断消息3是独立消息还是连续消息,后续处理同消息2;若消息2是连续消息,那么,继续缓存消息2所属连续消息(称为连续消息1)中的其它消息,直到连续消息1全部缓存完毕,若在连续消息1全部缓存完毕之前又接收到了消息3,删除已经缓存的连续消息1,并将消息3缓存并等待显示。用户可以点击新消息提示icon(提示)手动随时手动加载消息。
其中,判断一个消息是独立消息还是连续消息的方法是:如果该消息的开始有START标记,结尾有END标记,则说明该消息是独立消息;如果该消息中只有START标记或END标记,或者该消息中既没有START标记也没有END标记,则说明该消息是连续消息。
4、关键字的另一种互动
如图5所示,本申请实施例的通过识别本端通话语音中的关键字进行互动的方法包括:
步骤S402,第一移动设备根据用户的设定,记录关键字及其对应的多媒体信息,其中,多媒体信息是文字和/或图片和/或音乐;
用户预先在移动设备上设定关键字及其对应的多媒体信息,例如,设定关键字“HappyBirthday”以及与之对应的多媒体信息。
步骤S404,第一移动设备对本端用户的通话语音进行识别,当识别出一关键字时,将与识别出的关键字对应的多媒体信息发送给第二移动设备;
当用户在使用移动设备进行通话的过程中,移动设备可以对用户的通话语音内容进行关键字识别,当识别出一关键字时,会将与该关键字对应的多媒体信息发送给对端移动设备。
例如,当用户在通话过程中说出“HappyBirthday”,移动设备识别出该关键字“HappyBirthday”,即会将与之对应的多媒体信息发送给对端移动设备。
步骤S406,第二移动设备接收到第一移动设备发来的多媒体信息之后,转发接收到的多媒体信息给第二可穿戴设备;
步骤S408,第二可穿戴设备在接收到第二移动设备发来的多媒体信息之后,输出接收到的多媒体信息。
在步骤S408中,若收到的多媒体信息是文字,则显示该文字,若收到的多媒体信息是图片,则显示该图片,若收到的多媒体信息是音乐,则播放该音乐。
另外,用户还可以设置是否进行来信提醒,则,根据用户设置,第二可穿戴设备可以设定来信提醒功能的状态,如果设定为on状态,则在收到多媒体信息之后,第二可穿戴设备会进行来信提醒,如果设定成Off状态,则不会进行提醒。另外,用户还可以设置来信提醒的形式,例如,音乐或者震动形式,具体的,如果设置成音乐形式,则还可以设置使用的音乐的名称、播放时长和播放间隔等;如果设置成震动形式,则还可以设置震动类型、震动时长和震动间隔等。这样,第二可穿戴设备在收到多媒体信息之后,会根据用户设置通过音乐或者震动的形式进行来信提醒。
显然,上述三种互动方法可以单独实施,也可以组合起来进行实施。当组合起来实施时,携带含义信息的消息的优先级高于携带情绪信息或关键字的消息,即,含义信息会优先显示给用户。
本申请上述实施例的方法中,用户在使用移动设备进行通话的过程中,可以使用本端可穿戴设备对用户的肢体动作信息进行获取,将获取到的肢体动作信息发送给本端移动设备进行识别,本端移动设备将识别结果所表示的含义信息发送给通话的对端移动设备,再由对端移动设备发送给对端可穿戴设备进行显示,从而,一方用户可以通过肢体动作将自己想要表达的意思传送给对方用户,解决了目前通话中双方交互不够充分的问题,改善了通话的交互体验,能很好地满足用户交流的需求。另外,肢体动作所表达的含义信息可以通过文字和/或图片的形式传送给对方,满足了用户个性化的需求。
另外,用户在使用移动设备进行通话的过程中,本端移动设备可以对接收到的通话语音进行语音情绪识别,并在识别出的情绪信息发生变化时,将最新的情绪信息发送给本端可穿戴设备进行输出显示,从而,通过识别语音情绪,用户可以及时获知对方的情绪变化,解决了目前通话中双方交互不够充分的问题,改善了通话的交互体验,能很好地满足用户交流的需求。另外,情绪信息可以通过文字和/或图片和/或震动的形式传送给对方,满足了用户个性化的需求。
另外,用户在使用移动设备进行通话的过程中,本端移动设备可以对接收到的通话语音中出现的关键字进行识别,并将识别出的关键字发送给本端可穿戴设备进行输出显示,从而,通过识别通话中出现的关键字,用户可以及时获知语音中的重要信息,解决了目前通话中双方交互不够充分的问题,改善了通话的交互体验,能很好地满足用户交流的需求。另外,关键字可以通过文字和/或图片和/或音乐的形式传送给对方,满足了用户个性化的需求。
针对上述实施例中的方法,本申请实施例中还提供了一种可以应用该方法的通话过程中的互动系统。
如图6所示,通话过程中的互动系统中包括:本端可穿戴设备10和本端移动设备20,其中:
本端可穿戴设备10,用于在本端移动设备20进行通话的过程中,获取用户的肢体动作信息,并将获取到的肢体动作信息发送给本端移动设备20;还用于在接收到本端移动设备20发来的含义信息之后,显示接收到的含义信息;
本端移动设备20,用于在接收到本端可穿戴设备10发来的肢体动作信息之后,对收到的肢体动作信息进行动作识别,将识别结果所表示的含义信息发送给通话的对端移动设备;还用于在接收到来自对端移动设备的含义信息之后,转发接收到的含义信息给本端可穿戴设备10。
其中,肢体动作信息是手部动作信息和/或脚部动作信息,含义信息以文字和/或图片形式表示。
其中,本端移动设备20,还用于在接收到对端移动设备发来的通话语音之后,对接收到的通话语音进行语音情绪识别,若本次识别出的情绪信息与上一次识别出的情绪信息不同,则将本次识别出的情绪信息发送给本端可穿戴设备10;
本端可穿戴设备10,还用于在接收到本端移动设备20发来的情绪信息之后,输出接收到的情绪信息。
其中,情绪信息以文字和/或图片和/或震动形式表示,其中,震动形式包括:震动点数、震动图形、震动次数和震动间隔。
其中,本端移动设备20,还用于在接收到对端移动设备发来的通话语音之后,识别接收到的通话语音中出现的关键字,将识别出的关键字发送给本端可穿戴设备10;其中,关键字以文字和/或图片和/或音乐形式表示;
本端可穿戴设备10,还用于在接收到本端移动设备20发来的关键字之后,输出接收到的关键字。
其中,本端移动设备20,还用于根据用户的设定,记录关键字及其对应的多媒体信息,其中,多媒体信息是文字和/或图片和/或音乐;还用于对本端用户的通话语音进行识别,当识别出一关键字时,将与识别出的关键字对应的多媒体信息发送给对端移动设备;还用于在接收到对端移动设备发来的多媒体信息之后,转发接收到的多媒体信息给本端可穿戴设备10;
本端可穿戴设备10,还用于在接收到本端移动设备20发来的多媒体信息之后,输出接收到的多媒体信息。
综上,本申请以上实施例可以达到以下技术效果:
(1)用户在使用移动设备进行通话的过程中,可以使用本端可穿戴设备对用户的肢体动作信息进行获取,将获取到的肢体动作信息发送给本端移动设备进行识别,本端移动设备将识别结果所表示的含义信息发送给通话的对端移动设备,再由对端移动设备发送给对端可穿戴设备进行显示,从而,一方用户可以通过肢体动作将自己想要表达的意思传送给对方用户,解决了目前通话中双方交互不够充分的问题,改善了通话的交互体验,能很好地满足用户交流的需求。另外,肢体动作所表达的含义信息可以通过文字和/或图片的形式传送给对方,满足了用户个性化的需求。
(2)用户在使用移动设备进行通话的过程中,本端移动设备可以对接收到的通话语音进行语音情绪识别,并在识别出的情绪信息发生变化时,将最新的情绪信息发送给本端可穿戴设备进行输出显示,从而,通过识别语音情绪,用户可以及时获知对方的情绪变化,解决了目前通话中双方交互不够充分的问题,改善了通话的交互体验,能很好地满足用户交流的需求。另外,情绪信息可以通过文字和/或图片和/或震动的形式传送给对方,满足了用户个性化的需求。
(3)用户在使用移动设备进行通话的过程中,本端移动设备可以对接收到的通话语音中出现的关键字进行识别,并将识别出的关键字发送给本端可穿戴设备进行输出显示,从而,通过识别通话中出现的关键字,用户可以及时获知语音中的重要信息,解决了目前通话中双方交互不够充分的问题,改善了通话的交互体验,能很好地满足用户交流的需求。另外,关键字可以通过文字和/或图片和/或音乐的形式传送给对方,满足了用户个性化的需求。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。

Claims (11)

1.一种通话过程中的互动方法,其特征在于,包括:
在本端移动设备进行通话的过程中,本端可穿戴设备获取用户的肢体动作信息,并将获取到的肢体动作信息发送给本端移动设备;
在接收到本端可穿戴设备发来的肢体动作信息之后,本端移动设备对所述肢体动作信息进行动作识别,将识别结果所表示的含义信息发送给通话的对端移动设备;
在接收到来自对端移动设备的含义信息之后,本端移动设备转发接收到的含义信息给本端可穿戴设备;
本端可穿戴设备在接收到本端移动设备发来的含义信息之后,显示接收到的含义信息。
2.根据权利要求1所述的方法,其特征在于,肢体动作信息是手部动作信息和/或脚部动作信息,含义信息以文字和/或图片形式表示。
3.根据权利要求1所述的方法,其特征在于,还包括:
在接收到对端移动设备发来的通话语音之后,本端移动设备对接收到的通话语音进行语音情绪识别;
若本次识别出的情绪信息与上一次识别出的情绪信息不同,则本端移动设备将本次识别出的情绪信息发送给本端可穿戴设备;
本端可穿戴设备在接收到本端移动设备发来的情绪信息之后,输出接收到的情绪信息。
4.根据权利要求3所述的方法,其特征在于,情绪信息以文字和/或图片和/或震动形式表示,其中,震动形式包括:震动点数、震动图形、震动次数和震动间隔。
5.根据权利要求3所述的方法,其特征在于,在接收到对端移动设备发来的通话语音之后,还包括:
本端移动设备识别接收到的通话语音中出现的关键字;
本端移动设备将识别出的关键字发送给本端可穿戴设备;
本端可穿戴设备在接收到本端移动设备发来的关键字之后,输出接收到的关键字。
6.根据权利要求5所述的方法,其特征在于,关键字以文字和/或图片和/或音乐形式表示。
7.根据权利要求1所述的方法,其特征在于,还包括:
本端移动设备根据用户的设定,记录关键字及其对应的多媒体信息,其中,多媒体信息是文字和/或图片和/或音乐;
本端移动设备对本端用户的通话语音进行识别,当识别出一关键字时,将与识别出的关键字对应的多媒体信息发送给对端移动设备;
本端移动设备接收到对端移动设备发来的多媒体信息之后,转发接收到的多媒体信息给本端可穿戴设备;
本端可穿戴设备在接收到本端移动设备发来的多媒体信息之后,输出接收到的多媒体信息。
8.一种通话过程中的互动系统,其特征在于,包括:本端可穿戴设备和本端移动设备,其中:
本端可穿戴设备,用于在本端移动设备进行通话的过程中,获取用户的肢体动作信息,并将获取到的肢体动作信息发送给本端移动设备;还用于在接收到本端移动设备发来的含义信息之后,显示接收到的含义信息;
本端移动设备,用于在接收到本端可穿戴设备发来的肢体动作信息之后,对所述肢体动作信息进行动作识别,将识别结果所表示的含义信息发送给通话的对端移动设备;还用于在接收到来自对端移动设备的含义信息之后,转发接收到的含义信息给本端可穿戴设备。
9.根据权利要求8所述的系统,其特征在于,
本端移动设备,还用于在接收到对端移动设备发来的通话语音之后,对接收到的通话语音进行语音情绪识别,若本次识别出的情绪信息与上一次识别出的情绪信息不同,则将本次识别出的情绪信息发送给本端可穿戴设备;
本端可穿戴设备,还用于在接收到本端移动设备发来的情绪信息之后,输出接收到的情绪信息。
10.根据权利要求8所述的系统,其特征在于,
本端移动设备,还用于在接收到对端移动设备发来的通话语音之后,识别接收到的通话语音中出现的关键字,将识别出的关键字发送给本端可穿戴设备;
本端可穿戴设备,还用于在接收到本端移动设备发来的关键字之后,输出接收到的关键字。
11.根据权利要求8所述的系统,其特征在于,
本端移动设备,还用于根据用户的设定,记录关键字及其对应的多媒体信息,其中,多媒体信息是文字和/或图片和/或音乐;还用于对本端用户的通话语音进行识别,当识别出一关键字时,将与识别出的关键字对应的多媒体信息发送给对端移动设备;还用于在接收到对端移动设备发来的多媒体信息之后,转发接收到的多媒体信息给本端可穿戴设备;
本端可穿戴设备,还用于在接收到本端移动设备发来的多媒体信息之后,输出接收到的多媒体信息。
CN201510571159.3A 2015-09-10 2015-09-10 通话过程中的互动方法及系统 Active CN105227765B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510571159.3A CN105227765B (zh) 2015-09-10 2015-09-10 通话过程中的互动方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510571159.3A CN105227765B (zh) 2015-09-10 2015-09-10 通话过程中的互动方法及系统

Publications (2)

Publication Number Publication Date
CN105227765A true CN105227765A (zh) 2016-01-06
CN105227765B CN105227765B (zh) 2019-04-26

Family

ID=54996430

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510571159.3A Active CN105227765B (zh) 2015-09-10 2015-09-10 通话过程中的互动方法及系统

Country Status (1)

Country Link
CN (1) CN105227765B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105871696A (zh) * 2016-05-25 2016-08-17 维沃移动通信有限公司 一种信息发送、接收方法及移动终端
CN106175727A (zh) * 2016-07-25 2016-12-07 广东小天才科技有限公司 一种应用于可穿戴设备的表情推送方法及可穿戴设备
CN106488009A (zh) * 2016-09-20 2017-03-08 厦门两只猫科技有限公司 一种识别通话内容关键字对设备实现自动控制调节的装置和方法
CN110971747A (zh) * 2018-09-30 2020-04-07 华为技术有限公司 一种媒体展示的控制方法及相关产品

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008295170A (ja) * 2007-05-23 2008-12-04 Canon Inc 充電装置及びその制御方法
CN101605158A (zh) * 2008-06-13 2009-12-16 鸿富锦精密工业(深圳)有限公司 聋哑人专用手机
CN101789990A (zh) * 2009-12-23 2010-07-28 宇龙计算机通信科技(深圳)有限公司 一种在通话过程中判断对方情绪的方法及移动终端
CN102204225A (zh) * 2008-09-05 2011-09-28 Sk电信有限公司 传送振动信息的移动通信终端及其方法
CN103440095A (zh) * 2013-06-17 2013-12-11 华为技术有限公司 文件发送方法及终端
CN103746985A (zh) * 2013-12-30 2014-04-23 华为技术有限公司 通信方法及装置
CN104049753A (zh) * 2014-06-09 2014-09-17 百度在线网络技术(北京)有限公司 实现手语信息和文本信息相互转换的方法和装置
CN104780338A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备
CN104822129A (zh) * 2015-04-10 2015-08-05 小米科技有限责任公司 数据传输方法及装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008295170A (ja) * 2007-05-23 2008-12-04 Canon Inc 充電装置及びその制御方法
CN101605158A (zh) * 2008-06-13 2009-12-16 鸿富锦精密工业(深圳)有限公司 聋哑人专用手机
CN102204225A (zh) * 2008-09-05 2011-09-28 Sk电信有限公司 传送振动信息的移动通信终端及其方法
CN101789990A (zh) * 2009-12-23 2010-07-28 宇龙计算机通信科技(深圳)有限公司 一种在通话过程中判断对方情绪的方法及移动终端
CN103440095A (zh) * 2013-06-17 2013-12-11 华为技术有限公司 文件发送方法及终端
CN103746985A (zh) * 2013-12-30 2014-04-23 华为技术有限公司 通信方法及装置
CN104049753A (zh) * 2014-06-09 2014-09-17 百度在线网络技术(北京)有限公司 实现手语信息和文本信息相互转换的方法和装置
CN104822129A (zh) * 2015-04-10 2015-08-05 小米科技有限责任公司 数据传输方法及装置
CN104780338A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105871696A (zh) * 2016-05-25 2016-08-17 维沃移动通信有限公司 一种信息发送、接收方法及移动终端
CN106175727A (zh) * 2016-07-25 2016-12-07 广东小天才科技有限公司 一种应用于可穿戴设备的表情推送方法及可穿戴设备
CN106488009A (zh) * 2016-09-20 2017-03-08 厦门两只猫科技有限公司 一种识别通话内容关键字对设备实现自动控制调节的装置和方法
CN110971747A (zh) * 2018-09-30 2020-04-07 华为技术有限公司 一种媒体展示的控制方法及相关产品

Also Published As

Publication number Publication date
CN105227765B (zh) 2019-04-26

Similar Documents

Publication Publication Date Title
CN106878566B (zh) 语音操控方法、移动终端装置及语音操控系统
US8373799B2 (en) Visual effects for video calls
CN105554027A (zh) 资源分享方法和装置
TWI611336B (zh) 提示產生方法、行動電子裝置及電腦可讀取媒體
CN105227765A (zh) 通话过程中的互动方法及系统
CN101551998B (zh) 一种语音互动系统以及其和人的语音互动方法
CN103558916A (zh) 人机交互系统、方法及其装置
CN101406028B (zh) 动态快速拨叫号码映射
JP2007027918A (ja) 実世界コミュニケーション管理装置
CN101741953A (zh) 一种通话时应用卡通动画显示语音信息的方法和装置
CN106340308A (zh) 语音答复方法及装置
CN109995939B (zh) 信息处理方法和电子设备
CN101742726A (zh) 移动终端以及根据通讯录改变短信显示样式的方法
CN109887505A (zh) 用于唤醒设备的方法和装置
CN108922528A (zh) 用于处理语音的方法和装置
CN104123114A (zh) 一种进行语音播放的方法和装置
CN113055529B (zh) 录音控制方法和录音控制装置
CN105262601A (zh) 群成员信息的处理方法和系统
CN108763475B (zh) 一种录制方法、录制装置及终端设备
CN104820662A (zh) 业务服务器装置
EP1558011A2 (en) Customisation of Ringback Tones
CN102694896A (zh) 用以存储通信号码的方法、终端及系统
CN103139653A (zh) 一种移动终端来电的提示方法及数字电视终端
JP2007025859A (ja) 実世界コミュニケーション管理装置
CN113035246B (zh) 音频数据同步处理方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant