CN109120790A - 通话控制方法、装置、存储介质及穿戴式设备 - Google Patents
通话控制方法、装置、存储介质及穿戴式设备 Download PDFInfo
- Publication number
- CN109120790A CN109120790A CN201811001365.0A CN201811001365A CN109120790A CN 109120790 A CN109120790 A CN 109120790A CN 201811001365 A CN201811001365 A CN 201811001365A CN 109120790 A CN109120790 A CN 109120790A
- Authority
- CN
- China
- Prior art keywords
- user
- voice
- state
- call
- wearable device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000003860 storage Methods 0.000 title claims abstract description 20
- 230000033001 locomotion Effects 0.000 claims abstract description 81
- 238000011946 reduction process Methods 0.000 claims abstract description 38
- 230000001960 triggered effect Effects 0.000 claims abstract description 17
- 239000011521 glass Substances 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 31
- 230000006854 communication Effects 0.000 claims description 28
- 238000004891 communication Methods 0.000 claims description 27
- 238000004458 analytical method Methods 0.000 claims description 17
- 230000005764 inhibitory process Effects 0.000 claims description 17
- 230000001629 suppression Effects 0.000 claims description 15
- 238000010801 machine learning Methods 0.000 claims description 13
- 230000007613 environmental effect Effects 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 230000002401 inhibitory effect Effects 0.000 claims description 6
- 230000009194 climbing Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 13
- 238000001514 detection method Methods 0.000 description 10
- 210000005252 bulbus oculi Anatomy 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 3
- 210000000988 bone and bone Anatomy 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000036387 respiratory rate Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 206010044565 Tremor Diseases 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003825 pressing Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 210000003625 skull Anatomy 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 206010011224 Cough Diseases 0.000 description 1
- 206010047924 Wheezing Diseases 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000036772 blood pressure Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000005266 casting Methods 0.000 description 1
- 210000003477 cochlea Anatomy 0.000 description 1
- 210000000860 cochlear nerve Anatomy 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000000624 ear auricle Anatomy 0.000 description 1
- 210000003027 ear inner Anatomy 0.000 description 1
- 210000005069 ears Anatomy 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 210000003296 saliva Anatomy 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001755 vocal effect Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72448—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
- H04M1/72454—User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/3827—Portable transceivers
- H04B1/385—Transceivers carried on the body, e.g. in helmets
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04M—TELEPHONIC COMMUNICATION
- H04M1/00—Substation equipment, e.g. for use by subscribers
- H04M1/72—Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
- H04M1/724—User interfaces specially adapted for cordless or mobile telephones
- H04M1/72403—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
- H04M1/72409—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
- H04M1/72412—User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Human Computer Interaction (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Quality & Reliability (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Environmental & Geological Engineering (AREA)
- User Interface Of Digital Computer (AREA)
- Telephone Function (AREA)
Abstract
本申请实施例公开了通话控制方法、装置、存储介质及穿戴式设备。该方法包括:在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态,当运动状态与预设运动状态匹配时,获取用户输入的语音信息,对语音信息进行降噪处理,得到目标语音信息,将目标语音信息发送至通话对端。本申请实施例通过采用上述技术方案,可以在用户佩戴穿戴式设备进行通话的过程中,根据用户的运动状态对用户的语音信息进行有选择性的降噪处理,提高通话质量。
Description
技术领域
本申请实施例涉及智能设备技术领域,尤其涉及通话控制方法、装置、存储介质及穿戴式设备。
背景技术
目前,智能穿戴式设备已进入广大用户的日常生活中,为用户的生活及工作等提供了诸多方面的便利。
随着智能穿戴技术的发展,如今的智能穿戴式设备可实现丰富多样的功能。然而,目前智能穿戴式设备的功能仍不够完善,需要改进。
发明内容
本申请实施例提供一种通话控制方法、装置、存储介质及穿戴式设备,可以优化基于穿戴式设备的通话控制方案。
第一方面,本申请实施例提供了一种通话控制方法,包括:
在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态;
当所述运动状态与预设运动状态匹配时,获取用户输入的语音信息;
对所述语音信息进行降噪处理,得到目标语音信息;
将所述目标语音信息发送至通话对端。
第二方面,本申请实施例提供了一种通话控制装置,包括:
运动状态获取模块,用于在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态;
语音获取模块,用于在所述运动状态与预设运动状态匹配时,获取用户输入的语音信息;
语音处理模块,用于对所述语音信息进行降噪处理,得到目标语音信息;
语音发送模块,用于将所述目标语音信息发送至通话对端。
第三方面,本申请实施例提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本申请实施例所述的通话控制方法。
第四方面,本申请实施例提供了一种穿戴式设备,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如本申请实施例所述的通话控制方法。
本申请实施例中提供的通话控制方案,在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态,当运动状态与预设运动状态匹配时,获取用户输入的语音信息,对语音信息进行降噪处理,得到目标语音信息,将目标语音信息发送至通话对端。通过采用上述技术方案,可以在用户佩戴穿戴式设备进行通话的过程中,根据用户的运动状态对用户的语音信息进行有选择性的降噪处理,提高通话质量。
附图说明
图1为本申请实施例提供的一种通话控制方法的流程示意图;
图2为本申请实施例提供的另一种通话控制方法的流程示意图;
图3为本申请实施例提供的又一种通话控制方法的流程示意图;
图4为本申请实施例提供的一种通话控制装置的结构框图;
图5为本申请实施例提供的一种穿戴式设备的结构示意图;
图6为本申请实施例提供的又一种穿戴式设备的结构示意图;
图7为本申请实施例提供的一种穿戴式设备的示意实体图。
具体实施方式
下面结合附图并通过具体实施方式来进一步说明本申请的技术方案。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部结构。
在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各步骤描述成顺序的处理,但是其中的许多步骤可以被并行地、并发地或者同时实施。此外,各步骤的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
图1为本申请实施例提供的一种通话控制方法的流程示意图,该方法可以由通话控制装置执行,其中该装置可由软件和/或硬件实现,一般可集成在穿戴式设备中。如图1所示,该方法包括:
步骤101、在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态。
示例性的,本申请实施例中的穿戴式设备可包括智能眼镜、智能耳机、智能面罩、智能头盔等一般佩戴于用户头部的穿戴式设备;当然,也可包括如智能手表等佩戴于其他部位的穿戴式设备。
本申请实施例中,对穿戴式设备的具体组成结构、形状及体积等属性不做限定。为了便于说明,下文中将以智能眼镜为例进行后续的说明。示例性的,智能眼镜可包括眼镜框体和镜片。该眼镜框体包括镜腿和镜框。可选的,在镜腿的内侧可以设有呼吸灯,呼吸灯可以是LED灯,并可以根据智能眼镜佩戴者心跳的频率进行闪烁。在镜腿上还设有触控区(如触控面板)及骨传导区。其中,触控区设置于镜腿的外侧,在触控区内设置触摸检测模块,用于检测用户的触摸操作。例如,采用触摸传感器模块检测用户的触摸操作,该触摸传感器模块在初始态为低电平,在有触摸操作时为高电平。在用户佩戴智能眼镜的场景下将镜腿靠近脸部的一侧规定为内侧,与内侧相对的远离脸部的一侧规定为外侧。在镜腿上靠近耳朵的位置设置骨传导区。其中,在骨传导区设置骨传导耳机或骨传导传感器等骨传导部件。在镜腿靠近脸部太阳穴的位置设置心率检测模组(如心率传感器),用于获取佩戴智能眼镜用户的心率信息。在镜框上设置智能麦克风,可以用于语音通话或接收语音指令等。在镜框上还设有距离传感器及陀螺仪等。此外,在镜框及鼻托上还设置有眼电图(简称为EOG)传感器,用于采集用户的眼睛状态。另外,在镜腿上还设置有微处理区,微处理器设置于微处理区,分别与上述触摸检测模块、骨传导耳机、心率传感器、智能麦克风、距离传感器、陀螺仪、眼电图传感器等器件电连接,用于接收待处理数据,进行数据运算、数据处理并输出控制指令至对应的器件。需要说明的是,该智能眼镜可以通过互联网由云端下载多媒体资源进行播放,还可以通过与终端设备建立通信连接,由终端设备上获取多媒体资源,本申请对此并不作限定。在镜框上还可设置摄像头,用于拍摄佩戴者前方的景象照片等。
本申请实施例中,穿戴式设备具备语音通话功能,可以是基于互联网的通话,也可以是基于移动网络运营商(以中国为例,如中国移动、中国联通及中国电信等)的通话。穿戴式设备中可设置客户识别模块(Subscriber Identification Module,SIM)卡槽,用于容纳SIM卡。穿戴式设备还可以与手机等移动终端建立通信连接(如蓝牙连接等),配合移动终端完成通话。
本申请实施例对通话事件被触发的方式不做限定。穿戴式设备作为一种智能设备,能够帮助用户实现各种各样的功能,利用人机交互用户可以对穿戴式设备进行控制。示例性的,穿戴式设备上可以设置实体按键或虚拟按键(如触摸式按键),用户可以通过指定触发方式(如点击、长按或连续多次点击等)按压或触摸穿戴式设备上的按键来表达自己的操作意愿,穿戴式设备在检测到某个按键被以某种方式触发时,可根据按键属性(如名称)及触发方式识别出用户的操作意愿,以控制穿戴式设备响应用户的操作。示例性的,穿戴式设备上还可以设置语音识别模块,通过麦克风采集用户说的话,并利用语音识别模块对用户说出的自然语言进行语义分析,得到相应的语音内容,并根据该语音内容控制穿戴式设备响应用户的语音命令。示例性的,穿戴式设备上还可以设置用于感测用户动作的传感器(如超声波传感器等),如可感测用户的手势动作等,利用该传感器识别出用户用于表达操作意愿的动作,并根据该动作的类型控制穿戴式设备进行相应的响应。可选的,本申请实施例中可预先设置与触发通话事件相对应的操作,如触摸接听按键、检测到用户说出“接听电话”或“给XX打电话”、或者用户做OK状手势等等,在检测到相应的操作时,触发通话事件。
本申请实施例中,可采用穿戴式设备中集成的加速度传感器及陀螺仪等运动传感器来对用户当前的运动状态进行检测,进而获取用户当前的运动状态;也可利用手机等集成有运动传感器的移动终端来对用户当前的运动状态进行检测,并将运动状态发送至穿戴式设备,可节约穿戴式设备的制造成本。示例性的,用于衡量运动状态的可包括速度、加速度、角速度、角加速度以及重心变化等方面。此外,还可采用其他参数来确定运动状态,如心率、血压、呼吸频率等生理状态参数。同样的,可采用穿戴式设备中集成的心率传感器等生理状态传感器来对用户当前的运动状态进行检测,进而获取用户当前的运动状态;也可利用手机等集成有生理状态传感器的移动终端来对用户当前的运动状态进行检测,并将运动状态发送至穿戴式设备,可节约穿戴式设备的制造成本。可选的,为了更准确地确定用户的运动状态,可结合检测到的运动参数数据和生理状态参数数据来确定用户的运动状态。
步骤102、当所述运动状态与预设运动状态匹配时,获取用户输入的语音信息。
示例性的,预设运动状态可包括跑步状态、骑行状态、快走状态、跳跃状态或爬高状态等等,还可以包括其他形式的锻炼状态。当用户处于预设运动状态时,一般穿戴式设备会随着用户一起发生较快的移动,穿戴式设备的麦克风采集到的声音中可能会包含较多的干扰音,如气流声音等,影响通话质量,因此本申请实施例中后续会对获取到的用户输入的语音信息进行一定的处理。当运动状态与预设运动状态不匹配时,可以获取用户输入的语音信息并直接发送至通话对端,也可以采用本申请实施例之外的处理方式进行处理后再发送至通话对端,本申请实施例不做限定。
步骤103、对所述语音信息进行降噪处理,得到目标语音信息。
示例性的,可针对不同的预设运动状态进行不同方式的降噪处理,如可设置不同的降噪针对对象以及降噪程度等等。
可选的,对所述语音信息进行降噪处理,包括:针对所述语音信息中包含的环境噪音和/或用户发出的干扰音,对所述语音信息进行降噪处理。这样设置的好处在于,可以更加有针对性的进行降噪处理。
在通话过程中,一般有用的信息就是用户说话的声音,而外界环境中的如车辆行驶声音、鸣笛声音、广播声音、音乐声、下雨声、其他人说话的声音等均可认为是环境噪音,此外,由于用户处于预设运动状态,所以穿戴式设备的麦克风还会采集到较大的气体流动声音,气体流动声音也可认为是环境噪音。针对环境噪音进行降噪处理可包括降低环境噪音的音量,还可包括将环境噪音滤除等,本申请实施例不做限定。示例性的,可在穿戴式设备中预先存储用户的声纹信息,将语音信息中与该声纹信息不匹配的部分作为环境噪音。
当用户处于预设运动状态时,一般运动量较大,心率加快,呼吸频率也会加快,容易发出喘气声、吞咽口水声以及咳嗽声等声音,这些声音可认为是用户发出的能够影响通话的干扰音。本申请实施例中,可以针对用户发出的干扰音进行降噪处理,如降低干扰音的音量或滤除干扰音等,可避免这些干扰音影响通话双方之间的交流,从而有效提升通话质量。
在经过降噪处理后,得到的语音信息已经削弱或滤除了干扰因素,可以用于发送给通话对方,本申请实施例称之为目标语音信息。
步骤104、将所述目标语音信息发送至通话对端。
本申请实施例中,在得到目标语音信息后,可直接发送至通话对端,还可以进行如语音编码、信道编码、加密、交织等一系列处理后,发送至通话对端。目标语音信息的发送路径可以由通话方式确定,如采用穿戴式设备直接通话,则可利用穿戴式设备直接发送至通话对端;如采用穿戴式设备配合移动终端进行通话,则可由穿戴式设备将目标语音信息发送给移动终端,再由移动终端发送至通话对端。
本申请实施例中提供的通话控制方法,在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态,当运动状态与预设运动状态匹配时,获取用户输入的语音信息,对语音信息进行降噪处理,得到目标语音信息,将目标语音信息发送至通话对端。通过采用上述技术方案,可以在用户佩戴穿戴式设备进行通话的过程中,根据用户的运动状态对用户的语音信息进行有选择性的降噪处理,提高通话质量。
在一些实施例中,所述对所述语音信息进行降噪处理,得到目标语音信息,包括:对所述语音信息进行降噪处理,得到中间语音信息;对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息。这样设置的好处在于,能够进一步提升通话质量。当用户处于预设运动状态时,不仅容易发出干扰音,而且由于心率加快以及呼吸频率加快等生理状态的变化,也容易使得用户说话的声音发生颤抖,造成吐字不清,这样通话对端就不容易听懂用户说的话,也会影响通话质量。本申请实施例中,在对语音信息进行降噪处理后,得到中间语音信息,再对中间语音信息进行声音抖动抑制处理,削弱或消除用户说话颤抖对语音信号干扰,并将经过抑制处理后的语音信息确定为目标语音信息,用于发送至通话对端,以提高通话质量。
本申请实施例中,对声音抖动抑制处理的具体过程不做限定。在一些实施例中,对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息,可包括:采用基于机器学习的预设抑制模型对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息。机器学习涉及概率论、统计学、逼近论、凸分析及算法复杂度理论等多门学科,专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。
本申请实施例中,对预设抑制模型的来源不做限定,可以是从穿戴式设备本地获取,也可从与穿戴式设备对应的预设服务器获取。示例性的,预设抑制模型的训练或更新过程可在穿戴式设备本地进行;也可在预设服务器中进行,当预设抑制模型训练完毕或更新完毕后,可直接发送至穿戴式设备进行存储,或在预设服务器本地进行存储,等待穿戴式设备主动获取。
可选的,本申请实施例中的基于机器学习的预设抑制模型可包括基于神经网络的模型,例如,预设抑制模型中可包括一个或多个卷积神经网络层,还可包括一个或多个激活函数层,也可包括一个或多个循环神经网络层。用于训练的初始模型可基于神经网络理论建立,还可基于经验对网络层数或相关参数进行预先设置。
在一些实施例中,所述预设抑制模型通过以下方式得到:收集所述用户在处于所述预设运动状态时的用户通话语音和对端通话语音,以及收集所述用户在处于安静状态时的正常说话声音;根据所述用户通话语音和所述对端通话语音对所述用户通话语音的通话内容进行语义分析;将所述用户通话语音、语义分析结果以及所述正常说话声音输入至预设机器学习模型中进行训练,得到预设抑制模型。这样设置的好处在于,能够基于用户历史通话习惯以及正常说话声音进行抑制模型的训练,利用训练后的模型可以准确地还原出用户正常说话的声音,改善通话质量。其中,安静状态可包括静坐状态、站立状态、步行状态(速度小于预设速度阈值)、静卧状态等运动量较小的状态。当用户在预设运动状态下通话时,若出现了发音不清的情况,通话对方可能能够听出或猜出用户说话的含义,从而做出正确的回应,这时可根据双方的对话内容分析出用户所说的话的真正含义;若通话对方无法听出或猜出用户说话的含义,一般会要求用户重新再说一遍,那么这时用户一般会调整自己说话的状态,使得说话声音更加清楚,那么可以根据双方对话的内容分析出用户重复的话与前一句含义相同,通过分析后一句话的内容得到用户所说的话的真正含义。在得到用户说话的真正含义后,可以从用户处于安静状态时的正常说话声音中找到与该真正含义对应的语句(可以是整个句子,也可以由多个词语拼接而成),对模糊的语句进行修正。这样,在将中间语音信息输入至预设抑制模型后,预设抑制模型可以输出对应的相对清晰的语音信息作为目标语音信息,这样通话对方就能够听清楚用户说话的声音了。可选的,语义分析的过程也可以由预设机器学习模型自行完成,例如将用户通话语音、对端通话语音和正常说话声音输入至预设机器学习模型中进行训练,得到预设抑制模型,本申请实施例不做限定。
图2为本申请实施例提供的另一种通话控制方法的流程示意图,以智能眼镜为例,如图2所示,该方法包括:
步骤201、检测到基于智能眼镜的通话事件被触发。
步骤202、利用智能眼镜内的运动传感器和生理状态传感器确定用户当前的运动状态。
步骤203、判断运动状态是否与预设运动状态匹配,若是,则执行步骤204;否则,执行步骤207。
示例性的,预设运动状态包括跑步状态、骑行状态、快走状态、跳跃状态和爬高状态中的至少一种。
步骤204、获取用户输入的语音信息,并针对语音信息中包含的环境噪音和用户发出的干扰音,对语音信息进行降噪处理,得到中间语音信息。
步骤205、将中间语音信息输入至基于机器学习的预设抑制模型中,以对中间语音信息进行声音抖动抑制处理,根据预设抑制模型的输出结果确定目标语音信息。
示例性的,预设抑制模型可通过以下方式得到:收集所述用户在处于所述预设运动状态时的用户通话语音和对端通话语音,以及收集所述用户在处于安静状态时的正常说话声音;根据所述用户通话语音和所述对端通话语音对所述用户通话语音的通话内容进行语义分析;将所述用户通话语音、语义分析结果以及所述正常说话声音输入至预设机器学习模型中进行训练,得到预设抑制模型。其中,语音收集的过程可以由智能眼镜完成,智能眼镜可以将收集到的语音数据发送至预设服务器,由预设服务器对语音数据进行语义分析,再将用户通话语音、语义分析结果以及所述正常说话声音输入至预设机器学习模型中进行训练,得到预设抑制模型。
步骤206、将目标语音信息发送至通话对端。
步骤207、获取用户输入的语音信息,并将语音信息发送至通话对端。
本申请实施例提供的通话控制方法,基于智能眼镜的通话事件被触发后,利用智能眼镜内的运动传感器和生理状态传感器确定用户当前的运动状态,若当前运动状态为预设运动状态,则对获取到的用户语音信息分别进行降噪处理和声音抖动抑制处理,得到清晰的目标语音信息发送至通话对端,可有效提高智能眼镜的通话质量,完善智能眼镜的功能。
图3为本申请实施例提供的又一种通话控制方法的流程示意图,以智能眼镜为例,如图3所示,该方法包括:
步骤301、收集用户在处于跑步状态时的用户通话语音和对端通话语音,以及收集用户在处于安静状态时的正常说话声音。
步骤302、根据用户通话语音和对端通话语音对用户通话语音的通话内容进行语义分析。
步骤303、将用户通话语音、语义分析结果以及正常说话声音输入至预设机器学习模型中进行训练,得到预设抑制模型。
步骤304、检测到基于智能眼镜的通话事件被触发。
步骤305、利用智能眼镜内的运动传感器和生理状态传感器确定用户当前的运动状态。
步骤306、判断运动状态是否为跑步状态,若是,则执行步骤307;否则,执行步骤310。
步骤307、获取用户输入的语音信息,并针对语音信息中包含的环境噪音和用户发出的干扰音,对语音信息进行降噪处理,得到中间语音信息。
步骤308、将中间语音信息输入至基于机器学习的预设抑制模型中,以对中间语音信息进行声音抖动抑制处理,根据预设抑制模型的输出结果确定目标语音信息。
步骤309、将目标语音信息发送至通话对端。
步骤310、获取用户输入的语音信息,并将语音信息发送至通话对端。
本申请实施例提供的通话控制方法,在智能眼镜中进行训练数据的采集以及模型训练,得到预设抑制模型,可减少与其他终端的数据交互,同时保护了用户的隐私,在基于智能眼镜的通话事件被触发后,若检测出用户处于跑步状态,则对获取到的用户语音信息分别进行降噪处理和声音抖动抑制处理,得到清晰的目标语音信息发送至通话对端,可有效提高智能眼镜的通话质量,完善智能眼镜的功能。
图4为本申请实施例提供的一种通话控制装置的结构框图,该装置可由软件和/或硬件实现,一般集成在穿戴式设备中,可通过执行通话控制方法来对基于穿戴式设备的通话进行控制。如图4所示,该装置包括:
运动状态获取模块401,用于在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态;
语音获取模块402,用于在所述运动状态与预设运动状态匹配时,获取用户输入的语音信息;
语音处理模块403,用于对所述语音信息进行降噪处理,得到目标语音信息;
语音发送模块404,用于将所述目标语音信息发送至通话对端。
本申请实施例中提供的通话控制装置,在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态,当运动状态与预设运动状态匹配时,获取用户输入的语音信息,对语音信息进行降噪处理,得到目标语音信息,将目标语音信息发送至通话对端。通过采用上述技术方案,可以在用户佩戴穿戴式设备进行通话的过程中,根据用户的运动状态对用户的语音信息进行有选择性的降噪处理,提高通话质量。
可选的,所述对所述语音信息进行降噪处理,包括:
针对所述语音信息中包含的环境噪音和/或用户发出的干扰音,对所述语音信息进行降噪处理。
可选的,所述预设运动状态包括跑步状态、骑行状态、快走状态、跳跃状态和爬高状态中的至少一种。
可选的,所述对所述语音信息进行降噪处理,得到目标语音信息,包括:
对所述语音信息进行降噪处理,得到中间语音信息;
对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息。
可选的,对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息,包括:
采用基于机器学习的预设抑制模型对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息。
可选的,所述预设抑制模型通过以下方式得到:
收集所述用户在处于所述预设运动状态时的用户通话语音和对端通话语音,以及收集所述用户在处于安静状态时的正常说话声音;
根据所述用户通话语音和所述对端通话语音对所述用户通话语音的通话内容进行语义分析;
将所述用户通话语音、语义分析结果以及所述正常说话声音输入至预设机器学习模型中进行训练,得到预设抑制模型。
可选的,所述穿戴式设备包括智能眼镜。
本申请实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行通话控制方法,该方法包括:
在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态;
当所述运动状态与预设运动状态匹配时,获取用户输入的语音信息;
对所述语音信息进行降噪处理,得到目标语音信息;
将所述目标语音信息发送至通话对端。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如DRAM、DDRRAM、SRAM、EDORAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到第一计算机系统。第二计算机系统可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括可以驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的通话控制操作,还可以执行本申请任意实施例所提供的通话控制方法中的相关操作。
本申请实施例提供了一种穿戴式设备,该穿戴式设备中可集成本申请实施例提供的通话控制装置。图5为本申请实施例提供的一种穿戴式设备的结构示意图。穿戴式设备500可以包括:存储器501,处理器502及存储在存储器501上并可在处理器502运行的计算机程序,所述处理器502执行所述计算机程序时实现如本申请实施例所述的通话控制方法。
本申请实施例提供的穿戴式设备,可以在用户佩戴穿戴式设备进行通话的过程中,根据用户的运动状态对用户的语音信息进行有选择性的降噪处理,提高通话质量。
上述示例中列举的存储器及微处理器均为穿戴式设备的部分元器件,所述穿戴式设备还可以包括其它元器件。图6为本申请实施例提供的又一种穿戴式设备的结构框图,图7为本申请实施例提供的一种穿戴式设备的示意实体图。如图6和图7所示,该穿戴式设备可以包括:存储器601、处理器(Central Processing Unit,CPU)602(以下简称CPU)、显示部件603、触控面板604、心率检测模组605、距离传感器606、摄像头607、骨传导扬声器608、麦克风609、呼吸灯610。这些部件通过一个或多个通信总线或信号线611(以下又称内部传输线路)来通信。
应该理解的是,图示穿戴式设备仅仅是一个范例,并且穿戴式设备可以具有比图中所示出的更多的或者更少的部件,可以组合两个或更多的部件,或者可以具有不同的部件配置。图中所示出的各种部件可以在包括一个或多个信号处理和/或专用集成电路在内的硬件、软件、或硬件和软件的组合中实现。
下面就本实施例提供的用于通话控制的穿戴式设备进行详细的描述,该穿戴式设备以智能眼镜为例。
存储器601,所述存储器601可以被CPU602访问,所述存储器601可以包括高速随机存取存储器,还可以包括非易失性存储器,例如一个或多个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
显示部件603,可用于显示图像数据以及操作系统的操控界面,显示部件603嵌入在智能眼镜的镜框中,镜框内部设置有内部传输线路611,该内部传输线路611和显示部件603连接。
触摸面板604,该触摸面板604设置在至少一个智能眼镜镜腿的外侧,用于获取触摸数据,触摸面板604通过内部传输线路611和CPU602连接。其中,触摸面板604可检测用户的手指滑动、点击操作,并相应的把检测到的数据传输至处理器602进行处理以生成对应的控制指令,示例性的,可以是左移指令、右移指令、上移指令、下移指令等。示例性的,显示部件603可显示处理器602传输的虚拟图像数据,该虚拟图像数据可相应的根据触摸面板604检测到的用户操作进行相应变化,具体的,可以是进行画面切换,当检测到左移指令或右移指令后相应的切换上一个或下一个虚拟图像画面;当显示部件603显示视频播放信息时,该左移指令可以是进行播放内容的回播,右移指令可以是进行播放内容的快进;当显示部件603显示的为可编辑文字内容时,该左移指令、右移指令、上移指令、下移指令可以是对光标的位移操作,即光标的位置可根据用户对触摸板的触摸操作而进行移动;当显示部件603显示的内容为游戏动画画面时,该左移指令、右移指令、上移指令、下移指令可以是对游戏中的对象进行控制,如飞机游戏中,可通过该左移指令、右移指令、上移指令、下移指令分别控制飞机的飞行方向;当显示部件603可显示不同频道的视频画面时,该左移指令、右移指令、上移指令、下移指令可进行不同频道的切换,其中,上移指令和下移指令可以是切换到预置频道(如用户使用的常用频道);当显示部件603显示静态图片时,该左移指令、右移指令、上移指令、下移指令可进行不同图片之间的切换,其中,左移指令可以是切换到上一幅图片,右移指令可以是切换至下一幅图,上移指令可以是切换到上一图集,下移指令可以是切换至下一图集。该触摸面板604还可用于对显示部件603的显示开关进行控制,示例性的,当长按压触摸面板604触摸区域时,显示部件603通电显示图像界面,当再次长按压触摸面板604触摸区域时,显示部件603断电,当显示部件603通电后,可通过在触摸面板604进行上滑和下滑操作以调节显示部件603中显示图像的亮度或分辨率。
心率检测模组605,用于测得用户的心率数据,心率指每分钟的心跳次数,该心率检测模组605设置在镜腿内侧。具体的,该心率检测模组605可以是通过电脉冲测量的方式使用干性电极获取人体心电数据,根据心电数据中的振幅峰值确定心率大小;该心率检测模组605还可以是由采用光电法测量心率的光线发射和光线接收器组成,相应的,该心率检测模组605设置在镜腿底部,人体耳廓的耳垂处。心率检测模组605采集到心率数据后可相应的发送至处理器602中进行数据处理已得到佩戴者当前的心率值,在一个实施例中,处理器602在确定出用户的心率值后,可将该心率值实时显示在显示部件603中,可选的处理器602在确定出心率值较低(如小于50)或较高(如大于100)可相应的触发报警器,同时将该心率值和/或生成的报警信息通过通信模块发送至服务器。
距离传感器606,可设置在镜框上,该距离传感器606用于感应人脸到镜框的距离,该距离传感器606可采用红外感应原理实现。具体的,该距离传感器606将采集的距离数据发送至处理器602,处理器602根据该距离数据控制显示部件603的亮暗。示例性的,当确定出距离传感器606采集到的距离小于5厘米时,处理器602相应的控制显示部件603处于点亮状态,当确定出距离传感器为探测到有物体靠近时,相应的控制显示部件604处于关闭状态。
呼吸灯610,可设置在镜框的边缘,当显示部件603关闭显示画面时,该呼吸灯610可根据处理器602的控制而点亮呈渐变亮暗效果。
摄像头607,可以是设置在镜框的上边框的位置,采集用户前方的图像数据的前摄像模块,还可以采集用户眼球信息的后摄像模块,也可以是二者的结合。具体的,摄像头607采集前方图像时,将采集的图像发送至处理器602识别、处理,并根据识别结果触发相应的触发事件。示例性的,当用户在家中佩戴该穿戴设备时,通过对采集的前方图像进行识别,如果识别到家具物品,则相应的查询是否存在对应的控制事件,如果存在,则相应的将该控制事件对应的控制界面显示在显示部件603中,用户可通过触摸面板604进行对应的家具物品的控制,其中该家具物品和智能眼镜通过蓝牙或无线自组网进行网络连接;当用户在户外佩戴该穿戴设备时,可相应的开启目标识别模式,该目标识别模式可用于识别特定的人,摄像头607将采集的图像发送至处理器602进行人脸识别处理,如果识别到设定的预设人脸,则相应的可通过智能眼镜集成的扬声器进行声音播报,该目标识别模式还可以用于识别不同的植物,例如,处理器602根据触摸面板604的触摸操作以记录摄像头607采集的当前图像并通过通信模块发送至服务器以进行识别,服务器对采集图像中的植物进行识别并反馈相关的植物名称、介绍至智能眼镜,并将反馈数据显示在显示部件603中。摄像头607还可以是用于采集用户眼部如眼球的图像,通过对眼球的转动的识别生成不同的控制指令,示例性的,如眼球向上转动生成上移控制指令,眼球向下转动生成下移控制指令,眼球向左转动生成左移控制指令,眼球向右转动生成右移控制指令,其中合格,显示部件603可显示处理器602传输的虚拟图像数据,该虚拟图像数据可相应的根据摄像头607检测到的用户眼球的移动变化生成的控制指令而改变,具体的,可以是进行画面切换,当检测到左移控制指令或右移控制指令后相应的切换上一个或下一个虚拟图像画面;当显示部件603显示视频播放信息时,该左移控制指令可以是进行播放内容的回播,右移控制指令可以是进行播放内容的快进;当显示部件603显示的为可编辑文字内容时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可以是对光标的位移操作,即光标的位置可根据用户对触摸板的触摸操作而进行移动;当显示部件603显示的内容为游戏动画画面时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可以是对游戏中的对象进行控制,如飞机游戏中,可通过该左移控制指令、右移控制指令、上移控制指令、下移控制指令分别控制飞机的飞行方向;当显示部件603可显示不同频道的视频画面时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可进行不同频道的切换,其中,上移控制指令和下移控制指令可以是切换到预置频道(如用户使用的常用频道);当显示部件603显示静态图片时,该左移控制指令、右移控制指令、上移控制指令、下移控制指令可进行不同图片之间的切换,其中,左移控制指令可以是切换到上一幅图片,右移控制指令可以是切换至下一幅图,上移控制指令可以是切换到上一图集,下移控制指令可以是切换至下一图集。
骨传导扬声器608,骨传导扬声器608设置在至少一个镜腿的内壁侧,用于将接收到的处理器602发送的音频信号转换为振动信号。其中,骨传导扬声器608将声音通过颅骨传递至人体内耳,通过将音频的电信号转变为振动信号传递到颅骨耳蜗内,再被听觉神经所感知。通过骨传导扬声器608作为发声装置减少了硬件结构厚度,重量更轻,同时无电磁辐射也不会受到电磁辐射的影响,并且具备抗噪声、防水以及解放双耳的有点。
麦克风609,可设置在镜框的下边框上,用于采集外部(用户、环境)声音并传输至处理器602进行处理。示例性的,麦克风609对用户发出的声音进行采集并通过处理器602进行声纹识别,如果识别为认证用户的声纹,则相应的可接收后续的语音控制,具体的,用户可发出语音,麦克风609将采集到的语音发送至处理器602进行识别以根据识别结果生成对应的控制指令,如“开机”、“关机”、“提升显示亮度”、“降低显示亮度”,处理器602后续根据该生成的控制指令执行对应的控制处理。
上述实施例中提供的通话控制装置、存储介质及穿戴式设备可执行本申请任意实施例所提供的通话控制方法,具备执行该方法相应的功能模块和有益效果。未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的通话控制方法。
注意,上述仅为本申请的较佳实施例及所运用技术原理。本领域技术人员会理解,本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由所附的权利要求范围决定。
Claims (10)
1.一种通话控制方法,其特征在于,包括:
在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态;
当所述运动状态与预设运动状态匹配时,获取用户输入的语音信息;
对所述语音信息进行降噪处理,得到目标语音信息;
将所述目标语音信息发送至通话对端。
2.根据权利要求1所述的方法,其特征在于,所述对所述语音信息进行降噪处理,包括:
针对所述语音信息中包含的环境噪音和/或用户发出的干扰音,对所述语音信息进行降噪处理。
3.根据权利要求1所述的方法,其特征在于,所述预设运动状态包括跑步状态、骑行状态、快走状态、跳跃状态和爬高状态中的至少一种。
4.根据权利要求1所述的方法,其特征在于,所述对所述语音信息进行降噪处理,得到目标语音信息,包括:
对所述语音信息进行降噪处理,得到中间语音信息;
对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息。
5.根据权利要求4所述的方法,其特征在于,对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息,包括:
采用基于机器学习的预设抑制模型对所述中间语音信息进行声音抖动抑制处理,得到目标语音信息。
6.根据权利要求5所述的方法,其特征在于,所述预设抑制模型通过以下方式得到:
收集所述用户在处于所述预设运动状态时的用户通话语音和对端通话语音,以及收集所述用户在处于安静状态时的正常说话声音;
根据所述用户通话语音和所述对端通话语音对所述用户通话语音的通话内容进行语义分析;
将所述用户通话语音、语义分析结果以及所述正常说话声音输入至预设机器学习模型中进行训练,得到预设抑制模型。
7.根据权利要求1-6任一所述的方法,其特征在于,所述穿戴式设备包括智能眼镜。
8.一种通话控制装置,其特征在于,包括:
运动状态获取模块,用于在基于穿戴式设备的通话事件被触发后,获取用户当前的运动状态;
语音获取模块,用于在所述运动状态与预设运动状态匹配时,获取用户输入的语音信息;
语音处理模块,用于对所述语音信息进行降噪处理,得到目标语音信息;
语音发送模块,用于将所述目标语音信息发送至通话对端。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的通话控制方法。
10.一种穿戴式设备,其特征在于,包括存储器,处理器及存储在存储器上并可在处理器运行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1-7任一所述的通话控制方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811001365.0A CN109120790B (zh) | 2018-08-30 | 2018-08-30 | 通话控制方法、装置、存储介质及穿戴式设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811001365.0A CN109120790B (zh) | 2018-08-30 | 2018-08-30 | 通话控制方法、装置、存储介质及穿戴式设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109120790A true CN109120790A (zh) | 2019-01-01 |
CN109120790B CN109120790B (zh) | 2021-01-15 |
Family
ID=64860511
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811001365.0A Active CN109120790B (zh) | 2018-08-30 | 2018-08-30 | 通话控制方法、装置、存储介质及穿戴式设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109120790B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671437A (zh) * | 2019-01-10 | 2019-04-23 | 广东小天才科技有限公司 | 一种音频处理方法、音频处理装置及终端设备 |
CN109949822A (zh) * | 2019-03-31 | 2019-06-28 | 联想(北京)有限公司 | 信号处理方法和电子设备 |
CN110445505A (zh) * | 2019-07-03 | 2019-11-12 | 深圳市百泰实业股份有限公司 | 一种应用于无线音频眼镜的指向性外放方法 |
CN110705356A (zh) * | 2019-08-31 | 2020-01-17 | 深圳市大拿科技有限公司 | 功能控制方法及相关设备 |
EP3737115A1 (en) * | 2019-05-06 | 2020-11-11 | GN Hearing A/S | A hearing apparatus with bone conduction sensor |
CN112911062A (zh) * | 2019-12-02 | 2021-06-04 | 中兴通讯股份有限公司 | 语音处理方法、控制装置、终端设备和存储介质 |
CN113098901A (zh) * | 2021-04-29 | 2021-07-09 | 心动互动娱乐有限公司 | 高并发的实时语音通话方法、系统、设备及介质 |
CN113253797A (zh) * | 2020-02-07 | 2021-08-13 | 阿里巴巴集团控股有限公司 | 数据处理系统、方法、装置、电子设备以及可穿戴设备 |
CN113542963A (zh) * | 2021-07-21 | 2021-10-22 | RealMe重庆移动通信有限公司 | 声音模式控制方法、装置、电子设备及存储介质 |
CN113748688A (zh) * | 2020-06-10 | 2021-12-03 | 深圳市大疆创新科技有限公司 | 无人飞行器录音方法、装置、芯片、无人飞行器、系统 |
CN114979358A (zh) * | 2021-02-20 | 2022-08-30 | 深圳市万普拉斯科技有限公司 | 一种情景模式切换方法、移动终端及可穿戴设备 |
US11810587B2 (en) | 2019-07-26 | 2023-11-07 | Hewlett-Packard Development Company, L.P. | Noise filtrations based on radar |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104092801A (zh) * | 2014-05-22 | 2014-10-08 | 中兴通讯股份有限公司 | 智能终端通话降噪方法及智能终端 |
CN104427068A (zh) * | 2013-09-06 | 2015-03-18 | 中兴通讯股份有限公司 | 一种语音通话方法及装置 |
US20160284349A1 (en) * | 2015-03-26 | 2016-09-29 | Binuraj Ravindran | Method and system of environment sensitive automatic speech recognition |
CN106486127A (zh) * | 2015-08-25 | 2017-03-08 | 中兴通讯股份有限公司 | 一种语音识别参数自动调整的方法、装置及移动终端 |
CN106791122A (zh) * | 2016-12-27 | 2017-05-31 | 广东小天才科技有限公司 | 一种可穿戴设备的通话控制方法及可穿戴设备 |
CN106920559A (zh) * | 2017-03-02 | 2017-07-04 | 奇酷互联网络科技(深圳)有限公司 | 通话音的优化方法、装置及通话终端 |
CN107016996A (zh) * | 2017-06-06 | 2017-08-04 | 广东小天才科技有限公司 | 一种音频数据的处理方法及装置 |
CN107393544A (zh) * | 2017-06-19 | 2017-11-24 | 维沃移动通信有限公司 | 一种语音信号修复方法及移动终端 |
US20180045982A1 (en) * | 2013-03-13 | 2018-02-15 | Kopin Corporation | Noise Cancelling Microphone Apparatus |
WO2018034446A1 (ko) * | 2016-08-19 | 2018-02-22 | 삼성전자 주식회사 | 전자장치, 이를 활용한 음성 신호의 노이즈 저감 방법 |
-
2018
- 2018-08-30 CN CN201811001365.0A patent/CN109120790B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180045982A1 (en) * | 2013-03-13 | 2018-02-15 | Kopin Corporation | Noise Cancelling Microphone Apparatus |
CN104427068A (zh) * | 2013-09-06 | 2015-03-18 | 中兴通讯股份有限公司 | 一种语音通话方法及装置 |
CN104092801A (zh) * | 2014-05-22 | 2014-10-08 | 中兴通讯股份有限公司 | 智能终端通话降噪方法及智能终端 |
US20160284349A1 (en) * | 2015-03-26 | 2016-09-29 | Binuraj Ravindran | Method and system of environment sensitive automatic speech recognition |
CN106486127A (zh) * | 2015-08-25 | 2017-03-08 | 中兴通讯股份有限公司 | 一种语音识别参数自动调整的方法、装置及移动终端 |
WO2018034446A1 (ko) * | 2016-08-19 | 2018-02-22 | 삼성전자 주식회사 | 전자장치, 이를 활용한 음성 신호의 노이즈 저감 방법 |
CN106791122A (zh) * | 2016-12-27 | 2017-05-31 | 广东小天才科技有限公司 | 一种可穿戴设备的通话控制方法及可穿戴设备 |
CN106920559A (zh) * | 2017-03-02 | 2017-07-04 | 奇酷互联网络科技(深圳)有限公司 | 通话音的优化方法、装置及通话终端 |
CN107016996A (zh) * | 2017-06-06 | 2017-08-04 | 广东小天才科技有限公司 | 一种音频数据的处理方法及装置 |
CN107393544A (zh) * | 2017-06-19 | 2017-11-24 | 维沃移动通信有限公司 | 一种语音信号修复方法及移动终端 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109671437A (zh) * | 2019-01-10 | 2019-04-23 | 广东小天才科技有限公司 | 一种音频处理方法、音频处理装置及终端设备 |
CN109949822A (zh) * | 2019-03-31 | 2019-06-28 | 联想(北京)有限公司 | 信号处理方法和电子设备 |
EP3737115A1 (en) * | 2019-05-06 | 2020-11-11 | GN Hearing A/S | A hearing apparatus with bone conduction sensor |
WO2020225294A1 (en) * | 2019-05-06 | 2020-11-12 | Gn Hearing A/S | A hearing apparatus with bone conduction sensor |
CN110445505A (zh) * | 2019-07-03 | 2019-11-12 | 深圳市百泰实业股份有限公司 | 一种应用于无线音频眼镜的指向性外放方法 |
US11810587B2 (en) | 2019-07-26 | 2023-11-07 | Hewlett-Packard Development Company, L.P. | Noise filtrations based on radar |
CN110705356A (zh) * | 2019-08-31 | 2020-01-17 | 深圳市大拿科技有限公司 | 功能控制方法及相关设备 |
CN110705356B (zh) * | 2019-08-31 | 2023-12-29 | 深圳市大拿科技有限公司 | 功能控制方法及相关设备 |
CN112911062B (zh) * | 2019-12-02 | 2023-06-23 | 中兴通讯股份有限公司 | 语音处理方法、控制装置、终端设备和存储介质 |
CN112911062A (zh) * | 2019-12-02 | 2021-06-04 | 中兴通讯股份有限公司 | 语音处理方法、控制装置、终端设备和存储介质 |
CN113253797A (zh) * | 2020-02-07 | 2021-08-13 | 阿里巴巴集团控股有限公司 | 数据处理系统、方法、装置、电子设备以及可穿戴设备 |
CN113748688A (zh) * | 2020-06-10 | 2021-12-03 | 深圳市大疆创新科技有限公司 | 无人飞行器录音方法、装置、芯片、无人飞行器、系统 |
CN114979358A (zh) * | 2021-02-20 | 2022-08-30 | 深圳市万普拉斯科技有限公司 | 一种情景模式切换方法、移动终端及可穿戴设备 |
CN113098901A (zh) * | 2021-04-29 | 2021-07-09 | 心动互动娱乐有限公司 | 高并发的实时语音通话方法、系统、设备及介质 |
CN113542963B (zh) * | 2021-07-21 | 2022-12-20 | RealMe重庆移动通信有限公司 | 声音模式控制方法、装置、电子设备及存储介质 |
CN113542963A (zh) * | 2021-07-21 | 2021-10-22 | RealMe重庆移动通信有限公司 | 声音模式控制方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN109120790B (zh) | 2021-01-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109120790A (zh) | 通话控制方法、装置、存储介质及穿戴式设备 | |
CN109446876A (zh) | 手语信息处理方法、装置、电子设备和可读存储介质 | |
CN109240639A (zh) | 音频数据的获取方法、装置、存储介质及终端 | |
CN109116991A (zh) | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 | |
CN109040462A (zh) | 行程提醒方法、装置、存储介质及穿戴式设备 | |
CN109254659A (zh) | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 | |
EP3923198A1 (en) | Method and apparatus for processing emotion information | |
CN110070863A (zh) | 一种语音控制方法及装置 | |
CN109259724A (zh) | 一种用眼监控方法、装置、存储介质及穿戴式设备 | |
CN109119080A (zh) | 声音识别方法、装置、穿戴式设备及存储介质 | |
CN109255064A (zh) | 信息搜索方法、装置、智能眼镜及存储介质 | |
CN109743504A (zh) | 一种辅助拍照方法、移动终端和存储介质 | |
CN109360549A (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN109407858A (zh) | 一种智能眼镜 | |
CN109224432A (zh) | 娱乐应用的操控方法、装置、存储介质及穿戴式设备 | |
CN109068126B (zh) | 视频播放方法、装置、存储介质及穿戴式设备 | |
CN109358744A (zh) | 信息共享方法、装置、存储介质及穿戴式设备 | |
CN109238306A (zh) | 基于穿戴式设备的计步数据校验方法、装置、存储介质及终端 | |
CN109257490A (zh) | 音频处理方法、装置、穿戴式设备及存储介质 | |
CN109819167A (zh) | 一种图像处理方法、装置和移动终端 | |
CN108874130A (zh) | 播放控制方法及相关产品 | |
CN109036410A (zh) | 语音识别方法、装置、存储介质及终端 | |
CN109241900A (zh) | 穿戴式设备的控制方法、装置、存储介质及穿戴式设备 | |
TW202347096A (zh) | 用於受損使用者或具備殘疾的使用者之智慧眼鏡介面 | |
US20230239800A1 (en) | Voice Wake-Up Method, Electronic Device, Wearable Device, and System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |