CN110138654B - 用于处理语音的方法和装置 - Google Patents

用于处理语音的方法和装置 Download PDF

Info

Publication number
CN110138654B
CN110138654B CN201910490608.XA CN201910490608A CN110138654B CN 110138654 B CN110138654 B CN 110138654B CN 201910490608 A CN201910490608 A CN 201910490608A CN 110138654 B CN110138654 B CN 110138654B
Authority
CN
China
Prior art keywords
voice
original
segment
speech
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910490608.XA
Other languages
English (en)
Other versions
CN110138654A (zh
Inventor
唐婉骐
康佳美
曾丽霞
周轶景
谢寒梅
朱丽娜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910490608.XA priority Critical patent/CN110138654B/zh
Publication of CN110138654A publication Critical patent/CN110138654A/zh
Priority to US16/711,310 priority patent/US11488603B2/en
Application granted granted Critical
Publication of CN110138654B publication Critical patent/CN110138654B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser
    • G10L13/0335Pitch control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/043Time compression or expansion by changing speed
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • G10L21/057Time compression or expansion for improving intelligibility
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/04Real-time or near real-time messaging, e.g. instant messaging [IM]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/10Multimedia information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L51/00User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail
    • H04L51/07User-to-user messaging in packet-switching networks, transmitted according to store-and-forward or real-time protocols, e.g. e-mail characterised by the inclusion of specific contents
    • H04L51/18Commands or executable codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Telephonic Communication Services (AREA)

Abstract

本申请实施例公开了用于处理语音的方法和装置。该方法的一具体实施方式包括:获取原始语音;对原始语音进行语音识别,得到原始语音对应的原始文本;将原始语音中的语音片段与原始文本中的文本片段关联;识别原始语音和/或原始文本的异常片段;对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,生成最终语音。该实施方式将原始语音中的语音片段与原始文本中的文本片段关联,实现了语音的可视化处理。同时,避免了由于语音录制过程中出现异常状况而需要重新录制的问题,从而提高了语音录制效率。

Description

用于处理语音的方法和装置
技术领域
本申请实施例涉及计算机技术领域,具体涉及用于处理语音的方法和装置。
背景技术
即时通讯(Instant Message,IM)是目前互联网上最为流行的通讯方式,能够实现即时发送和接收信息。目前大部分的移动终端都安装有即时通讯应用。即时通讯应用支持文字、图片、语音、视频等格式的信息的交互。对于语音交互,通常是发送用户录制语音,并直接发送给接收用户。
然而,在语音录制过程中,不可避免地会出现异常状况,例如,发送用户存在语言表达缺陷(如说话磕巴),发送用户在语音录制过程中停下来思考说话的内容等。当出现异常状况时,通常需要发送用户重新录制语音,再发送给接收用户。
发明内容
本申请实施例提出了用于处理语音的方法和装置。
第一方面,本申请实施例提供了一种用于处理语音的方法,包括:获取原始语音;对原始语音进行语音识别,得到原始语音对应的原始文本;将原始语音中的语音片段与原始文本中的文本片段关联;识别原始语音和/或原始文本的异常片段;对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,生成最终语音。
在一些实施例中,对原始语音进行语音识别,得到原始语音对应的原始文本,包括:当原始语音中存在空白语音片段和/或拖长音语音片段时,将空白语音片段识别成第一预设符号,和/或将拖长音语音片段识别成第二预设符号。
在一些实施例中,空白语音片段是原始语音中声音强度小于预设强度,不包含人声特征声波,并且持续时长大于第一预设时长的语音片段,拖长音语音片段是原始语音中声音强度不小于预设强度,不包含语义内容,并且持续时长大于第二预设时长的语音片段。
在一些实施例中,将空白语音片段识别成第一预设符号,和/或将拖长音语音片段识别成第二预设符号,包括:基于空白语音片段的时长与第一预设时长的比值,确定将空白语音片段识别成的第一预设符号的数量;和/或基于拖长音语音片段的时长与第二预设时长的比值,确定将拖长音语音片段识别成的第二预设符号的数量。
在一些实施例中,对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,生成最终语音,包括:删除原始文本中的异常片段指示的文本片段的至少部分,以及同步删除原始语音中的、与所删除的文本片段的至少部分关联的语音片段的至少部分,生成最终语音。
在一些实施例中,删除原始文本中的异常片段指示的文本片段的至少部分,包括:当原始文本中存在第一预设符号和/或第二预设符号时,将第一预设符号和/或第二预设符号从原始文本中删除;当原始文本中存在连续重复出现次数超过预设次数的词语时,将除预设位置之外的词语从原始文本中删除。
在一些实施例中,在生成最终语音之后,还包括:对最终语音进行平滑处理。
在一些实施例中,对最终语音进行平滑处理,包括:基于最终语音的语音特征,确定最终语音对应的方言类别;基于最终语音对应的方言类别,矫正最终语音中的音节,以及调整最终语音的重音。
在一些实施例中,对最终语音进行平滑处理,包括:基于最终语音的音量和重音,确定最终语音对应的情绪级别;基于最终语音对应的情绪级别,调整最终语音的语速、音调和重音。
在一些实施例中,该方法还包括:响应于检测到对原始文本中的文本片段的至少部分的修订操作,同步修订原始语音中的、与所修订的文本片段的至少部分关联的语音片段的至少部分。
在一些实施例中,原始语音是即时通讯应用中的第一用户发送的;以及该方法还包括:将最终语音发送至即时通讯应用的服务器,以使即时通讯应用的服务器将最终语音发送给即时通讯应用的第二用户。
第二方面,本申请实施例提供了一种用于处理语音的装置,包括:获取单元,被配置成获取原始语音;第一识别单元,被配置成对原始语音进行语音识别,得到原始语音对应的原始文本;关联单元,被配置成将原始语音中的语音片段与原始文本中的文本片段关联;第二识别单元,被配置成识别原始语音和/或原始文本的异常片段;处理单元,被配置成对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,生成最终语音。
在一些实施例中,第一识别单元进一步被配置成:当原始语音中存在空白语音片段和/或拖长音语音片段时,将空白语音片段识别成第一预设符号,和/或将拖长音语音片段识别成第二预设符号。
在一些实施例中,空白语音片段是原始语音中声音强度小于预设强度,不包含人声特征声波,并且持续时长大于第一预设时长的语音片段,拖长音语音片段是原始语音中声音强度不小于预设强度,不包含语义内容,并且持续时长大于第二预设时长的语音片段。
在一些实施例中,第一识别单元进一步被配置成:基于空白语音片段的时长与第一预设时长的比值,确定将空白语音片段识别成的第一预设符号的数量;和/或基于拖长音语音片段的时长与第二预设时长的比值,确定将拖长音语音片段识别成的第二预设符号的数量。
在一些实施例中,处理单元进一步被配置成:删除原始文本中的异常片段指示的文本片段的至少部分,以及同步删除原始语音中的、与所删除的文本片段的至少部分关联的语音片段的至少部分,生成最终语音。
在一些实施例中,处理单元进一步被配置成:当原始文本中存在第一预设符号和/或第二预设符号时,将第一预设符号和/或第二预设符号从原始文本中删除;当原始文本中存在连续重复出现次数超过预设次数的词语时,将除预设位置之外的词语从原始文本中删除。
在一些实施例中,该装置还包括:平滑单元,被配置成对最终语音进行平滑处理。
在一些实施例中,平滑单元进一步被配置成:基于最终语音的语音特征,确定最终语音对应的方言类别;基于最终语音对应的方言类别,矫正最终语音中的音节,以及调整最终语音的重音。
在一些实施例中,平滑单元进一步被配置成:基于最终语音的音量和重音,确定最终语音对应的情绪级别;基于最终语音对应的情绪级别,调整最终语音的语速、音调和重音。
在一些实施例中,该装置还包括:修订单元,被配置成响应于检测到对原始文本中的文本片段的至少部分的修订操作,同步修订原始语音中的、与所修订的文本片段的至少部分关联的语音片段的至少部分。
在一些实施例中,原始语音是即时通讯应用中的第一用户发送的;以及该装置还包括:发送单元,被配置成将最终语音发送至即时通讯应用的服务器,以使即时通讯应用的服务器将最终语音发送给即时通讯应用的第二用户。
第三方面,本申请实施例提供了一种终端设备,该终端设备包括:一个或多个处理器;存储装置,其上存储有一个或多个程序;当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现如第一方面中任一实现方式描述的方法。
第四方面,本申请实施例提供了一种计算机可读介质,其上存储有计算机程序,该计算机程序被处理器执行时实现如第一方面中任一实现方式描述的方法。
本申请实施例提供的用于处理语音的方法和装置,首先对获取到的原始语音进行语音识别,以得到原始语音对应的原始文本;之后将原始语音中的语音片段与原始文本中的文本片段关联;然后识别原始语音和/或原始文本的异常片段;最后对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,以生成最终语音。将原始语音中的语音片段与原始文本中的文本片段关联,实现了语音的可视化处理。同时,避免了由于语音录制过程中出现异常状况而需要重新录制的问题,从而提高了语音录制效率。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请可以应用于其中的示例性系统架构;
图2是根据本申请的用于处理语音的方法的一个实施例的流程图;
图3是根据本申请的用于处理语音的方法的又一个实施例的流程图;
图4A是输入界面中的原始语音和原始文本的示意图;
图4B是原始语音和原始文本的处理过程的示意图;
图4C是输入界面中的最终语音和最终文本的示意图;
图4D是聊天界面中的最终语音的示意图;
图5是根据本申请的用于处理语音的装置的一个实施例的结构示意图;
图6是适于用来实现本申请实施例的终端设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
图1示出了可以应用本申请的用于处理语音的方法或用于处理语音的装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括设备101、102、103和网络104。网络104用以在设备101、102和设备103之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
设备101、102、103可以是支持网络连接从而提供各种网络服务的硬件设备或软件。当设备为硬件时,其可以是各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机、台式计算机和服务器等等。这时,作为硬件设备,其可以实现成多个设备组成的分布式设备群,也可以实现成单个设备。当设备为软件时,可以安装在上述所列举的电子设备中。这时,作为软件,其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
在实践中,设备可以通过安装相应的客户端应用或服务端应用来提供相应的网络服务。设备在安装了客户端应用之后,其可以在网络通信中体现为客户端。相应地,在安装了服务端应用之后,其可以在网络通信中体现为服务端。
作为示例,在图1中,设备101、102体现为客户端,而设备103体现为服务端。具体地,设备101、102可以是安装有即时通讯应用的客户端,设备103可以是即时通讯应用的服务器。设备101可以获取原始语音;对原始语音进行语音识别,得到原始语音对应的原始文本;将原始语音中的语音片段与原始文本中的文本片段关联;识别原始语音和/或原始文本的异常片段;对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,生成最终语音;将最终语音发送至设备103。设备103可以将最终语音发送给设备102。
需要说明的是,本申请实施例所提供的用于处理语音的方法可以由设备101执行。
应该理解,图1中的网络和设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的网络和设备。
继续参考图2,其示出了根据本申请的用于处理语音的方法的一个实施例的流程200。该用于处理语音的方法,包括以下步骤:
步骤201,获取原始语音。
在本实施例中,用于处理语音的方法的执行主体(例如图1所示的设备101)可以获取原始语音。通常,上述执行主体具有语音录制功能,以录制原始语音。
步骤202,对原始语音进行语音识别,得到原始语音对应的原始文本。
在本实施例中,上述执行主体可以对原始语音进行语音识别,以得到原始语音对应的原始文本。通常,上述执行主体可以提取原始语音的特征向量,并利用识别引擎对原始语音的特征向量进行识别,以得到原始语音对应的原始文本。
在本实施例的一些可选的实现方式中,当原始语音中存在空白语音片段和/或拖长音语音片段时,上述执行主体可以将空白语音片段识别成第一预设符号(例如省略号),和/或将拖长音语音片段识别成第二预设符号(例如长横线)。通常,上述执行主体可以利用声学模型识别原始语音中的空白语音片段和/或拖长音语音片段。其中,空白语音片段可以是原始语音中声音强度小于预设强度(例如15分贝),不包含人声特征声波,并且持续时长大于第一预设时长(例如1秒)的语音片段。拖长音语音片段可以是原始语音中声音强度不小于预设强度,不包含语义内容,并且持续时长大于第二预设时长(例如0.5秒)的语音片段。
在本实施例的一些可选的实现方式中,上述执行主体可以基于空白语音片段的时长与第一预设时长的比值,确定将空白语音片段识别成的第一预设符号的数量;和/或基于拖长音语音片段的时长与第二预设时长的比值,确定将拖长音语音片段识别成的第二预设符号的数量。例如,空白语音片段中的每1秒识别成一个省略号。拖长音语音片段中的每0.5秒识别成一个长横线。
步骤203,将原始语音中的语音片段与原始文本中的文本片段关联。
在本实施例中,上述执行主体可以将原始语音中的语音片段与原始文本中的文本片段关联。通常,上述执行主体可以将原始语音切割成帧,以得到多个语音片段,并将每个语音片段与原始原本中对应的文本片段关联。这样,只要处理原始语音和原始文本之一,原始语音和原始文本均会被同步处理。
步骤204,识别原始语音和/或原始文本的异常片段。
在本实施例中,上述执行主体可以识别原始语音和/或原始文本中的异常片段。其中,异常片段可以包括但不限于以下至少一项:空白片段、重复片段、拖长音片段等等。
步骤205,对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,生成最终语音。
在本实施例中,上述执行主体可以对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,以生成最终语音。例如,上述执行主体可以首先删除原始文本中的异常片段指示的文本片段的至少部分,生成最终文本;然后对最终文本进行语音合成,生成最终语音。
本申请实施例提供的用于处理语音的方法,首先对获取到的原始语音进行语音识别,以得到原始语音对应的原始文本;之后将原始语音中的语音片段与原始文本中的文本片段关联;然后识别原始语音和/或原始文本的异常片段;最后对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,以生成最终语音。将原始语音中的语音片段与原始文本中的文本片段关联,实现了语音的可视化处理。同时,避免了由于语音录制过程中出现异常状况而需要重新录制的问题,从而提高了语音录制效率。
进一步参考图3,其示出了根据本申请的用于处理语音的方法的又一个实施例的流程300。该用于处理语音的方法,包括以下步骤:
步骤301,获取即时通讯应用中的第一用户发送的原始语音。
在本实施例中,用于处理语音的方法的执行主体(例如图1所示的设备101)可以获取即时通讯应用中的第一用户发送的原始语音。其中,上述执行主体可以安装有即时通讯应用。
步骤302,对原始语音进行语音识别,得到原始语音对应的原始文本。
步骤303,将原始语音中的语音片段与原始文本中的文本片段关联。
步骤304,识别原始语音和/或原始文本的异常片段。
在本实施例中,步骤302-304的具体操作已在图2所示的实施例中步骤202-204中进行了详细的介绍,在此不再赘述。
步骤305,删除原始文本中的异常片段指示的文本片段的至少部分,以及同步删除原始语音中的、与所删除的文本片段的至少部分关联的语音片段的至少部分,生成最终语音。
在本实施例中,上述执行主体可以删除原始文本中的异常片段指示的文本片段的至少部分。由于原始语音中的语音片段与原始文本中的文本片段关联。当删除原始文本中的异常片段指示的文本片段的至少部分时,上述执行主体会同步删除原始语音中的、与所删除的文本片段的至少部分关联的语音片段的至少部分。随后,上述执行主体可以基于删除处理后的原始语音,生成最终语音。通常,当异常片段是空白片段或拖长音片段时,上述执行主体删除原始文本中的异常片段指示的文本片段,并同步删除原始语音中的、与所删除的文本片段关联的语音片段。当异常片段是重复片段时,上述执行主体删除原始文本中的异常片段指示的文本片段的部分,并同步删除原始语音中的、与所删除的文本片段的部分关联的语音片段的部分。
在本实施例的一些可选的实现方式中,当原始文本中存在第一预设符号和/或第二预设符号时,说明原始文本中存在空白文本片段和/或拖长音文本片段。此时,上述执行主体可以将第一预设符号和/或第二预设符号从原始文本中删除。
在本实施例的一些可选的实现方式中,当原始文本中存在连续重复出现次数超过预设次数(例如4次)的词语时,说明原始文本中存在重复文本片段。此时,上述执行主体可以将除预设位置(例如重复文本片段中的最后一个词语)之外的词语从原始文本中删除。
在本实施例的一些可选的实现方式中,响应于检测到对原始文本中的文本片段的至少部分的修订操作,上述执行主体会同步修订原始语音中的、与所修订的文本片段的至少部分关联的语音片段的至少部分。
步骤306,对最终语音进行平滑处理。
在本实施例中,上述执行主体可以对最终语音进行平滑处理,以使最终语音更加自然。
在本实施例的一些可选的实现方式中,上述执行主体可以首先基于最终语音的语音特征,确定最终语音对应的方言类别;然后基于最终语音对应的方言类别,矫正最终语音中的音节,以及调整最终语音的重音。通常,上述执行主体可以将最终语音的语音特征与方言库中的各种类别的方言的语音特征进行匹配,并基于匹配结果确定最终语音对应的方言类别。
在本实施例的一些可选的实现方式中,上述执行主体可以首先基于最终语音的音量和重音,确定最终语音对应的情绪级别;然后基于最终语音对应的情绪级别,调整最终语音的语速、音调和重音。通常,情绪级别越高,语速越快、重音越多、声音强度越强。例如,情绪级别可以被划分为5个等级。对于第1等级的情绪级别,其语速为正常语速的0.5倍,重音最少,声音强度比正常声音强度低10%。对于第3等级的情绪级别,其语速为正常语速,重音数量适中,声音强度为正常声音强度。对于第5等级的情绪级别,其语速为正常语速的1.5倍,重音数量最多,声音强度比正常声音强度高10%。
步骤307,将最终语音发送至即时通讯应用的服务器,以使即时通讯应用的服务器将最终语音发送给即时通讯应用的第二用户。
在本实施例中,上述执行主体可以将最终语音发送至即时通讯应用的服务器(例如图1所示的设备103)。这样,即时通讯应用的服务器可以将最终语音发送给即时通讯应用的第二用户。
本申请实施例还提供了用于处理语音的方法的一个应用场景。在该应用场景中,用户A和用户B的手机上安装有即时通讯应用。用户A的手机运行即时通讯应用,打开与用户B的聊天会话页。其中,聊天会话页包括输入界面和聊天界面。用户A点击语音录制控件,录制第一用户发送的原始语音。同时,对原始语音进行语音识别,得到原始语音对应的原始文本。这里,原始语音中的空白语音片段被识别成了省略号。原始语音中的语音片段与原始文本中的文本片段关联。具体如图4A所示,其示出了输入界面中的原始语音和原始文本的示意图。随后,用户A点击智能优化控件,识别原始文本中的异常片段。并删除原始文本中的异常片段指示的文本片段的至少部分,以及同步删除原始语音中的、与所删除的文本片段的至少部分关联的语音片段的至少部分。具体如图4B所示,其示出了原始语音和原始文本的处理过程的示意图。然后,用户点击优化完成控件,生成最终语音和最终文本。具体如图4C所示,其示出了输入界面中的最终语音和最终文本的示意图。最后,用户点击发送控件,将最终语音发送至即时通讯应用的服务器。即时通讯应用的服务器将最终语音发送给用户B。此时,用户A和用户B的聊天界面中均会显示最终语音。具体如图4D所示,其输出了聊天界面中的最终语音的示意图。
从图3中可以看出,与图2对应的实施例相比,本实施例中的用于处理语音的方法的流程300突出了处理步骤。由此,本实施例描述的方案在删除原始文本中的内容时,同步删除原始语音中的相应内容,实现了语音的可视化处理。并且,对通过同步删除相应内容的原始语音而得到的最终语音进行平滑处理,使最终语音更加自然。此外,将用于处理语音的方法应用在即时通讯应用的语音交互过程中,提高了沟通效率。
进一步参考图5,作为对上述各图所示方法的实现,本申请提供了一种用于处理语音的装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的用于处理语音的装置500可以包括:获取单元501、第一识别单元502、关联单元503、第二识别单元504和处理单元505。其中,获取单元501,被配置成获取原始语音;第一识别单元502,被配置成对原始语音进行语音识别,得到原始语音对应的原始文本;关联单元503,被配置成将原始语音中的语音片段与原始文本中的文本片段关联;第二识别单元504,被配置成识别原始语音和/或原始文本的异常片段;处理单元505,被配置成对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,生成最终语音。
在本实施例中,用于处理语音的装置500中:获取单元501、第一识别单元502、关联单元503、第二识别单元504和处理单元505的具体处理及其所带来的技术效果可分别参考图2对应实施例中的步骤201、步骤202、步骤203、步骤204和步骤205的相关说明,在此不再赘述。
在本实施例的一些可选的实现方式中,第一识别单元502进一步被配置成:当原始语音中存在空白语音片段和/或拖长音语音片段时,将空白语音片段识别成第一预设符号,和/或将拖长音语音片段识别成第二预设符号。
在本实施例的一些可选的实现方式中,空白语音片段是原始语音中声音强度小于预设强度,不包含人声特征声波,并且持续时长大于第一预设时长的语音片段,拖长音语音片段是原始语音中声音强度不小于预设强度,不包含语义内容,并且持续时长大于第二预设时长的语音片段。
在本实施例的一些可选的实现方式中,第一识别单元502进一步被配置成:基于空白语音片段的时长与第一预设时长的比值,确定将空白语音片段识别成的第一预设符号的数量;和/或基于拖长音语音片段的时长与第二预设时长的比值,确定将拖长音语音片段识别成的第二预设符号的数量。
在本实施例的一些可选的实现方式中,处理单元505进一步被配置成:删除原始文本中的异常片段指示的文本片段的至少部分,生成最终文本;对最终文本进行语音合成,生成最终语音。
在本实施例的一些可选的实现方式中,处理单元505进一步被配置成:删除原始文本中的异常片段指示的文本片段的至少部分,以及同步删除原始语音中的、与所删除的文本片段的至少部分关联的语音片段的至少部分,生成最终语音。
在本实施例的一些可选的实现方式中,处理单元505进一步被配置成:当原始文本中存在第一预设符号和/或第二预设符号时,将第一预设符号和/或第二预设符号从原始文本中删除;当原始文本中存在连续重复出现次数超过预设次数的词语时,将除预设位置之外的词语从原始文本中删除。
在本实施例的一些可选的实现方式中,用于处理语音的装置500还包括:平滑单元(图中未示出),被配置成对最终语音进行平滑处理。
在本实施例的一些可选的实现方式中,平滑单元进一步被配置成:基于最终语音的语音特征,确定最终语音对应的方言类别;基于最终语音对应的方言类别,矫正最终语音中的音节,以及调整最终语音的重音。
在本实施例的一些可选的实现方式中,平滑单元进一步被配置成:基于最终语音的音量和重音,确定最终语音对应的情绪级别;基于最终语音对应的情绪级别,调整最终语音的语速、音调和重音。
在本实施例的一些可选的实现方式中,用于处理语音的装置500还包括:修订单元(图中未示出),被配置成响应于检测到对原始文本中的文本片段的至少部分的修订操作,同步修订原始语音中的、与所修订的文本片段的至少部分关联的语音片段的至少部分。
在本实施例的一些可选的实现方式中,原始语音是即时通讯应用中的第一用户发送的;以及用于处理语音的装置500还包括:发送单元(图中未示出),被配置成将最终语音发送至即时通讯应用的服务器,以使即时通讯应用的服务器将最终语音发送给即时通讯应用的第二用户。
下面参考图6,其示出了适于用来实现本申请实施例的终端设备(例如图1所示的设备101)的计算机系统600的结构示意图。图6示出的终端设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读介质或者是上述两者的任意组合。计算机可读介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如”C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或终端设备上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、第一识别单元、关联单元、第二识别单元和处理单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取原始语音的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的终端设备中所包含的;也可以是单独存在,而未装配入该终端设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该终端设备执行时,使得该终端设备:获取原始语音;对原始语音进行语音识别,得到原始语音对应的原始文本;将原始语音中的语音片段与原始文本中的文本片段关联;识别原始语音和/或原始文本的异常片段;对原始文本中的异常片段指示的文本片段和/或原始语音中的异常片段指示的语音片段进行处理,生成最终语音。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种用于处理语音的方法,包括:
获取原始语音;
对所述原始语音进行语音识别,得到所述原始语音对应的原始文本;
将所述原始语音中的语音片段与所述原始文本中的文本片段关联;
识别所述原始文本的异常片段;
对所述原始文本中的所述异常片段指示的文本片段和/或所述原始语音中的所述异常片段指示的语音片段进行处理,生成最终语音;
对所述最终语音进行平滑处理,包括:基于所述最终语音的音量和重音,确定所述最终语音对应的情绪级别;基于所述最终语音对应的情绪级别,调整所述最终语音的语速、音调和重音,其中,所述语速、所述音调的强度以及所述重音的数量均与所述情绪级别成正比。
2.根据权利要求1所述的方法,其中,所述对所述原始语音进行语音识别,得到所述原始语音对应的原始文本,包括:
当所述原始语音中存在空白语音片段和/或拖长音语音片段时,将所述空白语音片段识别成第一预设符号,和/或将所述拖长音语音片段识别成第二预设符号。
3.根据权利要求2所述的方法,其中,所述空白语音片段是所述原始语音中声音强度小于预设强度,不包含人声特征声波,并且持续时长大于第一预设时长的语音片段,所述拖长音语音片段是所述原始语音中声音强度不小于所述预设强度,不包含语义内容,并且持续时长大于第二预设时长的语音片段。
4.根据权利要求3所述的方法,其中,所述将所述空白语音片段识别成第一预设符号,和/或将所述拖长音语音片段识别成第二预设符号,包括:
基于所述空白语音片段的时长与所述第一预设时长的比值,确定将所述空白语音片段识别成的所述第一预设符号的数量;和/或基于所述拖长音语音片段的时长与所述第二预设时长的比值,确定将所述拖长音语音片段识别成的所述第二预设符号的数量。
5.根据权利要求4所述的方法,其中,所述对所述原始文本中的所述异常片段指示的文本片段和/或所述原始语音中的所述异常片段指示的语音片段进行处理,生成最终语音,包括:
删除所述原始文本中的所述异常片段指示的文本片段的至少部分,以及同步删除所述原始语音中的、与所删除的文本片段的至少部分关联的语音片段的至少部分,生成最终语音。
6.根据权利要求5所述的方法,其中,所述删除所述原始文本中的所述异常片段指示的文本片段的至少部分,包括:
当所述原始文本中存在所述第一预设符号和/或所述第二预设符号时,将所述第一预设符号和/或所述第二预设符号从所述原始文本中删除;
当所述原始文本中存在连续重复出现次数超过预设次数的词语时,将除预设位置之外的所述词语从所述原始文本中删除。
7.根据权利要求1所述的方法,其中,所述对所述最终语音进行平滑处理,包括:
基于所述最终语音的语音特征,确定所述最终语音对应的方言类别;
基于所述最终语音对应的方言类别,矫正所述最终语音中的音节,以及调整所述最终语音的重音。
8.根据权利要求5所述的方法,其中,所述方法还包括:
响应于检测到对所述原始文本中的文本片段的至少部分的修订操作,同步修订所述原始语音中的、与所修订的文本片段的至少部分关联的语音片段的至少部分。
9.根据权利要求1-8之一所述的方法,其中,所述原始语音是即时通讯应用中的第一用户发送的;以及所述方法还包括:
将所述最终语音发送至所述即时通讯应用的服务器,以使所述即时通讯应用的服务器将所述最终语音发送给所述即时通讯应用的第二用户。
10.一种用于处理语音的装置,包括:
获取单元,被配置成获取原始语音;
第一识别单元,被配置成对所述原始语音进行语音识别,得到所述原始语音对应的原始文本;
关联单元,被配置成将所述原始语音中的语音片段与所述原始文本中的文本片段关联;
第二识别单元,被配置成识别所述原始文本的异常片段;
处理单元,被配置成对所述原始文本中的所述异常片段指示的文本片段和/或所述原始语音中的所述异常片段指示的语音片段进行处理,生成最终语音;
平滑单元,被配置成对所述最终语音进行平滑处理;
其中,所述平滑单元进一步被配置成:基于所述最终语音的音量和重音,确定所述最终语音对应的情绪级别;基于所述最终语音对应的情绪级别,调整所述最终语音的语速、音调和重音,其中,所述语速、所述音调的强度以及所述重音的数量均与所述情绪级别成正比。
11.一种终端设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-9中任一所述的方法。
12.一种计算机可读介质,其上存储有计算机程序,其中,所述计算机程序被处理器执行时实现如权利要求1-9中任一所述的方法。
CN201910490608.XA 2019-06-06 2019-06-06 用于处理语音的方法和装置 Active CN110138654B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910490608.XA CN110138654B (zh) 2019-06-06 2019-06-06 用于处理语音的方法和装置
US16/711,310 US11488603B2 (en) 2019-06-06 2019-12-11 Method and apparatus for processing speech

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910490608.XA CN110138654B (zh) 2019-06-06 2019-06-06 用于处理语音的方法和装置

Publications (2)

Publication Number Publication Date
CN110138654A CN110138654A (zh) 2019-08-16
CN110138654B true CN110138654B (zh) 2022-02-11

Family

ID=67580558

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910490608.XA Active CN110138654B (zh) 2019-06-06 2019-06-06 用于处理语音的方法和装置

Country Status (2)

Country Link
US (1) US11488603B2 (zh)
CN (1) CN110138654B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110910863B (zh) * 2019-11-29 2023-01-31 上海依图信息技术有限公司 从音频文件中提取有声片段的方法、装置设备及存储介质
CN111145754B (zh) * 2019-12-12 2021-04-13 深圳追一科技有限公司 语音输入方法、装置、终端设备及存储介质
US11817117B2 (en) * 2021-01-29 2023-11-14 Nvidia Corporation Speaker adaptive end of speech detection for conversational AI applications

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103543979A (zh) * 2012-07-17 2014-01-29 联想(北京)有限公司 一种输出语音的方法、语音交互的方法及电子设备
CN103811012A (zh) * 2012-11-07 2014-05-21 联想(北京)有限公司 一种语音处理方法以及一种电子设备
CN104157301A (zh) * 2014-07-25 2014-11-19 广州三星通信技术研究有限公司 删除语音信息空白片段的方法、装置和终端
CN106357929A (zh) * 2016-11-10 2017-01-25 努比亚技术有限公司 一种基于语音文件的预览方法和移动终端
CN106373558A (zh) * 2015-07-24 2017-02-01 科大讯飞股份有限公司 语音识别文本处理方法及系统
CN109524027A (zh) * 2018-12-11 2019-03-26 平安科技(深圳)有限公司 语音处理方法、装置、计算机设备及存储介质
CN109801648A (zh) * 2018-12-11 2019-05-24 平安科技(深圳)有限公司 消息弹窗语音编辑方法、装置、计算机设备及存储介质

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0728487A (ja) * 1993-03-26 1995-01-31 Texas Instr Inc <Ti> 音声認識方法
GB9709341D0 (en) * 1997-05-08 1997-06-25 British Broadcasting Corp Method of and apparatus for editing audio or audio-visual recordings
US6453292B2 (en) * 1998-10-28 2002-09-17 International Business Machines Corporation Command boundary identifier for conversational natural language
JP3771812B2 (ja) * 2001-05-28 2006-04-26 インターナショナル・ビジネス・マシーンズ・コーポレーション ロボットおよびその制御方法
JP4048473B2 (ja) * 2002-03-15 2008-02-20 ソニー株式会社 音声処理装置および音声処理方法、並びにプログラムおよび記録媒体
JP2003295882A (ja) * 2002-04-02 2003-10-15 Canon Inc 音声合成用テキスト構造、音声合成方法、音声合成装置及びそのコンピュータ・プログラム
US7319959B1 (en) * 2002-05-14 2008-01-15 Audience, Inc. Multi-source phoneme classification for noise-robust automatic speech recognition
US20040197750A1 (en) * 2003-04-01 2004-10-07 Donaher Joseph G. Methods for computer-assisted role-playing of life skills simulations
US7437290B2 (en) * 2004-10-28 2008-10-14 Microsoft Corporation Automatic censorship of audio data for broadcast
CN101578659B (zh) * 2007-05-14 2012-01-18 松下电器产业株式会社 音质转换装置及音质转换方法
CN101465825B (zh) * 2008-12-31 2012-07-11 阿里巴巴集团控股有限公司 即时通信的方法、即时通信服务器、语音服务器及系统
US20110144993A1 (en) * 2009-12-15 2011-06-16 Disfluency Group, LLC Disfluent-utterance tracking system and method
US10002608B2 (en) * 2010-09-17 2018-06-19 Nuance Communications, Inc. System and method for using prosody for voice-enabled search
US8571873B2 (en) * 2011-04-18 2013-10-29 Nuance Communications, Inc. Systems and methods for reconstruction of a smooth speech signal from a stuttered speech signal
JP5853458B2 (ja) * 2011-07-21 2016-02-09 ソニー株式会社 マーク情報記録装置及びマーク情報提示装置
US8744854B1 (en) * 2012-09-24 2014-06-03 Chengjun Julian Chen System and method for voice transformation
CN103903627B (zh) * 2012-12-27 2018-06-19 中兴通讯股份有限公司 一种语音数据的传输方法及装置
US10579835B1 (en) * 2013-05-22 2020-03-03 Sri International Semantic pre-processing of natural language input in a virtual personal assistant
CN103647880B (zh) * 2013-12-13 2015-11-18 南京丰泰通信技术股份有限公司 一种带有电话转译电文功能的电话机
EP2887351A1 (en) * 2013-12-18 2015-06-24 Karlsruher Institut für Technologie Computer-implemented method, computer system and computer program product for automatic transformation of myoelectric signals into audible speech
US20190312973A1 (en) * 2014-02-28 2019-10-10 Ultratec, Inc. Semiautomated relay method and apparatus
WO2016043322A1 (ja) * 2014-09-19 2016-03-24 株式会社コティレドン・テクノロジー 音声合成方法、プログラム及び装置
GB2531508A (en) * 2014-10-15 2016-04-27 British Broadcasting Corp Subtitling method and system
US10387573B2 (en) * 2015-06-01 2019-08-20 AffectLayer, Inc. Analyzing conversations to automatically identify customer pain points
US10394963B2 (en) * 2015-10-22 2019-08-27 International Business Machines Corporation Natural language processor for providing natural language signals in a natural language output
US10943596B2 (en) * 2016-02-29 2021-03-09 Panasonic Intellectual Property Management Co., Ltd. Audio processing device, image processing device, microphone array system, and audio processing method
US10244113B2 (en) * 2016-04-26 2019-03-26 Fmr Llc Determining customer service quality through digitized voice characteristic measurement and filtering
US10073842B2 (en) * 2016-06-15 2018-09-11 International Business Machines Corporation Culturally-aware cognitive system for human interactions
US10777201B2 (en) * 2016-11-04 2020-09-15 Microsoft Technology Licensing, Llc Voice enabled bot platform
JP6585022B2 (ja) * 2016-11-11 2019-10-02 株式会社東芝 音声認識装置、音声認識方法およびプログラム
US10416846B2 (en) * 2016-11-12 2019-09-17 Google Llc Determining graphical element(s) for inclusion in an electronic communication
US10304447B2 (en) * 2017-01-25 2019-05-28 International Business Machines Corporation Conflict resolution enhancement system
US10332520B2 (en) * 2017-02-13 2019-06-25 Qualcomm Incorporated Enhanced speech generation
US10347244B2 (en) * 2017-04-21 2019-07-09 Go-Vivace Inc. Dialogue system incorporating unique speech to text conversion method for meaningful dialogue response
CN108629313B (zh) * 2018-05-04 2022-04-08 河北省科学院应用数学研究所 情绪调节方法、装置、系统以及计算机存储介质
US10872604B2 (en) * 2018-05-17 2020-12-22 Qualcomm Incorporated User experience evaluation
US10847153B2 (en) * 2018-06-06 2020-11-24 Amazon Technologies, Inc. Temporary account association with voice-enabled devices
KR20200034039A (ko) * 2018-09-14 2020-03-31 엘지전자 주식회사 로봇 및 그 동작 방법
US20200193264A1 (en) * 2018-12-14 2020-06-18 At&T Intellectual Property I, L.P. Synchronizing virtual agent behavior bias to user context and personality attributes
EP3921833A1 (en) * 2019-04-05 2021-12-15 Google LLC Joint automatic speech recognition and speaker diarization
US11245950B1 (en) * 2019-04-24 2022-02-08 Amazon Technologies, Inc. Lyrics synchronization
US11062706B2 (en) * 2019-04-29 2021-07-13 Microsoft Technology Licensing, Llc System and method for speaker role determination and scrubbing identifying information
CN112349266A (zh) * 2019-08-09 2021-02-09 深圳Tcl数字技术有限公司 一种语音编辑方法及相关设备

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103543979A (zh) * 2012-07-17 2014-01-29 联想(北京)有限公司 一种输出语音的方法、语音交互的方法及电子设备
CN103811012A (zh) * 2012-11-07 2014-05-21 联想(北京)有限公司 一种语音处理方法以及一种电子设备
CN104157301A (zh) * 2014-07-25 2014-11-19 广州三星通信技术研究有限公司 删除语音信息空白片段的方法、装置和终端
CN106373558A (zh) * 2015-07-24 2017-02-01 科大讯飞股份有限公司 语音识别文本处理方法及系统
CN106357929A (zh) * 2016-11-10 2017-01-25 努比亚技术有限公司 一种基于语音文件的预览方法和移动终端
CN109524027A (zh) * 2018-12-11 2019-03-26 平安科技(深圳)有限公司 语音处理方法、装置、计算机设备及存储介质
CN109801648A (zh) * 2018-12-11 2019-05-24 平安科技(深圳)有限公司 消息弹窗语音编辑方法、装置、计算机设备及存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
"自动清除录音文件中的空白段";lianglingxu314;《百度文库,http://wenku.baidu.com/view/dc93f6160b4e767f5acfceda.html》;20101112;第1-4页 *

Also Published As

Publication number Publication date
US11488603B2 (en) 2022-11-01
US20200388283A1 (en) 2020-12-10
CN110138654A (zh) 2019-08-16

Similar Documents

Publication Publication Date Title
US10679631B2 (en) Generating chat bots from web API specifications
CN107733722B (zh) 用于配置语音服务的方法和装置
US10824664B2 (en) Method and apparatus for providing text push information responsive to a voice query request
CN110138654B (zh) 用于处理语音的方法和装置
CN107481715B (zh) 用于生成信息的方法和装置
CN107705782B (zh) 用于确定音素发音时长的方法和装置
US11120802B2 (en) Diarization driven by the ASR based segmentation
CN109920431B (zh) 用于输出信息的方法和装置
US11750898B2 (en) Method for generating target video, apparatus, server, and medium
CN112364144B (zh) 交互方法、装置、设备和计算机可读介质
US20180301139A1 (en) Social Networking with Assistive Technology Device
JP7182584B2 (ja) スピーチ理解における解析異常の情報を出力するための方法
KR102184053B1 (ko) 대사를 캐릭터별 상이한 목소리로 변환하여 전달하는 웹툰 동영상 생성 방법
WO2022237448A1 (zh) 语音识别训练集的生成方法及装置
CN107608718B (zh) 信息处理方法和装置
CN112652329B (zh) 文本重对齐方法、装置、电子设备和存储介质
CN113761865A (zh) 声文重对齐及信息呈现方法、装置、电子设备和存储介质
CN112306560B (zh) 用于唤醒电子设备的方法和装置
CN113744712A (zh) 智能外呼语音拼接方法、装置、设备、介质和程序产品
CN113221514A (zh) 文本处理方法、装置、电子设备和存储介质
CN113593519A (zh) 文本的语音合成方法、系统、装置、设备及存储介质
CN109658920B (zh) 用于生成模型的方法和装置
US20220164841A1 (en) Advertisement metadata communicated with multimedia content
CN113779372A (zh) 一种用户群画像的建立方法和装置
CN113781994A (zh) 训练集生成方法、装置、电子设备和计算机可读介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant