CN113724709A - 文本内容匹配方法、装置、电子设备及存储介质 - Google Patents

文本内容匹配方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113724709A
CN113724709A CN202111016289.2A CN202111016289A CN113724709A CN 113724709 A CN113724709 A CN 113724709A CN 202111016289 A CN202111016289 A CN 202111016289A CN 113724709 A CN113724709 A CN 113724709A
Authority
CN
China
Prior art keywords
sentence
processed
target
text
matched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111016289.2A
Other languages
English (en)
Inventor
蒋泳森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Zitiao Network Technology Co Ltd
Original Assignee
Beijing Zitiao Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Zitiao Network Technology Co Ltd filed Critical Beijing Zitiao Network Technology Co Ltd
Priority to CN202111016289.2A priority Critical patent/CN113724709A/zh
Publication of CN113724709A publication Critical patent/CN113724709A/zh
Priority to PCT/CN2022/111140 priority patent/WO2023029904A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开实施例公开了一种文本内容匹配方法、装置、电子设备及存储介质,该方法包括:在采集到待处理语音信息时,确定与待处理语音信息相对应的待处理声学特征;基于音频跟随方法对待处理声学特征进行处理,得到与待处理声学特征相对应的待匹配语句;确定待匹配语句在目标文本中所关联的目标语句,并将目标语句在目标文本中区别显示。本公开实施例的技术方案,解决了现有技术中提词器仅仅起到展示播报文本,无法对用户进行有效提示,导致提示效果不佳的问题,实现了在目标用户播报的过程中,采集播报用户的语音信息,并根据语音信息确定其在播报文本中的具体位置,并将其区别显示在提词器上,达到了提词器可以智能跟随播报用户的技术效果。

Description

文本内容匹配方法、装置、电子设备及存储介质
技术领域
本公开实施例涉及计算机技术领域,尤其涉及一种文本内容匹配方法、装置、电子设备及存储介质。
背景技术
目前,在用户进行播报时,多是基于提词器来实现的。
现有的提词器多是起展示播报文本的作用,可选的,滚动显示播报文本,此时存在提词器展示内容过快或过慢,导致播报用户无法及时跟随的问题;同时,播报用户在基于播报文本进行播报,存在串行等问题,引起播报效果不佳的问题。
发明内容
本公开提供一种文本内容匹配方法、装置、电子设备及存储介质,以根据采集的待处理语音信息,确定其在目标文本中的具体句子,并将其区别显示,实现提词器提示的内容智能跟随用户,提高了提示效果。
第一方面,本公开实施例提供了一种文本内容匹配方法,该方法包括:
在采集到待处理语音信息时,
确定与所述待处理语音信息相对应的待处理声学特征;
基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句;
确定所述待匹配语句在所述目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
第二方面,本公开实施例还提供了一种文本内容匹配装置,该装置包括:
声学特征确定模块,用于在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征;
待匹配文本确定模块,用于基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句;
区别显示模块,用于确定所述待匹配语句在所述目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
第三方面,本公开实施例提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本公开实施例任一所述的文本内容匹配方法。
第四方面,本公开实施例还提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如本公开实施例任一所述的文本内容匹配方法。
本公开实施例的技术方案,通过在采集到待处理语音信息时,可以确定待处理语音信息相对应的待处理声学特征,并将声学特征输入至与目标文本相对应的解码器和/或关键词检测系统后,可以得到与待处理声学特征相对应的待匹配文本,同时,可以确定待匹配文本在目标文本中的具体句子,解决了现有技术中提词器仅仅起到展示播报文本,无法对用户进行有效提示,导致提示效果不佳的问题,实现了在目标用户语音的过程中,采集目标用户的语音信息,并确定该语音信息在目标文本中所对应的目标语句,同时,将其区别显示在提词器上,达到了提词器可以智能跟随目标用户,进而提高交互效率的技术效果。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1为本公开实施例一所提供的一种文本内容匹配方法流程示意图;
图2为本公开实施例二所提供的一种文本内容匹配方法流程示意图;
图3为本公开实施例三所提供的一种文本内容匹配装置结构示意图;
图4为本公开实施例四所提供的一种电子设备结构示意图;
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。【序数词】
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
在介绍本技术方案之前,可以先对本技术方案的应用场景进行示例性说明。可以将本技术方案应用在提词器中,也可以应用在任意需要进行播报文本提示的场景中。例如,在各直播场景中,用户可以根据预先编辑好的播报文本进行播报,此时,可以将播报文本显示在显示界面上,同时,可以采集用户的语音信息,并确定语音信息在播报文本中的具体位置,并对其进行区别显示,以实现智能跟随以及使用体验的效果。
实施例一
图1为本公开实施例一所提供的一种文本内容匹配方法流程示意图,本公开实施例可适用于在互联网支持的实时互动场景或非实时互动场景中,需要智能跟随目标用户的语音内容在目标文本的具体位置的情形。该方法可以由文本内容匹配装置来执行,该装置可以通过软件和/或硬件的形式实现,可选的,通过电子设备来实现,该电子设备可以是移动终端、PC端或服务端等。实时互动应用场景通常可由客户端和服务端来配合实现,本实施例所提供的方法,可以由客户端来执行,也可以由服务端来执行,或两者配合执行。
S110、在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征。
需要说明的是,如果需要借助文本在各种实时互动场景或非实时互动场景中进行互动时,将借助的文本作为目标文本。在基于目标文本进行播报时,可以先将目标文本上传至目标终端,以通过目标终端将上传的播报文本显示在显示界面上。目标终端可以是移动终端,也可以提词器所对应的应用程序。
在用户基于显示界面上显示的播报文本进行播报时,为了能够起到很好的提示效果,可以动态语音和目标文本内容跟随,即,在用户语音播报时,可以根据播报用户的语音信息确定其在播报文本中的具体位置,并将其区别显示。
其中,在播报用户发出语音时,基于语音采集装置,可选的,语音采集装置可以是移动终端上的麦克风阵列,也可以是播报用户所处环境中的麦克风阵列可以采集播报用户的语音信息,将此时采集到的语音信息作为待处理语音信息。
具体的,在用户基于移动终端上显示的文本内容进行播报,或者,基于提词器上的播报文本进行播报时,设置在移动终端或者播报用户所处现场的麦克风阵列,可以采集目标用户的语音信息,得到待处理语音信息。进一步的,可以对语音信息进行特征提取,得到与待处理语音信息相对应的声学特征。
在基于播报文本进行播报之前,可以将播报文本上传至移动终端,或者上传到至提词器,从而使待播报文本可以显示在移动终端或者提词器所对应的显示设备上。
可选的,上传所述目标文本,以在采集到待处理语音信息时,确定所述待处理语音信息所对应的待匹配文本在所述目标文本中的目标语句。
其中,可以将播报用户将要播报的文本作为目标文本。
可以理解为,在采集待处理语音信息之前,可以先将播报的文本上传至服务器或者终端,进而将其显示在显示界面上,用户可以基于显示界面上显示的目标文本进行播报。
在本实施例中,所述在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征,包括:在用户基于实时互动界面互动时,采集目标用户的待处理语音信息;基于音频特征提取算法对所述待处理语音信息进行特征提取,得到所述待处理声学特征。
其中,实时互动界面是基于计算机技术生成的页面。
具体的,在用户基于实时互动界面进行互动时,如果目标用户发出了语音,则可以采集目标用户的待处理语音信息,同时,可以基于音频特征提取算法提取待处理语音信息中的声学特征。
S120、基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句。
其中,音频跟随方法可以理解为对待处理语音信息的声学特征进行处理,从而得到与语音信息相对应的语句的方法,即确定语音信息所对应的文字的方法。
在本实施例中,基于音频跟随方法对待处理声学特征进行处理,可以是:基于音频跟随方法中的解码器和/或关键词检测系统对待处理声学特征进行处理。
为了清楚的介绍如何根据解码器和/或关键词检测系统对待处理声学特征进行处理,可以参见下述具体实施方式:
可选的,根据所述音频跟随方法中的声学模型对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的声学后验概率;基于所述声学后验概率和所述音频跟随方法中与目标文本相对应的解码器,确定与所述待处理声学特征相对应的第一待确定语句,和与所述第一待确定语句相对应的第一置信度;其中,所述解码器是根据与所述目标文本相对应的插值语言模型确定,所述插值语言模型是根据与目标文本相对应的目标语言模型和普通语言模型确定的;在所述第一置信度满足预设置信度阈值的条件下,将所述第一待确定语句作为所述待匹配语句。
其中,可以根据目标文本的具体内容来生成相应的解码器,即与不同的目标文本来说,与其相对应的解码器不同。关键词检测系统是对目标文本处理后,得到的包括目标文本中所有词汇的系统。
在本实施例中,可以仅基于音频跟随算法中的解码器对待处理语音信息进行处理。先通过声学模型对待处理声学特征进行处理,得到与待处理声学特征相对应的声学后验概率。将声学后验概率作为解码器的输入,得到与该声学后验概率相对应的第一待确定语句,以及第一待确定文本的第一置信度。置信度用于表征第一待确定语句的准确性。在实际应用中,如果第一置信度达到预设置信度阈值,则说明第一待确定语句的准确性是比较高的,可以将第一待确定语句作为待匹配语句。
在上述技术方案的基础上,如果仅用关键词检测系统对待处理声学特征进行处理,可以是:基于所述音频跟随方法中的关键词检测系统和所述待处理声学特征,确定与所述待处理声学特征相对应的第二待确定语句和与所述第二待确定语句相对应的第二置信度;其中,所述关键词检测系统与所述目标文本相匹配;在所述第二置信度满足预设置信度阈值的条件下,将所述第二待确定语句作为所述待匹配语句。
具体的,可以将待处理声学特征输入至关键词检测系统中,关键词检测系统可以输出与待处理声学特征相对应的第二待确定语句,以及第二待确定语句的第二置信度。如果第二置信度值高于预设置信度阈值,则说明第二待确定语句是较为准确的,此时,可以将第二待确定语句作为待匹配语句。
当然,为了提高确定出的待匹配语句的准确性,可以基于解码器和关键词检测系统共同对待处理声学特征进行处理,从而确定与待处理声学特征相对应的待匹配语句。
可选的,在所述音频跟随方法中包括关键词检测系统和所述解码器,且分别基于所述解码器和关键词检测系统对所述待处理声学特征进行处理,得到第一待确定语句和第二待确定语句的条件下,根据所述第一待确定语句的第一置信度和所述第二待确定语句的第二置信度,确定所述待匹配语句。可以理解为,可以基于解码器和关键词检测系统分别对待处理声学特征进行处理,得到与该待处理声学特征相对应的第一待确定语句和第二待确定语句。同时,也可以得到第一待确定语句和第二待确定语句的置信度。需要说明的是,第一待确定语句和第二待确定语句的内容可以相同,也可以不同,相应的,第一置置信度与第二置信度也可以相同,也可以不同。
具体的,如果第一待确定语句和第二待确定语句相同,且第一置信度和第二置信度均高于预设置信度阈值,则可以将第一待确定语句或第二待确定语句中的任意一个文本内容作为待匹配语句。如果第一待确定语句和第二待确定语句内容不同,且第一置信度和第二置信度均高于易俗河置信度阈值,则可以将置信度较高时所对应的文本作为待匹配语句。如果第一待确定语句和第二待确定语句内容不同,且置信度均低于预设置信度阈值,则说明目标用户当前所说的内容与目标文本中的内容无关,可以不用确定当前语音信息在目标文本中的具体句子。
S130、确定所述待匹配语句在所述目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
其中,目标文本中可以包括多个语句,可以将与待匹配语句相一致的语句作为目标语句。也可以将与待处理语音信息相同内容语句的下一句或者下两句作为待处理语句。也可以是,当用户的语速较慢时,确定检测出的文字所对应的语句,并将该语句中未读的内容作为目标语句。如果应用场景为播报场景,为了便于目标用户确定当前播报的内容在目标文本中的具体位置,或者是,目标播报用户说了其他话后,继续播报目标文本中的内容时,可以快速确定当前已播报语句在目标文本中的具体位置,可以将目标语句在目标文本中区别显示。区别显示的好处在于,可以便于用户确定当前播报到了目标文本中的哪句话,同时,也可以快速确定该语句下一句话是什么,避免播报过程中串行的问题,提高了播报的便捷性的准确性的技术效果。
具体的,在确定待匹配语句后,可以依据待匹配语句去匹配目标文本中的每个句子,可以将匹配上的句子作为目标语句。同时,为了达到提醒用户的效果,可以将目标语句在目标文本中区别显示。
在上述技术方案的基础上,为了快速的确定待匹配语句在目标待播报文本中的目标语句,可以采用的方式是:如果当前时刻所述目标文本中包括区别显示的已播报语句,则以所述已播报语句为起始点,确定所述待匹配语句在所述目标文本中所对应的目标语句。
需要说明的是,在目标用户播报过程中,可以区分目标文本中已经播报过的语句和未播报过的语句。可选的,可以用不同的字体或者透明度显示已播报语句和未播报语句,如,可以将已播报文本透明度设置的高一点,以解决对未播报文本的干扰。在确定当前时刻的目标语句后,可以从已播报语句中的最后一句话为起始点,确定未播报语句中与待匹配语句相一致的语句,作为目标语句,并将该目标语句区别显示。
需要说明的,可以预先设置不同内容所对应的区别显示方式,即,区分已播报语句、未播报语句、目标语句的方式均可以不同,从而达到有效提醒播报用户的技术效果。
在实际应用过程中,为了进一步提高确定目标语句的效率,可以从已播报语句为起始点,并获取起始点之后预设数量的语句。可选的,获取起始点之后的三句话,可以将这三句话作为待配准未播报语句。如果待配准未播报语句中存在与待匹配语句相一致的语句,则可以将相一致时所对应的待配准未播报文本作为目标语句。如果待配准未播报文本中不包括待匹配语句,则说明目标文本中不包括待匹配语句。
在本实施例中,将目标语句区别显示,可以是:将所述目标语句高亮显示;或,将所述目标语句加粗显示;或,将除所述目标语句之外的其他语句以半透明的形式显示;其中,与所述目标语句相邻的预设数量的未播报文本的透明度低于其他待播报文本的透明度。
具体的,可以将目标语句高亮显示,以提示用户当前播报的为该句话;或者是,将目标语句加粗显示。亦或是,将目标语句之外的其他语句半透明显示,以避免其他语句显示时对目标用户播报造成干扰。通常,为了便于目标用户了解目标语句前后所对应的内容,可以将与目标语句相邻的预设数量的语句的透明度设置的低一点,以便目标用户在播报过程中,可以了解目标语句的前后文意思,从而提高播报用户的播报效率和使用体验。
本公开实施例的技术方案,通过在采集到待处理语音信息时,可以确定待处理语音信息相对应的待处理声学特征,并将声学特征输入至与目标文本相对应的解码器和/或关键词检测系统后,可以得到与待处理声学特征相对应的待匹配语句,同时,可以确定待匹配语句在目标文本中的具体句子,解决了现有技术中提词器仅仅起到展示播报文本,无法对用户进行有效提示,导致提示效果不佳的问题,实现了在目标用户播报的过程中,采集播报用户的语音信息,并确定该语音信息在播报文本中所对应的目标语句,并将其区别显示在提词器上,达到了提词器可以智能跟随播报用户,进而提高播报效果的技术效果。
实施例二
图2为本公开实施例二所提供的一种文本内容匹配方法流程示意图,,在前述实施例的基础上,可以先确定与目标文本相对应的解码器和关键词检测系统,进而基于解码器和关键词检测系统对待处理声学特征进行处理,其具体的实施方式可以参见本技术方案的详细阐述。其中,与上述实施例相同或者相应的技术术语在此不再赘述。
如图2所示,所述方法包括:
S210、确定与所述目标文本相对应的音频跟随方法。
在本实施例中,音频跟随方法中包括解码器和关键词检测系统。确定与目标文本相对应的解码器可以是:获取所述目标文本,并对所述目标文本分词处理,得到与所述目标文本相对应的至少一个播报词汇;基于所述至少一个播报词汇,得到待使用语言模型;基于所述待使用语言模型和通用语言模型,确定语言插值模型;通过加权有限状态转换机对所述语言插值模型进行动态构图,得到与所述目标文本相对应的解码器。
其中,可以采用现有的各种分词工具,例如,结巴分词,可以对目标文本进行分词处理,得到至少一个播报词汇。在得到各个播报词汇后,可以训练一个与目标文本相对应的待使用语言模型,此待使用语言模型可以为二分类模型。通用的语言模型为现有经常使用的语言模型。基于待使用语言模型和通用语言模型,可以得到语言插值模型。该语言插值模型可以确定目标用户在播报途中说的一些与目标文本无关的语音。采用加权有限转态机动态构图,可以得到与语言插值模型相对应的解码器。此时的解码器与目标文本高度相关。由于该解码器与目标文本高度相关联,因此,基于该解码器可以有效的确定待处理声学特征所对应的待匹配语句。
在本实施例中,确定与目标文本相对应的关键词检测系统,可以是:将所述目标文本划分为至少一个播报词汇;根据预先确定的分类规则,确定与所述至少一个播报词汇相对应的类别;基于与各类别所对应的播报词汇,生成所述关键词检测系统。
具体的,还是基于分词工具将目标文本划分为多个播报词汇。可以将每个词汇都作为一个关键词。预先设置的分类规则可以是如何将关键词进行归类。在确定归类的类别后,可以确定每个类别所对应的播报词汇,进而基于每个类别的播报词汇生成关键词检测系统。
S220、在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征。
S230、基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句。
具体的,在基于麦克风阵列采集到目标用户的待处理语音信息后,即wav语音波形后,可以基于对语音音频特提取的方法提取得到声学特征。基于conformer声学模型对声学特征进行处理,可以得到声学后验概率。可以将声学后验概率输入至解码器中,可以得到第一待确定语句以及与第一待确定语句相对应的置信度。同时,可以将声学特征输入至关键词检测系统,得到与声学特征相对应的第二待确定语句以及与第二待确定语句相对应的置信度。通过对两个置信度所对应的待确定语句进行融合处理,如,将置信度较高的待确定语句,作为待匹配语句。
S240、确定所述待匹配语句在所述目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
具体的,可以从目标文本中当前已播报文本的最后一句为起始点,确定下一句文本是否与待匹配语句相一致,如果相一致,则确定下一句文本为目标语句。如果不一致,则确定下一句文本的下一句是否与待匹配语句相一致,如果相一致,则确定该语句为目标语句。反之,如果匹配不到与待匹配语句相一致的目标语句,则确定目标用户当前所说的话与目标文本无关,可以不做处理。
在上述技术方案的基础上,在确定目标语句的过程中,还包括:确定与所述目标语句所对应的实际语音时长;根据所述实际语音时长和所述目标文本中的未匹配语句,调整与所述未匹配语句相对应的预测语音时长;将所述预测语音时长显示在目标客户端上,以对所述目标用户进行提示。
其中,实际语音时长指的是目标用户说目标语句所使用的时长,例如,2S。预测语音时长指的是目标用户对后续未播报语句进行播报时所需要的时长。该预测播报时长为动态调整的,其调整的依据主要是根据目标用户的语速来确定的。语速的确定可以是根据目标语句所使用的实际语音时长,和目标语句所对应的字数,确定每个字所使用的时长。根据每个字所使用的时长以及后续未播报语句的总字数,可以确定后续对未播报语句进行播报时,所需要的时长。可以将未播报语句作为未匹配语句。
在实际应用过程中,为了起到及时提醒用户的效果,可以将预测语音时长显示在与目标用户相对应的目标客户端上。同时,目标用户也可以根据预测语音时长调整播报文本的语速,从而使播报时长与预设时长相一致,即可以在限定的时长内,将目标文本的内容播报完成。
需要说明的是,对于目标用户来说,播报每句话所使用的时长不同,相应的每个字所使用的时长也不相同,在目标用户播报的过程中,可以根据当前播报每个字所使用的时长动态调整预测语音时长。
在上述技术方案的基础上,所述方法还包括:当接收到所述目标文本时,对所述目标文本进行断句标注,并将断句标注标识显示在所述客户端上,以使用户基于所述断句标注标识阅读所述目标文本。
需要说明的是,随着视频拍摄的广泛普及,并不是每一个视频创作者都有机会接受专业的播音主持相关的培训,那么作为一个提词器或者应用程序,如果能帮助零播音基础视频创作者产出更高质量的口播视频的话,就变得更具普适性。对于各普通用户来说缺乏专业断词分析能力,面对输入的目标文本无法确定什么时候停顿,该什么样的情绪去处理每句播报文本。因此,本技术方案在达到上述技术效果的基础上,还设置有断句标注模型,以在上传目标文本后,可以对目标文本断词标注,并将断词标注结果显示在目标用户所使用的目标终端上,从而使用户基于断词标注播报目标文本,提高了播报目标文本的专业性。
其中,断句标注标识可以用“/”表示。如,如果需要长停顿可以用“--”表示,如果需要段停顿可以用“-”表示。如果两个字是需要连读的可用“()”表示等。同时,可以将断句标注标识显示在目标文本中,并将目标文本显示在目标终端上。
具体的,在将目标文本上传至与移动终端相对应的服务器后,可以对目标文本进行断词断句标注,以在目标用户播报时,可以一目了然的根据断词断句标注,确定如何进行播报,解决了现有技术需要人工来确定如何对播报文本内容进行断词断句标注,效率较低的问题。
在本实施例中,对目标文本进行断词断句标注,可以是基于预先训练的断词断句模型来实现的。
在上述技术方案的基础上,所述方法还包括:对所述目标文本中的已播报语句进行播报标记,以基于所述播报标记确定所述目标文本中的已播报语句和未播报语句。
具体的,在用户播报的过程中,可以对目标文本中的已播报语句和未播报语句用不同颜色进行标记,以使目标用户在播报过程中很好的区分已播报语句和未播报语句。同时,还可以将目标内容进行区别显示,可以达到明确提示目标用户当前已读的内容和即将要读的内容,解决了目标用户在播报文本的过程中出现串行的问题。
在上述技术方案的基础上,所述方法还包括:当接收到上传的所述目标文本时,基于预先训练的情感标注模型对所述目标文本中的各个语句进行情感标注,以使用户基于所述情感标注播报所述目标文本。即,当接收到所述目标文本时,对所述目标文本中的各个语句进行情感标注,并将情感标注标识显示在客户端上,以使用户基于所述情感标注标识阅读所述目标文本。
需要说明的是,对于普通用户来说,除了不知道在目标文本的具体位置进行停顿之外,通常,也不清楚该使用何种情感色彩播报文本,此时,在接收到上传的目标文本后,可以对目标文本进行预处理。如,可以对目标文本中的每句话进行情感色彩分析,并对分析出来的每句话进行表情标注,以便用户基于情感色彩标记,播报目标文本中的具体内容,解决了目前呆板阅读稿件的问题。
本公开实施例的技术方案,通过对已上传的目标文本进行分词处理,得到与目标文本相对应的解码器和关键词检测系统,从而基于解码器和关键词检测系统对提取的声学特征进行处理,可以确定用户当前所说的是否为目标文本中内容,进而将其进行区别显示,实现了区别显示的文本可以智能根据主播用户的效果,同时,为了提高播报的效果,可以对目标文本进行断词断句标注,以及情感标注,以使用户可以根据显示的断词断句标注和情感标注播报文本,实现了对播报文本进行播报的立体性。
实施例三
图3为本公开实施例三所提供的一种文本内容匹配装置结构示意图,,可执行本公开任意实施例所提供的文本内容匹配方法,具备执行方法相应的功能模块和有益效果。如图3所示,所述方法包括:声学特征确定模块310、待匹配文本确定模块320以及区别显示模块330。
其中,声学特征确定模块310,用于在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征;待匹配文本确定模块320,用于基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句;区别显示模块330,用于确定所述待匹配语句在所述目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
在上述技术方案的基础上,所述装置还包括:播报文本上传模块,用于上传所述目标文本,以在采集到待处理语音信息时,确定所述待处理语音信息所对应的待匹配语句在所述目标文本中所关联的目标语句。
在上述技术方案的基础上,所述声学特征确定模块,包括:
语音信息采集单元,用于在用户基于实时互动界面互动时,采集目标用户的待处理语音信息;
声学特征确定单元,用于基于音频特征提取算法对所述待处理语音信息进行特征提取,得到所述待处理声学特征。
在上述技术方案的基础上,所述待匹配文本确定模块,包括:
声学后验概率确定单元,用于根据所述音频跟随方法中的声学模型对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的声学后验概率;第一置信度确定单元,用于基于所述声学后验概率和所述音频跟随方法中与目标文本相对应的解码器,确定与所述待处理声学特征相对应的第一待确定语句,和与所述第一待确定语句相对应的第一置信度;其中,所述解码器是根据与所述目标文本相对应的插值语言模型确定,所述插值语言模型是根据与目标文本相对应的目标语言模型和普通语言模型确定的;
待匹配文本确定单元,用于在所述第一置信度满足预设置信度阈值的条件下,将所述第一待确定语句作为所述待匹配语句。
在上述技术方案的基础上,所述待匹配语句确定模块,包括:
第二置信度确定单元,用于基于所述音频跟随方法中的关键词检测系统和所述待处理声学特征,确定与所述待处理声学特征相对应的第二待确定语句和与所述第二待确定语句相对应的第二置信度;其中,所述关键词检测系统与所述目标文本相匹配;待匹配语句确定单元,用于在所述第二置信度满足预设置信度阈值的条件下,将所述第二待确定语句作为所述待匹配语句。
在上述技术方案的基础上,所述待匹配语句确定模块,还用于在所述音频跟随方法中包括关键词检测系统和所述解码器,且分别基于所述解码器和关键词检测系统对所述待处理声学特征进行处理,得到第一待确定语句和第二待确定语句的条件下,根据所述第一待确定语句的第一置信度和所述第二待确定语句的第二置信度,确定所述待匹配语句。
在上述技术方案的基础上,所述装置还包括:解码器确定模块,用于确定与所述目标文本相对应的解码器;
具体用于:获取所述目标文本,并对所述目标文本分词处理,得到与所述目标文本相对应的至少一个播报词汇;
基于所述至少一个播报词汇,得到待使用语言模型;
基于所述待使用语言模型和通用语言模型,确定语言插值模型;
通过加权有限状态转换机对所述语言插值模型进行动态构图,得到与所述目标文本相对应的解码器。
在上述技术方案的基础上,所述装置还包括:检测系统确定模块,用于:
将所述目标文本划分为至少一个播报词汇;
根据预先确定的分类规则,确定与所述至少一个播报词汇相对应的类别;
基于与各类别所对应的播报词汇,生成所述关键词检测系统。
在上述技术方案的基础上,区别显示模块,用于如果当前时刻所述目标文本中包括区别显示的已播报语句,则以所述已播报语句为起始点,确定所述待匹配文本在所述目标文本中所对应的目标语句。
在上述技术方案的基础上,区别显示模块,用于将所述已播报文本为起始点,确定所述起始点之后预设数量的待配准未播报语句;
如果所述待配准未播报语句中存在与所述待匹配语句相一致的语句,则将与所述待匹配语句相对应的待配准未播报文本作为所述目标语句。
在上述技术方案的基础上,区别显示模块,用于将所述目标语句高亮显示;或,将所述目标语句加粗显示;或,将除所述目标语句之外的其他语句以半透明的形式显示;其中,与所述目标语句相邻的预设数量的未播报文本的透明度低于其他待播报文本的透明度。
在上述技术方案的基础上,区别显示模块,还用于确定与所述目标语句所对应的实际语音时长;根据所述实际语音时长和所述目标文本中的未匹配语句,调整与所述未匹配语句相对应的预测语音时长;将所述预测语音时长显示在目标客户端上,以对所述目标用户进行提示。
在上述技术方案的基础上,所述装置还包括:断句标注模块,用于当接收到所述目标文本时,对所述目标文本进行断句标注,并将断句标注标识显示在所述客户端上,以使用户基于所述断句标注标识阅读所述目标文本。在上述技术方案的基础上,所述装置还包括:情感标注模块,用于当接收到所述目标文本时,对所述目标文本中的各个语句进行情感标注,并将情感标注标识显示在客户端上,以使用户基于所述情感标注标识阅读所述目标文本。
本公开实施例的技术方案,通过在采集到待处理语音信息时,可以确定待处理语音信息相对应的待处理声学特征,并将声学特征输入至与目标文本相对应的解码器和/或关键词检测系统后,可以得到与待处理声学特征相对应的待匹配文本,同时,可以确定待匹配文本在目标文本中的具体句子,解决了现有技术中提词器仅仅起到展示播报文本,无法对用户进行有效提示,导致提示效果不佳的问题,实现了在目标用户播报的过程中,采集播报用户的语音信息,并确定该语音信息在播报文本中所对应的目标语句,并将其区别显示在提词器上,达到了提词器可以智能跟随播报用户,进而提高播报效果的技术效果。
值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本公开实施例的保护范围。
实施例四
图4为本公开实施例四所提供的一种电子设备结构示意图。下面参考图4,其示出了适于用来实现本公开实施例的电子设备(例如图4中的终端设备或服务器)400的结构示意图。本公开实施例中的终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图4示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400可以包括处理装置(例如中央处理器、图形处理器等)401,其可以根据存储在只读存储器(ROM)402中的程序或者从存储装置406加载到随机访问存储器(RAM)403中的程序而执行各种适当的动作和处理。在RAM 403中,还存储有电子设备400操作所需的各种程序和数据。处理装置401、ROM 402以及RAM 403通过总线404彼此相连。编辑/输出(I/O)接口405也连接至总线404。
通常,以下装置可以连接至I/O接口405:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的编辑装置406;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置407;包括例如磁带、硬盘等的存储装置406;以及通信装置409。通信装置409可以允许电子设备400与其他设备进行无线或有线通信以交换数据。虽然图4示出了具有各种装置的电子设备400,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置409从网络上被下载和安装,或者从存储装置406被安装,或者从ROM 402被安装。在该计算机程序被处理装置401执行时,执行本公开实施例的方法中限定的上述功能。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
本公开实施例提供的电子设备与上述实施例提供的文本内容匹配方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
实施例五
本公开实施例提供了一种计算机存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述实施例所提供的文本内容匹配方法。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征;
基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句;
确定所述待匹配语句在所述目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
根据本公开的一个或多个实施例,【示例一】提供了一种文本内容匹配方法,该方法包括:
在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征;
基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句;
确定所述待匹配语句在所述目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
根据本公开的一个或多个实施例,【示例二】提供了一种文本内容匹配方法,该方法包括:
上传所述目标文本,以在采集到待处理语音信息时,确定所述待处理语音信息所对应的待匹配语句在所述目标文本中所关联的目标语句。
根据本公开的一个或多个实施例,【示例三】提供了一种文本内容匹配方法,该方法包括:
可选的,所述在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征,包括:
在用户基于实时互动界面互动时,采集目标用户的待处理语音信息;
基于音频特征提取算法对所述待处理语音信息进行特征提取,得到所述待处理声学特征。
根据本公开的一个或多个实施例,【示例四】提供了一种文本内容匹配方法,该方法包括:
可选的,所
所述基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句,包括:
根据所述音频跟随方法中的声学模型对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的声学后验概率;
基于所述声学后验概率和所述音频跟随方法中与目标文本相对应的解码器,确定与所述待处理声学特征相对应的第一待确定语句,和与所述第一待确定语句相对应的第一置信度;其中,所述解码器是根据与所述目标文本相对应的插值语言模型确定,所述插值语言模型是根据与目标文本相对应的目标语言模型和普通语言模型确定的;
在所述第一置信度满足预设置信度阈值的条件下,将所述第一待确定语句作为所述待匹配语句。
根据本公开的一个或多个实施例,【示例五】提供了一种文本内容匹配方法,该方法包括:
可选的,所述基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句,包括:
基于所述音频跟随方法中的关键词检测系统和所述待处理声学特征,确定与所述待处理声学特征相对应的第二待确定语句和与所述第二待确定语句相对应的第二置信度;其中,所述关键词检测系统与所述目标文本相匹配;
在所述第二置信度满足预设置信度阈值的条件下,将所述第二待确定语句作为所述待匹配语句。
根据本公开的一个或多个实施例,【示例六】提供了一种文本内容匹配方法,该方法包括:
可选的,所述基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句,包括:
在所述音频跟随方法中包括关键词检测系统和所述解码器,且分别基于所述解码器和关键词检测系统对所述待处理声学特征进行处理,得到第一待确定语句和第二待确定语句的条件下,根据所述第一待确定语句的第一置信度和所述第二待确定语句的第二置信度,确定所述待匹配语句。根据本公开的一个或多个实施例,【示例七】提供了一种文本内容匹配方法,该方法包括:
可选的,确定与所述目标文本相对应的解码器;
所述确定与所述目标文本相对应的解码器,包括:
获取所述目标文本,并对所述目标文本分词处理,得到与所述目标文本相对应的至少一个播报词汇;
基于所述至少一个播报词汇,得到待使用语言模型;
基于所述待使用语言模型和通用语言模型,确定语言插值模型;
通过加权有限状态转换机对所述语言插值模型进行动态构图,得到与所述目标文本相对应的解码器。
根据本公开的一个或多个实施例,【示例八】提供了一种文本内容匹配方法,该方法包括:
可选的,将所述目标文本划分为至少一个播报词汇;
根据预先确定的分类规则,确定与所述至少一个播报词汇相对应的类别;
基于与各类别所对应的播报词汇,生成所述关键词检测系统。
根据本公开的一个或多个实施例,【示例九】提供了一种文本内容匹配方法,该方法包括:
可选的,所述将所述目标语句区别显示,包括:
将所述目标语句高亮显示;或,
将所述目标语句加粗显示;或,
将除所述目标语句之外的其他语句以半透明的形式显示;其中,与所述目标语句相邻的预设数量的未匹配语句的透明度低于其他未匹配语句的透明度。
根据本公开的一个或多个实施例,【示例十】提供了一种文本内容匹配方法,该方法包括:
可选的,所述确定所述待匹配文本在所述目标文本中对应的目标语句,包括:
如果当前时刻所述目标文本中包括区别显示的已阅读语句,则以所述已阅读文本为起始点,确定所述待匹配文本在所述目标文本中所关联的目标语句。
根据本公开的一个或多个实施例,【示例十一】提供了一种文本内容匹配方法,该方法包括:
可选的,所述以所述已阅读语句为起始点,确定所述待匹配文本在所述目标文本中关联的目标语句,包括:
将所述已阅读语句为起始点,确定所述起始点之后预设数量的待配准未播报语句;
如果所述待配准未播报语句中存在与所述待匹配语句相一致的语句,则将与所述待匹配文本相对应的待配准未播报语句作为所述目标语句。
根据本公开的一个或多个实施例,【示例十二】提供了一种文本内容匹配方法,该方法包括:
可选的,确定与所述目标语句所对应的实际语音时长;
根据所述实际语音时长和所述目标文本中的未匹配语句,调整与所述未匹配语句相对应的预测语音时长;
将所述预测语音时长显示在目标客户端上,以对所述目标用户进行提示。
根据本公开的一个或多个实施例,【示例十三】提供了一种文本内容匹配方法,该方法包括:
可选的,当接收到所述目标文本时,对所述目标文本进行断句标注,并将断句标注标识显示在所述客户端上,以使用户基于所述断句标注标识阅读所述目标文本。
根据本公开的一个或多个实施例,【示例十四】提供了一种文本内容匹配方法,该方法包括:
可选的,当接收到所述目标文本时,对所述目标文本中的各个语句进行情感标注,并将情感标注标识显示在客户端上,以使用户基于所述情感标注标识阅读所述目标文本。
根据本公开的一个或多个实施例,【示例十五】提供了一种文本内容匹配装置,该装置包括:
声学特征确定模块,用于在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征;
待匹配文本确定模块,用于基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句;
区别显示模块,用于确定所述待匹配语句在所述目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (13)

1.一种文本内容匹配方法,其特征在于,包括:
在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征;
基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句;
确定所述待匹配语句在目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
2.根据权利要求1所述的方法,其特征在于,还包括:
上传所述目标文本,以在采集到待处理语音信息时,确定所述待处理语音信息所对应的待匹配语句在所述目标文本中所关联的目标语句。
3.根据权利要求1所述的方法,其特征在于,所述在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征,包括:
在用户基于实时互动界面互动时,采集目标用户的待处理语音信息;
基于音频特征提取算法对所述待处理语音信息进行特征提取,得到所述待处理声学特征。
4.根据权利要求1所述的方法,其特征在于,所述基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句,包括:
根据所述音频跟随方法中的声学模型对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的声学后验概率;
基于所述声学后验概率和所述音频跟随方法中与目标文本相对应的解码器,确定与所述待处理声学特征相对应的第一待确定语句,和与所述第一待确定语句相对应的第一置信度;其中,所述解码器是根据与所述目标文本相对应的插值语言模型确定,所述插值语言模型是根据与目标文本相对应的目标语言模型和普通语言模型确定的;
在所述第一置信度满足预设置信度阈值的条件下,将所述第一待确定语句作为所述待匹配语句。
5.根据权利要求1所述的方法,其特征在于,所述基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句,包括:
基于所述音频跟随方法中的关键词检测系统和所述待处理声学特征,确定与所述待处理声学特征相对应的第二待确定语句和与所述第二待确定语句相对应的第二置信度;其中,所述关键词检测系统与所述目标文本相匹配;
在所述第二置信度满足预设置信度阈值的条件下,将所述第二待确定语句作为所述待匹配语句。
6.根据权利要求1所述的方法,其特征在于,所述基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句,包括:
在所述音频跟随方法中包括关键词检测系统和解码器,且分别基于所述解码器和关键词检测系统对所述待处理声学特征进行处理,得到第一待确定语句和第二待确定语句的条件下,根据所述第一待确定语句的第一置信度和所述第二待确定语句的第二置信度,确定所述待匹配语句。
7.根据权利要求1所述的方法,其特征在于,所述将所述目标语句区别显示,包括:
将所述目标语句高亮显示;或,
将所述目标语句加粗显示;或,
将除所述目标语句之外的其他语句以半透明的形式显示;其中,与所述目标语句相邻的预设数量的未匹配语句的透明度低于其他未匹配语句的透明度。
8.根据权利要求1所述的方法,其特征在于,在确定目标语句的过程中,还包括:
确定与所述目标语句所对应的实际语音时长;
根据所述实际语音时长和所述目标文本中的未匹配语句,调整与所述未匹配语句相对应的预测语音时长;
将所述预测语音时长显示在目标客户端上,以对所述目标用户进行提示。
9.根据权利要求1所述的方法,其特征在于,还包括:
当接收到所述目标文本时,对所述目标文本进行断句标注,并将断句标注标识显示在客户端上,以使用户基于所述断句标注标识阅读所述目标文本。
10.根据权利要求1所述的方法,其特征在于,还包括:
当接收到所述目标文本时,对所述目标文本中的各个语句进行情感标注,并将情感标注标识显示在客户端上,以使用户基于所述情感标注标识阅读所述目标文本。
11.一种文本内容匹配装置,其特征在于,包括:
声学特征确定模块,用于在采集到待处理语音信息时,确定与所述待处理语音信息相对应的待处理声学特征;
待匹配文本确定模块,用于基于音频跟随方法对所述待处理声学特征进行处理,得到与所述待处理声学特征相对应的待匹配语句;
区别显示模块,用于确定所述待匹配语句在目标文本中所关联的目标语句,并将所述目标语句在所述目标文本中区别显示。
12.一种电子设备,其特征在于,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-10中任一所述的文本内容匹配方法。
13.一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-10中任一所述的文本内容匹配方法。
CN202111016289.2A 2021-08-31 2021-08-31 文本内容匹配方法、装置、电子设备及存储介质 Pending CN113724709A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202111016289.2A CN113724709A (zh) 2021-08-31 2021-08-31 文本内容匹配方法、装置、电子设备及存储介质
PCT/CN2022/111140 WO2023029904A1 (zh) 2021-08-31 2022-08-09 文本内容匹配方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111016289.2A CN113724709A (zh) 2021-08-31 2021-08-31 文本内容匹配方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN113724709A true CN113724709A (zh) 2021-11-30

Family

ID=78680071

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111016289.2A Pending CN113724709A (zh) 2021-08-31 2021-08-31 文本内容匹配方法、装置、电子设备及存储介质

Country Status (2)

Country Link
CN (1) CN113724709A (zh)
WO (1) WO2023029904A1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114554031A (zh) * 2022-03-07 2022-05-27 云知声智能科技股份有限公司 一种提词的方法、装置、终端及存储介质
CN114625857A (zh) * 2022-03-23 2022-06-14 南京硅基智能科技有限公司 一种提词器及英文文本跟踪方法、存储介质、电子设备
CN114900590A (zh) * 2022-03-23 2022-08-12 南京硅基智能科技有限公司 跟踪显示方法及提词器、电子设备、存储介质
WO2023029904A1 (zh) * 2021-08-31 2023-03-09 北京字跳网络技术有限公司 文本内容匹配方法、装置、电子设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104796584A (zh) * 2015-04-23 2015-07-22 南京信息工程大学 具有语音识别功能的提词装置
CN106910504A (zh) * 2015-12-22 2017-06-30 北京君正集成电路股份有限公司 一种基于语音识别的演讲提示方法及装置
CN110097870A (zh) * 2018-01-30 2019-08-06 阿里巴巴集团控股有限公司 语音处理方法、装置、设备和存储介质
CN110910918A (zh) * 2019-10-11 2020-03-24 广州优谷信息技术有限公司 一种字幕滚动控制方法、系统及装置
CN111179939A (zh) * 2020-04-13 2020-05-19 北京海天瑞声科技股份有限公司 语音转写方法、语音转写装置及计算机存储介质
CN111798846A (zh) * 2020-06-02 2020-10-20 厦门亿联网络技术股份有限公司 语音命令词识别方法、装置、会议终端及会议终端系统
CN112259101A (zh) * 2020-10-19 2021-01-22 腾讯科技(深圳)有限公司 语音关键词识别方法、装置、计算机设备和存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0965176A (ja) * 1995-08-21 1997-03-07 Fujitsu General Ltd プロンプタ装置
US9202465B2 (en) * 2011-03-25 2015-12-01 General Motors Llc Speech recognition dependent on text message content
CN114627863B (zh) * 2019-09-24 2024-03-22 腾讯科技(深圳)有限公司 一种基于人工智能的语音识别方法和装置
CN113724709A (zh) * 2021-08-31 2021-11-30 北京字跳网络技术有限公司 文本内容匹配方法、装置、电子设备及存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104796584A (zh) * 2015-04-23 2015-07-22 南京信息工程大学 具有语音识别功能的提词装置
CN106910504A (zh) * 2015-12-22 2017-06-30 北京君正集成电路股份有限公司 一种基于语音识别的演讲提示方法及装置
CN110097870A (zh) * 2018-01-30 2019-08-06 阿里巴巴集团控股有限公司 语音处理方法、装置、设备和存储介质
CN110910918A (zh) * 2019-10-11 2020-03-24 广州优谷信息技术有限公司 一种字幕滚动控制方法、系统及装置
CN111179939A (zh) * 2020-04-13 2020-05-19 北京海天瑞声科技股份有限公司 语音转写方法、语音转写装置及计算机存储介质
CN111798846A (zh) * 2020-06-02 2020-10-20 厦门亿联网络技术股份有限公司 语音命令词识别方法、装置、会议终端及会议终端系统
CN112259101A (zh) * 2020-10-19 2021-01-22 腾讯科技(深圳)有限公司 语音关键词识别方法、装置、计算机设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徐洁磐: "《人工智能导论 第2版》", 30 April 2021, 中国铁道出版社有限公司 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023029904A1 (zh) * 2021-08-31 2023-03-09 北京字跳网络技术有限公司 文本内容匹配方法、装置、电子设备及存储介质
CN114554031A (zh) * 2022-03-07 2022-05-27 云知声智能科技股份有限公司 一种提词的方法、装置、终端及存储介质
CN114625857A (zh) * 2022-03-23 2022-06-14 南京硅基智能科技有限公司 一种提词器及英文文本跟踪方法、存储介质、电子设备
CN114900590A (zh) * 2022-03-23 2022-08-12 南京硅基智能科技有限公司 跟踪显示方法及提词器、电子设备、存储介质
CN114625857B (zh) * 2022-03-23 2023-08-25 南京硅基智能科技有限公司 一种提词器及英文文本跟踪方法、存储介质、电子设备
CN114900590B (zh) * 2022-03-23 2023-08-29 南京硅基智能科技有限公司 跟踪显示方法及提词器、电子设备、存储介质

Also Published As

Publication number Publication date
WO2023029904A1 (zh) 2023-03-09

Similar Documents

Publication Publication Date Title
CN112115706B (zh) 文本处理方法、装置、电子设备及介质
JP6718828B2 (ja) 情報入力方法および装置
CN113724709A (zh) 文本内容匹配方法、装置、电子设备及存储介质
US11917344B2 (en) Interactive information processing method, device and medium
CN110969012B (zh) 文本纠错方法、装置、存储介质及电子设备
WO2023083142A1 (zh) 分句方法、装置、存储介质及电子设备
CN113378586B (zh) 语音翻译方法、翻译模型训练方法、装置、介质及设备
CN111753558B (zh) 视频翻译方法和装置、存储介质和电子设备
CN113596579B (zh) 视频生成方法、装置、介质及电子设备
CN113703579B (zh) 数据处理方法、装置、电子设备及存储介质
CN112380365A (zh) 一种多媒体的字幕交互方法、装置、设备及介质
CN114554238B (zh) 直播语音同传方法、装置、介质及电子设备
CN113886612A (zh) 一种多媒体浏览方法、装置、设备及介质
CN112163102A (zh) 搜索内容匹配方法、装置、电子设备及存储介质
WO2022161122A1 (zh) 一种会议纪要的处理方法、装置、设备及介质
CN112599130B (zh) 一种基于智慧屏的智能会议系统
CN115967833A (zh) 视频生成方法、装置、设备计存储介质
CN112069786A (zh) 文本信息处理方法、装置、电子设备及介质
CN112242143B (zh) 一种语音交互方法、装置、终端设备及存储介质
CN115171122A (zh) 一种点读处理方法、装置、设备及介质
CN112699687A (zh) 内容编目方法、装置和电子设备
CN113132789B (zh) 一种多媒体的交互方法、装置、设备及介质
CN112163103A (zh) 搜索目标内容的方法、装置、电子设备及存储介质
CN111027332A (zh) 生成翻译模型的方法和装置
CN112542157A (zh) 语音处理方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination