CN105335466A - 一种音频数据的检索方法与装置 - Google Patents
一种音频数据的检索方法与装置 Download PDFInfo
- Publication number
- CN105335466A CN105335466A CN201510622340.2A CN201510622340A CN105335466A CN 105335466 A CN105335466 A CN 105335466A CN 201510622340 A CN201510622340 A CN 201510622340A CN 105335466 A CN105335466 A CN 105335466A
- Authority
- CN
- China
- Prior art keywords
- audio
- voice data
- retrieval
- term
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Library & Information Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种音频数据的检索方法与装置。所述检索方法包括:获取并识别用户输入的检索词;将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果;将所述检索结果输出。本发明实施例提供了一种音频数据的检索方法,能够将用户输入的音频检索信息和音频数据的直接对接,改善用户在音频信息检索方面的用户体验。
Description
技术领域
本发明实施例涉及互联网中数据资源检索技术,尤其涉及一种音频数据的检索方法和装置。
背景技术
在浩如烟海的互联网资源数据库中,音频数据的比例日趋增高。现今,对互联网资源的检索方法大多集中于通过文字信息对文字数据进行检索,即使有针对性的对音频数据进行检索,事实上也是在检索的过程中将音频信息转化为文字信息进行检索。其具体检索的过程为:首先,获取用户输入的文字检索信息;其次,将用户输入的文字检索信息与互联网资源数据库中的音频数据的文字标签或者文字描述进行比对;最后,将检索到的文字标签或者文字描述全部或部分包含有用户输入的所述文字检索信息的所述音频数据作为检索结果并输出。在上述检索过程中,所提及的与所述音频数据的对应的文字标签或者文字描述,是由用户或工作人员在上传和管理所述音频数据的过程根据自己的判断和自己的理解进行添加的。
现有的这种音频数据检索方法,事实上是将对音频信息的检索转换为对文字信息的检索。这种音频信息检索方法依赖于所述音频数据对应的文字标签或者文字描述,而这些文字标签或者文字描述又是由人工进行添加的。人工在添加的过程中难免因为自己思维的局限性,理解偏差等因素,造成所述文字标签或者文字描述对所述音频数据的描述不够全面、不够准确的现象。因此,现有的这种音频数据检索方法不能够很好地帮助用户的对音频数据进行检索,同时使得用户体验感差。
发明内容
本发明提供一种音频数据的检索方法及装置,能够提高音频检索的效率和准确性。
第一方面,本发明实施例提供了一种音频数据的检索方法,包括:
获取并识别用户输入的检索词;
将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果;
将所述检索结果输出。
第二方面,本发明实施例还提供了一种音频数据的检索装置,包括:
检索词获取模块,用于获取并识别用户输入的检索词;
音频检索模块,用于将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果;
检索结果输出模块,用于将所述检索结果输出。
本发明实施例通过将用户输入的检索词对应的音频检索信息与资源数据库中的音频数据直接进行比对,解决了现有技术中对音频数据进行检索的过程中,需要依赖于具有局限性和不准确性的文字标签或者文字描述进行检索,致使在对音频信息进行检索的过程中用户体验差的问题,实现了以音频检索信息本身为检索对象,直接对资源数据库中的音频数据中进行检索的目的,改善了用户在音频信息检索方面的用户体验。
附图说明
图1是本发明实施例一提供的一种音频数据的检索方法的流程图;
图2是本发明实施例二提供的一种音频数据的检索方法的流程图;
图3是本发明实施例三提供的一种音频数据的检索装置的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种音频数据的检索方法的流程图。本方法适用于以音频检索信息本身为检索对象,直接对资源数据库中的音频数据中进行检索的情况。本方法主要由服务器来执行,尤其是指搜索引擎服务器,但是用户需要在用户终端上的客户端输入检索词。所述用户终端可以为但不限于下述设备中的任意一种:智能手机、电脑以及智能可穿戴设备。所述服务器可以通过互联网与用户终端进行通信。所述方法具体包括如下:
S110、获取并识别用户输入的检索词;
位于用户终端上的客户端可以调用用户终端上音频输入识别类软件。用户在启动用户终端上的客户端后,点击用于输入音频信息的输入按钮后,用户开始说话,即输入检索词,用户终端上的客户端在接收到用户输入的检索词后,将其发送给服务器。
由于用户说话的方式不一样,可能带有地域性的口音,也可能带有没有实际语意的语气词等。所述服务器在获取用户输入的检索词后,需要对用户输入的检索词进行识别。
所述服务器通过将用户输入的检索词与音频单元模型库中的音频单元模型进行比对,确定检索词包含有几个音频单元,以及所包括的音频单元分别为哪些。其中,音频单元是指具有独立语意的文字对应的音频信息,可以为单个的字或词组等。通常用户输入的检索词中至少包含有一个音频单元,用户输入的检索词中除有效音频单元之外的,诸如语气词、或重复词等无效音频信息可丢弃。
进一步的,音频单元为采用国家通用语言标准发音进行表述的具有独立语意的音频信息,即具有标准发音的音频信息。而音频单元模型可以利用国家通用语言标准发音进行表述的具有独立语意的音频信息,也可以为利用不同地域性的口音表述(非标准发音)的具有独立语意的音频信息。
当音频单元模型为利用国家通用语言标准发音进行表述的具有独立语意的音频信息时,每个音频单元模型与其对应的音频单元等价。在识别检索词时,直接将检索词与音频单元模型相对比。若经比对后,发现该检索词与该音频单元模型不匹配,说明该检索词不含有该音频单元模型对应的音频单元。
当音频单元模型为利用不同地域性的口音表述的具有独立语意的音频信息时,每个音频单元模型与其对应的音频单元不等价。这种情况下,一个音频单元通常对应于多个音频单元模型。在识别检索词时,直接将检索词与某音频单元模型比对后,发现该检索词与该音频单元模型不匹配,并不能说明该检索词不含有该音频单元模型对应的音频单元。只有将该检索词与某一音频单元对应的所有的音频单元模型都进行比对后,发现该检索词与这些音频单元模型均不匹配,才能说明该检索词不含有该音频单元。但是,当将检索词与某音频单元模型比对后,发现该检索词与该音频单元模型匹配时,则可以说明该检索词含有该音频单元模型对应的音频单元。采用这种技术方案有助于提高所述服务器识别用户输入的检索词的准确率。
S120,将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果;
检索词对应的音频检索信息是指经识别后,检索词包含的所有音频单元的集合。所述音频数据包括音频文件或包含有音频的视频文件。
本步骤的具体实施方法为:
首先,将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对;
其次,如果所述音频数据包括所述音频检索信息的全部或部分音频单元,则将所述音频数据确定为检索结果。
在检索的过程中,优选是形成作为检索结果的各音频数据与检索词对应的音频检索信息的匹配值,以方便用户依据该匹配值,对作为检索结果输出的各音频数据进行有选择性地查看。
上述匹配值的计算方法可以有多种,例如,将检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,可以为音频检索信息中每一个音频单元设定一个确切的分值,每一个音频单元对应的分值可以相同也可以不同,其具体分值可以由该音频单元的具体字数或者由客户意向决定,例如用户在十分种内连续搜索五次,其中每一次中都包含有“温暖”或者与“温暖”为互为同义词的词语,则“温暖”及其同义词对应的分值可以根据上述情况适当上调。在比对的过程中,若检索到某一个可作为检索结果的音频数据,则该音频检索信息与检索到的该音频数据之间的匹配值等于该音频数据中包含的所有音频单元对应的分值之和。
在上述匹配值的计算方法中,有一个因素可能会影响到上述匹配值计算的准确性,甚至会影响到检索到的音频数据是否确实含有检索词对应的音频检索信息,该因素为资源数据库中的音频数据中包含有背景音或者该音频数据为带有地域性的口音(即非标准音)的音频数据等。
对于上述这种情况,通常有两种解决方案:
一种解决方案是,可以在实际检索的过程中,确定一个吻合度的参数,用于表示音频检索信息中具体某个音频单元与资源数据库中的音频数据中与该音频单元对应的音频信息的吻合程度,将它们二者的吻合度与该音频单元对应的分值之积作为该音频单元与该音频数据之间的匹配值。同样地,某个可以作为检索结果的音频数据与检索词对应的音频检索信息的匹配值等于检索词对应的音频检索信息中各音频单元与该音频数据的匹配值之和。
另一种解决方案是,在将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对的过程中,统一将资源数据库中的音频数据中的背景音过滤,同时将音频数据中非标准音的音频信息统一转化为具有标准音的音频信息。
利用这两种技术方案,均可以实现提高上述匹配值计算的准确性目的,同时有效避免出现检索失败的现象。
S130,将所述检索结果输出。
所述检索结果可以包括下述至少一项:所述音频检索信息与检索到的音频数据之间的匹配值、各所述检索到的音频数据的链接地址、来源和属性信息、以及所述音频检索信息出现在各所述检索到的音频数据的时间点等。
其中,各所述检索到的音频数据的来源是指检索到的各所述音频数据属于哪个具体的数据库;各所述检索到的音频数据的属性信息是指各检索到的音频数据的文件类型、文件大小、可播放时长、具体上传时间、上传用户等;所述音频检索信息出现在各所述检索到的音频数据的时间点是指检索词对应的音频检索信息中的各音频单元出现在检索到的音频数据的具体时刻。
所述检索结果输出的方式有多种,例如可以对检索到的所述音频数据进行排序或分组,其排序或分组的依据可以为音频检索信息与检索到的音频数据之间的匹配值、各检索到的音频数据的链接地址、来源和属性信息、音频检索信息出现在各检索到的音频数据的时间点中的一项或多项。
优选是,根据述检索到的音频数据的匹配值,对所述检索到的音频数据进行排序并显示;或根据所述检索到的音频数据的匹配值,对各所述检索到的音频数据进行分组并显示。由于所述匹配值可以直观地反映所述检索到的音频数据与所述检索词的匹配吻合度,可以方便用户查找到自己想要检索的音频数据。
检索结果显示的方法有多种,可以为在客户端界面上依次给出每个检索到的音频数据的链接地址,以及其相对应的其他信息,也可以在客户端界面中直接弹出加载有检索到的音频数据的网络播放器。该网络播放器可以为音频播放器,也可以为视频播放器。进一步,优选是在播放器中的进度条中标明与用户所输入的检索词对应的音频检索信息中的各音频单元对应的时刻,且用于表示进度的图标恰好位于其中某个音频单元对应时刻的位置处,这样用户在点击该网络播放器中的播放按钮后,网络播放器开始播放的时刻恰好为用户所检索的内容,方便用户确定所检索到的内容是否为用户所希望检索的内容。
本发明实施例中的技术方案以音频检索信息本身为检索对象,直接与资源数据库中的音频数据进行比对,解决了现有技术中对音频数据进行检索需要转换为对文字信息进行检索的问题,可以实现对音频数据直接进行检索,改善用户在音频信息检索方面的用户体验的目的。
实施例二
图2为本实施例提供的一种音频数据的检索方法的流程图。本实施例在前述实施例基础上做了两处改进:第一改进点在于,将获取并识别用户输入的检索词优化为两步,分别为:获取用户输入的检索词;判断所述检索词是否为音频信息;若所述检查词为音频信息,将所述音频信息进行去背景音,并识别为音频检索信息;若所述检索词为文字信息,将文字信息转化为音频检索信息。
第二个改进点在于,增加了获取用户对本次检索的反馈信息的操作。
本实施例的方法具体包括:
S210a,获取用户输入的检索词;
S210b,判断所述检索词是否为音频信息;若所述检查词为音频信息,将所述音频信息进行去背景音,并识别为音频检索信息;若所述检索词为文字信息,将文字信息转化为音频检索信息;
在本实施例中,获取并识别用户输入的检索词具体可以包括:获取用户输入的文字信息和/或音频信息;根据所述文字信息和/或音频信息进行检索词识别。即,用户终端的客户端上设置有用于输入文字信息的文字输入框以及用于输入音频信息的输入按键,可获取用户输入文字信息、音频信息或者同时参杂有文字信息和音频信息的信息作为检索词。
在获取用户输入的检索词后,判断检索词是否全部或部分为音频信息;若检索词中全部或者部分为音频信息,将该音频信息与背景音数据库中的背景音模型进行比对,若该音频信息中包含与背景音模型库中的某一个背景音模型一致或吻合度比较高的音频信息,将该音频信息过滤。上述所提到的背景音模型可以来源与互联网中的已有的背景音,也可以为用户临时自己录制的背景音。
当用户需要通过输入带有音频信息的检索词进行音频数据检索时,如果用户所处环境恰好十分吵杂,优选是,首先,用户在不发声的情况下将所处环境中的声音录制为背景音,并将其设置为背景音模型;其次,用户在搜索引擎的客户端中输入带有音频信息的检索词。所述服务器在获得用户所输入的音频信息后,对比用户之前录制的背景音模型,将用户所输入的检索词中音频信息中的背景音过滤后,识别用户输入的检索词对应的音频检索信息。这样,无论用户所处环境多么吵杂,都可以准确地识别用户所输入的检索词对应的音频检索信息。
另外,用户可以根据情况自行设定是否过滤用户所输入的音频信息中背景音。用户还可以设定需要过滤的背景音具体参数(如频率或响度等)的临界阈值,当用户所输入的音频信息中背景音的参数的达到所述临界阈值,系统可以自行将用户所输入的音频信息中背景音过滤。
当检索词中全部或者部分为文字信息,即在将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,若识别到所述检索词为文字信息,根据文字信息中单个文字与音节元素的对应关系,将所述检索词转化为音频检索信息。由于每个用户自身情况不同、输入习惯也不尽相同,通过将文字信息转化为音频检索信息,可以为只能通过文字信息进行检索的用户进行音频搜索,有利于改善用户在音频数据检索方面的体验效果。
S220,将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果;
S230,将所述检索结果输出。
S240,获取用户对本次检索的反馈信息。
上述S240为一个优选操作,当单次检索完成后,所述服务器还可以通过客户端邀请用户回答调查问卷的方式获取用户对本次检索结果的反馈信息。反馈信息包括用户满意程度、检索存在的问题以及用户希望改进的地方等。通过获取用户对本次检索的反馈信息可以有助于工作人员对上述技术方案进行有针对性地改进,以使用户可以拥有更好的用户体验。
例如,若用户在某次检索的反馈信息中指出在该次检索过程中,服务器识别出的音频单元不在用户输入的音频信息范围之内,即服务器对用户输入的所述检索词识别不正确,这种情况可以请用户输入与之前检索的音频信息对应的正确的文字。服务器在获取该用户反馈信息后,将用户输入的检索词中识别错误的发音建立音频单元模型并保存在音频单元模型库中,为以后具有同类发音特征的其他用户进行检索时提供方便。
进一步的,资源数据库中的音频数据还可以设置属性信息。属性信息用于表示所述音频数据所伴有的特征,如语音对象为人类、语音对象的情绪为兴奋、语音对象的性别为男性、或语音背景为大海等。属性信息可以为文字标签或者音频标签。用于表示资源数据库中的音频数据的属性信息的标签可以在音频数据上传时添加,亦可以在网络管理员对网络资源进行管理的过程中添加。
在具体检索过程中,当资源数据库中的音频数据属性信息为文字属性信息时,将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,或之后,将所述检索词对应的音频检索信息对应的文字检索信息,与所述资源数据库中音频数据的文字属性信息进行比对,以对音频数据进行过滤。当资源数据库中的音频数据属性信息为音频属性信息时,将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,或之后,将所述检索词对应的音频检索信息,与所述资源数据库中音频数据的音频属性信息进行比对,以对音频数据进行过滤。
进一步的,用户输入的检索词可以通过音频单元模型以及音频单元模型对应的文字进行自由切换。同时,用于检索的检索范围可以为文字数据资源,也可以音频数据资源,还可以为既包括文字数据资源又包括音频数据资源的数据资源。所述检索范围可以由用户自行设定。
实施例三
图3为本发明实施例三提供的一种音频数据的检索装置的结构示意图,该装置包括:检索词获取模块310,音频检索模块320和检索结果输出模块330。其中,检索词获取模块310,用于获取并识别用户输入的检索词;音频检索模块320,用于将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果;检索结果输出模块330,用于将所述检索结果输出。
具体的,所述检索词获取模块310具体用于:获取用户输入的文字信息和/或音频信息;根据所述文字信息和/或音频信息进行检索词识别。
进一步的,所述装置还包括,音频转化模块,用于将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,若识别到所述检索词为文字信息,根据文字信息中单个文字与音节元素的对应关系,将所述检索词转化为音频检索信息。
进一步的,所述音频检索模块320具体用于:将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对;如果所述音频数据包括所述音频检索信息的全部或部分音频单元,则将所述音频数据确定为检索结果。
进一步的,所述装置,还包括:文字检索模块,用于在将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,或之后,将所述检索词对应的音频检索信息对应的文字检索信息,与所述资源数据库中音频数据的文字属性信息进行比对,以对音频数据进行过滤。
进一步的,所述音频数据包括音频文件或包含有音频的视频文件。
进一步的,所述检索结果包括下述至少一项:所述音频检索信息与检索到的音频数据之间的匹配值、各所述检索到的音频数据的链接地址、来源和属性信息、以及所述音频检索信息出现在各所述检索到的音频数据的时间点。
进一步的,所述检索结果输出模块330具体用于:根据所述检索到的音频数据的匹配值,对所述检索到的音频数据进行排序并显示;或根据所述检索到的音频数据的匹配值,对各所述检索到的音频数据进行分组并显示。
本发明实施例所述提供的一种音频数据的检索装置,以音频检索信息本身为检索对象,直接与资源数据库中的音频数据进行比对,解决了现有技术中对音频数据进行检索需要转换为对文字信息进行检索的问题,可以实现对音频数据直接进行检索,改善用户在音频信息检索方面的用户体验的目的。
上述产品可执行本发明任意实施例所提供的方法,具备执行方法相应的功能模块和有益效果。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (16)
1.一种音频数据的检索方法,其特征在于,包括:
获取并识别用户输入的检索词;
将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果;
将所述检索结果输出。
2.根据权利要求1所述的方法,其特征在于,获取并识别用户输入的检索词包括:
获取用户输入的文字信息和/或音频信息;
根据所述文字信息和/或音频信息进行检索词识别。
3.根据权利要求1所述的方法,其特征在于,将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,还包括:
若识别到所述检索词为文字信息,根据文字信息中单个文字与音节元素的对应关系,将所述检索词转化为音频检索信息。
4.根据权利要求1所述的方法,其特征在于,将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果包括:
将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对;
如果所述音频数据包括所述音频检索信息的全部或部分音频单元,则将所述音频数据确定为检索结果。
5.根据权利要求1所述的方法,其特征在于,将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,或之后,还包括:
将所述检索词对应的音频检索信息的对应的文字检索信息,与所述资源数据库中音频数据的文字属性信息进行比对,以对音频数据进行过滤。
6.根据权利要求1所述的方法,其特征在于,所述音频数据包括音频文件或包含有音频的视频文件。
7.根据权利要求1所述的方法,其特征在于,所述检索结果包括下述至少一项:
所述音频检索信息与检索到的音频数据之间的匹配值、各所述检索到的音频数据的链接地址、来源和属性信息、以及所述音频检索信息出现在各所述检索到的音频数据的时间点。
8.根据权利要求6所述的方法,其特征在于,将所述检索结果输出包括:
根据所述检索到的音频数据的匹配值,对所述检索到的音频数据进行排序并显示;或
根据所述检索到的音频数据的匹配值,对各所述检索到的音频数据进行分组并显示。
9.一种音频数据的检索装置,其特征在于,包括:
检索词获取模块,用于获取并识别用户输入的检索词;
音频检索模块,用于将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对,形成检索结果;
检索结果输出模块,用于将所述检索结果输出。
10.根据权利要求9所述的装置,其特征在于,所述检索词获取模块具体用于:
获取用户输入的文字信息和/或音频信息;
根据所述文字信息和/或音频信息进行检索词识别。
11.根据权利要求9所述的装置,其特征在于,还包括:
音频转化模块,用于将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,若识别到所述检索词为文字信息,根据文字信息中单个文字与音节元素的对应关系,将所述检索词转化为音频检索信息。
12.根据权利要求9所述的装置,其特征在于,所述音频检索模块具体用于:
将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对;
如果所述音频数据包括所述音频检索信息的全部或部分音频单元,则将所述音频数据确定为检索结果。
13.根据权利要求9所述的装置,其特征在于,还包括:
文字检索模块,用于在将所述检索词对应的音频检索信息与资源数据库中的音频数据进行比对之前,或之后,将所述检索词对应的音频检索信息对应的文字检索信息,与所述资源数据库中音频数据的文字属性信息进行比对,以对音频数据进行过滤。
14.根据权利要求9所述的装置,其特征在于,所述音频数据包括音频文件或包含有音频的视频文件。
15.根据权利要求9所述的装置,其特征在于,所述检索结果包括下述至少一项:
所述音频检索信息与检索到的音频数据之间的匹配值、各所述检索到的音频数据的链接地址、来源和属性信息、以及所述音频检索信息出现在各所述检索到的音频数据的时间点。
16.根据权利要求15所述的装置,其特征在于,所述检索结果输出模块具体用于:
根据所述检索到的音频数据的匹配值,对所述检索到的音频数据进行排序并显示;或
根据所述检索到的音频数据的匹配值,对各所述检索到的音频数据进行分组并显示。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510622340.2A CN105335466A (zh) | 2015-09-25 | 2015-09-25 | 一种音频数据的检索方法与装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510622340.2A CN105335466A (zh) | 2015-09-25 | 2015-09-25 | 一种音频数据的检索方法与装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105335466A true CN105335466A (zh) | 2016-02-17 |
Family
ID=55285993
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510622340.2A Pending CN105335466A (zh) | 2015-09-25 | 2015-09-25 | 一种音频数据的检索方法与装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105335466A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106021451A (zh) * | 2016-05-13 | 2016-10-12 | 百度在线网络技术(北京)有限公司 | 基于互联网的声音博物馆的实现方法和装置 |
CN106055610A (zh) * | 2016-05-25 | 2016-10-26 | 维沃移动通信有限公司 | 语音信息的检索方法及移动终端 |
CN107424640A (zh) * | 2017-07-27 | 2017-12-01 | 上海与德科技有限公司 | 一种音频播放方法及装置 |
CN108920541A (zh) * | 2018-06-12 | 2018-11-30 | 广东小天才科技有限公司 | 一种基于语音搜索的识别方法及家教机 |
CN108986796A (zh) * | 2018-06-21 | 2018-12-11 | 广东小天才科技有限公司 | 一种语音搜索方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1343337A (zh) * | 1999-03-05 | 2002-04-03 | 佳能株式会社 | 数据库注释和获取 |
GB2451938A (en) * | 2007-08-07 | 2009-02-18 | Aurix Ltd | Methods and apparatus for searching of spoken audio data |
GB201217354D0 (en) * | 2012-03-30 | 2012-11-14 | Aurix Ltd | "At least" operator for combining audio search hits |
CN103853749A (zh) * | 2012-11-30 | 2014-06-11 | 国际商业机器公司 | 基于模式的音频检索方法和系统 |
CN103870491A (zh) * | 2012-12-13 | 2014-06-18 | 联想(北京)有限公司 | 一种信息匹配方法及电子设备 |
-
2015
- 2015-09-25 CN CN201510622340.2A patent/CN105335466A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1343337A (zh) * | 1999-03-05 | 2002-04-03 | 佳能株式会社 | 数据库注释和获取 |
GB2451938A (en) * | 2007-08-07 | 2009-02-18 | Aurix Ltd | Methods and apparatus for searching of spoken audio data |
GB201217354D0 (en) * | 2012-03-30 | 2012-11-14 | Aurix Ltd | "At least" operator for combining audio search hits |
CN103853749A (zh) * | 2012-11-30 | 2014-06-11 | 国际商业机器公司 | 基于模式的音频检索方法和系统 |
CN103870491A (zh) * | 2012-12-13 | 2014-06-18 | 联想(北京)有限公司 | 一种信息匹配方法及电子设备 |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106021451A (zh) * | 2016-05-13 | 2016-10-12 | 百度在线网络技术(北京)有限公司 | 基于互联网的声音博物馆的实现方法和装置 |
CN106055610A (zh) * | 2016-05-25 | 2016-10-26 | 维沃移动通信有限公司 | 语音信息的检索方法及移动终端 |
CN106055610B (zh) * | 2016-05-25 | 2020-02-14 | 维沃移动通信有限公司 | 语音信息的检索方法及移动终端 |
CN107424640A (zh) * | 2017-07-27 | 2017-12-01 | 上海与德科技有限公司 | 一种音频播放方法及装置 |
CN108920541A (zh) * | 2018-06-12 | 2018-11-30 | 广东小天才科技有限公司 | 一种基于语音搜索的识别方法及家教机 |
CN108986796A (zh) * | 2018-06-21 | 2018-12-11 | 广东小天才科技有限公司 | 一种语音搜索方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11599714B2 (en) | Methods and systems for modeling complex taxonomies with natural language understanding | |
EP3320490B1 (en) | Transfer learning techniques for disparate label sets | |
CN106682097A (zh) | 一种处理日志数据的方法和装置 | |
CN105074694B (zh) | 自然语言处理的系统和方法 | |
US10108698B2 (en) | Common data repository for improving transactional efficiencies of user interactions with a computing device | |
CN105335466A (zh) | 一种音频数据的检索方法与装置 | |
US20210018332A1 (en) | Poi name matching method, apparatus, device and storage medium | |
CN113051362B (zh) | 数据的查询方法、装置和服务器 | |
CN113032673B (zh) | 资源的获取方法、装置、计算机设备及存储介质 | |
CN110019713A (zh) | 基于意图理解的数据检索方法和装置、设备及存储介质 | |
CN115455161A (zh) | 对话处理方法、装置、电子设备及存储介质 | |
CN109727592A (zh) | 基于自然语言语音交互的运维指令执行方法、介质及终端 | |
CN106682099A (zh) | 一种数据的存储方法和装置 | |
CN112328808A (zh) | 基于知识图谱的问答方法、装置、电子设备及存储介质 | |
US20230094730A1 (en) | Model training method and method for human-machine interaction | |
CN112463986A (zh) | 信息存储的方法及装置 | |
CN108345658A (zh) | 算法计算轨迹的分解处理方法、服务器及存储介质 | |
CN112084342A (zh) | 试题生成方法、装置、计算机设备及存储介质 | |
CN116894078A (zh) | 一种信息交互方法、装置、电子设备及介质 | |
CN112307318A (zh) | 一种内容发布方法、系统及装置 | |
CN117932022A (zh) | 一种智能问答方法、装置、电子设备及存储介质 | |
WO2021135103A1 (zh) | 一种语义分析方法、装置、计算机设备及存储介质 | |
CN113741864A (zh) | 基于自然语言处理的语义化服务接口自动设计方法与系统 | |
US11269898B1 (en) | Machine learning based database query retrieval | |
CN111159203B (zh) | 一种数据关联分析的方法、平台、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160217 |