CN111371838A - 基于声纹识别的信息推送方法、系统及移动终端 - Google Patents
基于声纹识别的信息推送方法、系统及移动终端 Download PDFInfo
- Publication number
- CN111371838A CN111371838A CN202010092624.6A CN202010092624A CN111371838A CN 111371838 A CN111371838 A CN 111371838A CN 202010092624 A CN202010092624 A CN 202010092624A CN 111371838 A CN111371838 A CN 111371838A
- Authority
- CN
- China
- Prior art keywords
- information
- user
- voiceprint
- pushed
- emotion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 230000008451 emotion Effects 0.000 claims abstract description 100
- 238000012216 screening Methods 0.000 claims abstract description 21
- 238000012163 sequencing technique Methods 0.000 claims description 11
- 238000012549 training Methods 0.000 claims description 10
- 238000001914 filtration Methods 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 8
- 238000001228 spectrum Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 4
- 238000000926 separation method Methods 0.000 claims description 4
- 238000013461 design Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 3
- 208000013875 Heart injury Diseases 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/55—Push-based network services
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/02—Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/48—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
- G10L25/51—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
- G10L25/63—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Child & Adolescent Psychology (AREA)
- General Health & Medical Sciences (AREA)
- Hospice & Palliative Care (AREA)
- Psychiatry (AREA)
- Computational Linguistics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明适用于信息推送技术领域,提供了一种基于声纹识别的信息推送方法、系统及移动终端,该方法包括:当接收到信息推送指令时,采集用户发出的信息需求语音,提取信息需求语音中的声纹,得到需求声纹;对需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,对需求声纹进行声纹识别,得到需求文本;获取需求文本中的特征文字,根据特征文字和用户情绪进行信息查询,得到待推送信息;根据用户年龄段对待推送信息进行筛选,将筛选后的待推送信息对用户进行推送。本发明通过基于声纹识别和特征文字获取的方式,以分析用户的当前的情绪和信息需求,基于分析得到的情绪和信息需求针对性的进行信息查询,进而提高了信息推送的准确性。
Description
技术领域
本发明属于信息推送技术领域,尤其涉及一种基于声纹识别的信息推送方法、系统及移动终端。
背景技术
随着社会的发展,一直伴随着有信息的推送,例如:传统的订阅报纸、订阅期刊等等。随着互联网的普及,信息推送的方式也从实体转换为公众订阅号、互联网平台中的咨询订阅等等。现有的推送方式从形式上来说,都是通过用户设定某一订阅类型,然后,由后台有针对性的将其获取到的各订阅类型的咨询有针对性的向用户发送其设定的该订阅类型。例如:用户设定了汽车订阅类型,则后台服务器在获取到编辑人员编辑完成的汽车电子杂志后,便将该汽车电子杂志发送给该订阅用户。
现有的信息推送是一种类似广播的推送方式,对于用户来说其获取到的内容中可能包含许多其并不需要的内容,进而导致信息推送准确率低下,降低了用户的使用体验。
发明内容
本发明实施例的目的在于提供一种基于声纹识别的信息推送方法、系统及移动终端,旨在解决现有的信息推送过程中,由于信息推送准确率低下所导致的用户使用体验低下的问题。
本发明实施例是这样实现的,一种基于声纹识别的信息推送方法,所述方法包括:
当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹;
对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本;
获取所述需求文本中的特征文字,并根据所述特征文字和所述用户情绪进行信息查询,得到待推送信息;
根据所述用户年龄段对所述待推送信息进行筛选,并将筛选后的所述待推送信息对用户进行推送。
更进一步的,所述对所述需求声纹进行情绪分析和年龄分析的步骤之前,所述方法还包括:
获取情绪样本声纹的频谱峰值,并根据所述频谱峰值查询声纹主频率;
根据所述声纹主频率对所述情绪样本声纹进行情绪因子分离;
根据分离后的所述情绪样本声纹训练情绪分类器,所述情绪分类器用于对所述需求声纹进行情绪分析;
获取年龄样本声纹的声纹特征,并根据所述声纹特征训练年龄分类器,所述年龄分类器用于对所述需求声纹进行年龄分析。
更进一步的,所述根据所述特征文字和所述用户情绪进行信息查询的步骤包括:
将所述特征文字和所述用户情绪与本地预存储的信息分类表进行匹配,得到目标信息类别;
根据所述目标信息类别进行网络信息搜索,得到所述待推送信息。
更进一步的,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤包括:
分别获取所述待推送信息中每条子信息上被标识的观看年龄,并判断所述观看年龄是否在所述用户年龄段内;
当判断到所述观看年龄未在所述用户年龄段内时,删除对应所述子信息。
更进一步的,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤之后,所述方法还包括:
获取用户的位置信息,并根据所述位置信息分别计算与所述待推送信息中每条子信息的信息源之间的信息距离;
根据所述信息距离对所子信息进行距离排序。
更进一步的,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤之后,所述方法还包括:
获取所述待推送信息中每条子信息的信息热度,并根据所述信息热度对所述子信息进行热度排序;
获取本地预存储的待推送数量,并根据所述待推送数量对排序后的所述子信息进行数量筛选。
更进一步的,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤之后,所述方法还包括:
分别获取所述待推送信息中每条子信息的信息发布时间;
根据所述信息发布时间对所述子信息进行发布排序。
更进一步的,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤之后,所述方法还包括:
分别对所述待推送信息中每条子信息进行分类,并根据分类结果对所述子进行分类标识;
判断所述推送信息中是否存在相同所述分类标识的所述子信息;
当判断到存在相同所述分类标识的所述子信息时,分别计算相同所述分类标识的所述子信息的信息值,并在相同所述分类标识的信息内,删除除去最大所述信息值对应所述子信息之外的信息,所述信息值为信息热度、信息距离或信息发布时间。
本发明实施例的另一目的在于提供一种基于声纹识别的信息推送系统,所述系统包括:
声纹提取模块,用于当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹;
声纹识别模块,用于对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本;
信息查询模块,用于获取所述需求文本中的特征文字,并根据所述特征文字和所述用户情绪进行信息查询,得到待推送信息;
信息推送模块,用于根据所述用户年龄段对所述待推送信息进行筛选,并将筛选后的所述待推送信息对用户进行推送。
本发明实施例的另一目的在于提供一种移动终端,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端执行上述的基于声纹识别的信息推送方法。
本发明实施例,通过基于声纹识别和特征文字获取的方式,以分析用户的当前的情绪和信息需求,并基于分析得到的情绪和信息需求针对性的进行信息查询,进而有效的提高了信息推送的准确性,且通过根据用户年龄段进行信息筛选的设计,进一步提高了待推送信息推送的准确性。
附图说明
图1是本发明第一实施例提供的基于声纹识别的信息推送方法的流程图;
图2是本发明第二实施例提供的基于声纹识别的信息推送方法的流程图;
图3是本发明第三实施例提供的基于声纹识别的信息推送方法的流程图;
图4是本发明第四实施例提供的基于声纹识别的信息推送系统的结构示意图;
图5是本发明第五实施例提供的移动终端的结构示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
为了说明本发明所述的技术方案,下面通过具体实施例来进行说明。
实施例一
请参阅图1,是本发明第一实施例提供的基于声纹识别的信息推送方法的流程图,包括步骤:
步骤S10,当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹;
其中,该信息推送指令可以采用语音指令、触控指令或无线信号的方式进行传输,当接收到该信息推送指令时,则判定用户有信息推送的需求;
优选的,该步骤中,可以通过采用拾音器的方式进行该信息需求语音的采集,并通过基于该信息需求采集的结果进行声纹提取,以得到该需求声纹,本实施例中,该基于声纹识别的信息推送方法可以在任意具有信息推送功能的终端设备上进行实施,例如手机、平板、电脑或智能穿戴设备等;
具体的,本实施例中基于手机进行举例说明,当手机接收到用户基于触控指令发出的信息推送指令时,发出语音采集提示,以提示用户当前需要进行信息需求语音的采集,并基于采集结果得到该信息需求语音和需求声纹;
步骤S20,对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本;
其中,通过对该需求声纹进行情绪分析的设计,以分析用户的当前情绪状态,以使后续能针对用户情绪的不同对应进行信息推送,进而提高了后续信息推送的准确性,且通过对该需求声纹进行声纹识别的设计,以判定用户当前所需要推送信息的类别,进一步提高了信息推送的准确性;
步骤S30,获取所述需求文本中的特征文字,并根据所述特征文字和所述用户情绪进行信息查询,得到待推送信息;
其中,通过根据所述特征文字和所述用户情绪进行信息查询的设计,能有效的针对用户的不同情绪和信息需求进行信息查询,进而提高了待推送信息查询的准确性;
该步骤中,特征文字用于表示用户的信息需求,例如当该特征文字为“电影”时,则判定用户当前需要进行电影信息的推送,当该特征文字为“新闻”时,则判定用户当前需要进行新闻信息的推送,当该特征文字为“天气”时,则判定用户当前需要进行天气信息的推送;
具体的,该步骤中,针对不同的用户情绪,本实施例能针对性的进行信息的查询,例如当该特征文字为“电影”、分析得到的用户情绪为“悲伤”或“沮丧”时,则针对性的进行令人轻松、愉悦的电影推送;
当该特征文字为“音乐”、分析得到的用户情绪为“生气”时,则针对性的进行抒情或平缓音乐的推送;
步骤S40,根据所述用户年龄段对所述待推送信息进行筛选,并将筛选后的所述待推送信息对用户进行推送;
其中,通过根据所述用户年龄段对所述待推送信息进行筛选的设计,能针对不同年龄段的用户进行更加准确的信息推送;
本实施例,通过基于声纹识别和特征文字获取的方式,以分析用户的当前的情绪和信息需求,并基于分析得到的情绪和信息需求针对性的进行信息查询,进而有效的提高了信息推送的准确性,且通过根据用户年龄段进行信息筛选的设计,进一步提高了待推送信息推送的准确性。
实施例二
请参阅图2,是本发明第二实施例提供的基于声纹识别的信息推送方法的流程图,包括步骤:
步骤S11,当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹;
步骤S21,获取情绪样本声纹的频谱峰值,并根据所述频谱峰值查询声纹主频率;
其中,该情绪样本声纹为典型情绪声纹,例如采集对象处于大笑状态、正常状态、沮丧状态、伤心状态时所发出的声纹,优选的,该声纹主频率为对应情绪样本声纹所携带的特征频率,不同所述情绪样本声纹中声纹主频率不相同;
步骤S31,根据所述声纹主频率对所述情绪样本声纹进行情绪因子分离,并根据分离后的所述情绪样本声纹训练情绪分类器;
其中,通过基于该声纹主频率的获取对情绪样本声纹进行声纹个性特征与情绪因子之间的分离,有效的提高了后续情绪分类器模型训练的准确性;
具体的,该步骤中,通过根据分离后的所述样本声纹信号对情绪分类器进行训练的设计,以使训练后的情绪分类器能针对输入的声纹信号进行情绪场分类;
步骤S41,获取年龄样本声纹的声纹特征,并根据所述声纹特征训练年龄分类器;
其中,通过根据该年龄样本声纹的声纹特征训练该年龄分类器的设计,以使训练后的该年龄分类器能针对输入的声纹信号进行年龄段的分类;
步骤S51,根据所述情绪分类器和所述年龄分类器对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本;
其中,通过对该需求声纹进行情绪分析的设计,以分析用户的当前情绪状态,以使后续能针对用户情绪的不同对应进行信息推送,进而提高了后续信息推送的准确性,且通过对该需求声纹进行声纹识别的设计,以判定用户当前所需要推送信息的类别,进一步提高了信息推送的准确性;
步骤S61,获取所述需求文本中的特征文字,并将所述特征文字和所述用户情绪与本地预存储的信息分类表进行匹配,得到目标信息类别;
其中,特征文字用于表示用户的信息需求,例如当该特征文字为“电影”时,则判定用户当前需要进行电影信息的推送,当该特征文字为“新闻”时,则判定用户当前需要进行新闻信息的推送,当该特征文字为“天气”时,则判定用户当前需要进行天气信息的推送;
具体的,本实施例中,通过将所述特征文字和所述用户情绪与本地预存储的信息分类表进行匹配的设计,以针对用户的当前情绪,并基于该特征文字进行针对性的信息类别匹配,以得到该目标信息类别,例如当该特征文字为“音乐”、分析得到的用户情绪为“生气”时,则匹配到的该目标信息类别为抒情类型音乐或平缓类型音乐;
步骤S71,根据所述目标信息类别进行网络信息搜索,得到所述待推送信息;
其中,通过基于匹配到的目标信息类别进行网络数据的查询,以得到该待推送信息,例如当该目标信息类别为抒情类型音乐时,则针对网络数据中的音乐数据库进行信息查询,以对应得到待推送的音乐信息;
例如当该目标信息类别为搞笑类型的电影时,则针对网络数据中的电影数据库进行信息查询,以对应得到待推送的电影信息;
步骤S81,根据所述用户年龄段对所述待推送信息进行筛选,并将筛选后的所述待推送信息对用户进行推送;
其中,通过根据所述用户年龄段对所述待推送信息进行筛选的设计,能针对不同年龄段的用户进行更加准确的信息推送;
例如由于不同年龄段用户所了解或感兴趣的演员、歌唱家或艺术家不相同,因此,该步骤中,通过基于用户年龄段的方式进行信息筛选的设计,能有效的将该待推送信息中年龄段跨度较大的信息进行删除,以提高信息推送的准确性;
本实施例,通过基于声纹识别和特征文字获取的方式,以分析用户的当前的情绪和信息需求,并基于分析得到的情绪和信息需求针对性的进行信息查询,进而有效的提高了信息推送的准确性,且通过根据用户年龄段进行信息筛选的设计,进一步提高了待推送信息推送的准确性。
实施例三
请参阅图3,是本发明第三实施例提供的基于声纹识别的信息推送方法的流程图,包括步骤:
步骤S12,当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹;
步骤S22,对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本;
步骤S32,获取所述需求文本中的特征文字,并根据所述特征文字和所述用户情绪进行信息查询,得到待推送信息;
步骤S42,分别获取所述待推送信息中每条子信息上被标识的观看年龄,并判断所述观看年龄是否在所述用户年龄段内;
其中,所述待推送信息中每条子信息上均标识有观看年龄,该观看年龄为对应子信息的限制年龄或推荐年龄;
例如当该子信息为电影信息,且该电影信息为限制性电影时,则针对该子信息设置的观看年龄大于18岁,例如当该子信息为教育性的动画时,则针对该子信息设置的观看年龄小于8岁,例如当该子信息为科幻烧脑类的电影时,则针对该子信息设置的观看年龄大于18岁且小于50岁;
具体的,该步骤中,通过判断所述观看年龄是否在所述用户年龄段内的设计,以分别判断该待推送信息中的子信息针对该用户是否能进行推送,进而有效的提高了信息推送的准确性,针对儿童防止了限制信息的推送现象;
当判断到所述观看年龄未在所述用户年龄段内时,执行步骤S52;
步骤S52,删除所述待推送信息中对应所述子信息;
其中,通过删除所述待推送信息中对应所述子信息的设计,以使基于所述观看年龄对所述待推送信息中的子信息进行筛选,提高了信息推送的准确性;
步骤S62,获取用户的位置信息,并根据所述位置信息分别计算与所述待推送信息中每条子信息的信息源之间的信息距离;
其中,该用户的位置信息可以基于GPS的方式进行定位获取,该信息源为对应子信息的发生地,例如当该子信息为新闻信息时,则该信息源为该新闻信息的事件发生地,例如当该子信息为电影信息时,则该信息源为该电影信息的拍摄国家,例如当该子信息为音乐信息时,则该信息源为该音乐信息中歌手的国籍;
具体的,该步骤中,通过根据所述位置信息分别计算与所述待推送信息中每条子信息的信息源之间的信息距离的设计,以计算每条所述子信息与用户当前所处位置之间的距离,进而为后续子信息的推送提供了排序依据;
步骤S72,根据所述信息距离对所子信息进行距离排序,并将排序后的所述子信息对用户进行推送;
其中,通过根据所述信息距离对所子信息进行距离排序的设计,以使基于信息距离的方式进行信息推送,即将发生在用户周边的信息进行优先级的推送,以提高用户信息观看的体验;
优选的,在本实施例的步骤S52之后,所述方法还包括:
获取所述待推送信息中每条子信息的信息热度,并根据所述信息热度对所述子信息进行热度排序;
获取本地预存储的待推送数量,并根据所述待推送数量对排序后的所述子信息进行数量筛选。
进一步地,在本实施例的步骤S52之后,所述方法还包括:
分别获取所述待推送信息中每条子信息的信息发布时间,并根据所述信息发布时间对所述子信息进行发布排序;
更进一步的,在本实施例的步骤S52之后,所述方法还包括:
分别对所述待推送信息中每条子信息进行分类,并根据分类结果对所述子进行分类标识;
判断所述推送信息中是否存在相同所述分类标识的所述子信息;
当判断到存在相同所述分类标识的所述子信息时,分别计算相同所述分类标识的所述子信息的信息值,并在相同所述分类标识的信息内,删除除去最大所述信息值对应所述子信息之外的信息,所述信息值为信息热度、信息距离或信息发布时间。
本实施例,通过基于声纹识别和特征文字获取的方式,以分析用户的当前的情绪和信息需求,并基于分析得到的情绪和信息需求针对性的进行信息查询,进而有效的提高了信息推送的准确性,且通过根据用户年龄段进行信息筛选的设计,进一步提高了待推送信息推送的准确性。
实施例四
请参阅图4,是本发明第四实施例提供的基于声纹识别的信息推送系统100的结构示意图,包括:声纹提取模块10、声纹识别模块11、信息查询模块12和信息推送模块13,其中:
声纹提取模块10,用于当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹。
声纹识别模块11,用于对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本。
其中,所述声纹识别模块11还用于:获取情绪样本声纹的频谱峰值,并根据所述频谱峰值查询声纹主频率;
根据所述声纹主频率对所述情绪样本声纹进行情绪因子分离;
根据分离后的所述情绪样本声纹训练情绪分类器,所述情绪分类器用于对所述需求声纹进行情绪分析;
获取年龄样本声纹的声纹特征,并根据所述声纹特征训练年龄分类器,所述年龄分类器用于对所述需求声纹进行年龄分析。
信息查询模块12,用于获取所述需求文本中的特征文字,并根据所述特征文字和所述用户情绪进行信息查询,得到待推送信息。
其中,所述信息查询模块12用于:将所述特征文字和所述用户情绪与本地预存储的信息分类表进行匹配,得到目标信息类别;
根据所述目标信息类别进行网络信息搜索,得到所述待推送信息。
信息推送模块13,用于根据所述用户年龄段对所述待推送信息进行筛选,并将筛选后的所述待推送信息对用户进行推送。
其中,所述信息推送模块13还用于:分别获取所述待推送信息中每条子信息上被标识的观看年龄,并判断所述观看年龄是否在所述用户年龄段内;
当判断到所述观看年龄未在所述用户年龄段内时,删除对应所述子信息。
优选的,所述信息推送模块13还用于:获取用户的位置信息,并根据所述位置信息分别计算与所述待推送信息中每条子信息的信息源之间的信息距离;
根据所述信息距离对所子信息进行距离排序。
进一步地,所述信息推送模块13还用于:获取所述待推送信息中每条子信息的信息热度,并根据所述信息热度对所述子信息进行热度排序;
获取本地预存储的待推送数量,并根据所述待推送数量对排序后的所述子信息进行数量筛选。
更进一步的,所述信息推送模块13还用于:分别获取所述待推送信息中每条子信息的信息发布时间,并根据所述信息发布时间对所述子信息进行发布排序。
此外,所述信息推送模块13还用于:分别对所述待推送信息中每条子信息进行分类,并根据分类结果对所述子进行分类标识;
判断所述推送信息中是否存在相同所述分类标识的所述子信息;
当判断到存在相同所述分类标识的所述子信息时,分别计算相同所述分类标识的所述子信息的信息值,并在相同所述分类标识的信息内,删除除去最大所述信息值对应所述子信息之外的信息,所述信息值为信息热度、信息距离或信息发布时间。
本实施例,通过基于声纹识别和特征文字获取的方式,以分析用户的当前的情绪和信息需求,并基于分析得到的情绪和信息需求针对性的进行信息查询,进而有效的提高了信息推送的准确性,且通过根据用户年龄段进行信息筛选的设计,进一步提高了待推送信息推送的准确性。
实施例五
请参阅图5,是本发明第四实施例提供的移动终端101,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端101执行上述的基于声纹识别的信息推送方法。
本实施例还提供了一种存储介质,其上存储有上述移动终端101中所使用的计算机程序,该程序在执行时,包括如下步骤:
当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹;
对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本;
获取所述需求文本中的特征文字,并根据所述特征文字和所述用户情绪进行信息查询,得到待推送信息;
根据所述用户年龄段对所述待推送信息进行筛选,并将筛选后的所述待推送信息对用户进行推送。所述的存储介质,如:ROM/RAM、磁碟、光盘等。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元或模块完成,即将存储装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施方式中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。
本领域技术人员可以理解,图4中示出的组成结构并不构成对本发明的基于声纹识别的信息推送系统的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,而图1-3中的基于声纹识别的信息推送方法亦采用图4中所示的更多或更少的部件,或者组合某些部件,或者不同的部件布置来实现。本发明所称的单元、模块等是指一种能够被所述目标基于声纹识别的信息推送系统中的处理器(图未示)所执行并功能够完成特定功能的一系列计算机程序,其均可存储于所述目标基于声纹识别的信息推送系统的存储设备(图未示)内。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于声纹识别的信息推送方法,其特征在于,所述方法包括:
当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹;
对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本;
获取所述需求文本中的特征文字,并根据所述特征文字和所述用户情绪进行信息查询,得到待推送信息;
根据所述用户年龄段对所述待推送信息进行筛选,并将筛选后的所述待推送信息对用户进行推送。
2.如权利要求1所述的基于声纹识别的信息推送方法,其特征在于,所述对所述需求声纹进行情绪分析和年龄分析的步骤之前,所述方法还包括:
获取情绪样本声纹的频谱峰值,并根据所述频谱峰值查询声纹主频率;
根据所述声纹主频率对所述情绪样本声纹进行情绪因子分离;
根据分离后的所述情绪样本声纹训练情绪分类器,所述情绪分类器用于对所述需求声纹进行情绪分析;
获取年龄样本声纹的声纹特征,并根据所述声纹特征训练年龄分类器,所述年龄分类器用于对所述需求声纹进行年龄分析。
3.如权利要求1所述的基于声纹识别的信息推送方法,其特征在于,所述根据所述特征文字和所述用户情绪进行信息查询的步骤包括:
将所述特征文字和所述用户情绪与本地预存储的信息分类表进行匹配,得到目标信息类别;
根据所述目标信息类别进行网络信息搜索,得到所述待推送信息。
4.如权利要求1所述的基于声纹识别的信息推送方法,其特征在于,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤包括:
分别获取所述待推送信息中每条子信息上被标识的观看年龄,并判断所述观看年龄是否在所述用户年龄段内;
当判断到所述观看年龄未在所述用户年龄段内时,删除对应所述子信息。
5.如权利要求1所述的基于声纹识别的信息推送方法,其特征在于,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤之后,所述方法还包括:
获取用户的位置信息,并根据所述位置信息分别计算与所述待推送信息中每条子信息的信息源之间的信息距离;
根据所述信息距离对所子信息进行距离排序。
6.如权利要求1所述的基于声纹识别的信息推送方法,其特征在于,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤之后,所述方法还包括:
获取所述待推送信息中每条子信息的信息热度,并根据所述信息热度对所述子信息进行热度排序;
获取本地预存储的待推送数量,并根据所述待推送数量对排序后的所述子信息进行数量筛选。
7.如权利要求1所述的基于声纹识别的信息推送方法,其特征在于,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤之后,所述方法还包括:
分别获取所述待推送信息中每条子信息的信息发布时间;
根据所述信息发布时间对所述子信息进行发布排序。
8.如权利要求1所述的基于声纹识别的信息推送方法,其特征在于,所述根据所述用户年龄段对所述待推送信息进行筛选的步骤之后,所述方法还包括:
分别对所述待推送信息中每条子信息进行分类,并根据分类结果对所述子进行分类标识;
判断所述推送信息中是否存在相同所述分类标识的所述子信息;
当判断到存在相同所述分类标识的所述子信息时,分别计算相同所述分类标识的所述子信息的信息值,并在相同所述分类标识的信息内,删除除去最大所述信息值对应所述子信息之外的信息,所述信息值为信息热度、信息距离或信息发布时间。
9.一种基于声纹识别的信息推送系统,其特征在于,所述系统包括:
声纹提取模块,用于当接收到信息推送指令时,采集用户发出的信息需求语音,并提取所述信息需求语音中的声纹,得到需求声纹;
声纹识别模块,用于对所述需求声纹进行情绪分析和年龄分析,得到用户情绪和用户年龄段,并对所述需求声纹进行声纹识别,得到需求文本;
信息查询模块,用于获取所述需求文本中的特征文字,并根据所述特征文字和所述用户情绪进行信息查询,得到待推送信息;
信息推送模块,用于根据所述用户年龄段对所述待推送信息进行筛选,并将筛选后的所述待推送信息对用户进行推送。
10.一种移动终端,其特征在于,包括存储设备以及处理器,所述存储设备用于存储计算机程序,所述处理器运行所述计算机程序以使所述移动终端执行根据权利要求1至8任一项所述的基于声纹识别的信息推送方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010092624.6A CN111371838A (zh) | 2020-02-14 | 2020-02-14 | 基于声纹识别的信息推送方法、系统及移动终端 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010092624.6A CN111371838A (zh) | 2020-02-14 | 2020-02-14 | 基于声纹识别的信息推送方法、系统及移动终端 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111371838A true CN111371838A (zh) | 2020-07-03 |
Family
ID=71211436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010092624.6A Pending CN111371838A (zh) | 2020-02-14 | 2020-02-14 | 基于声纹识别的信息推送方法、系统及移动终端 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111371838A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019569A1 (en) * | 2014-07-18 | 2016-01-21 | Speetra, Inc. | System and method for speech capture and analysis |
CN106658129A (zh) * | 2016-12-27 | 2017-05-10 | 上海智臻智能网络科技股份有限公司 | 基于情绪的终端控制方法、装置及终端 |
CN107705793A (zh) * | 2017-09-22 | 2018-02-16 | 百度在线网络技术(北京)有限公司 | 基于声纹识别的信息推送方法、系统及其设备 |
CN108874895A (zh) * | 2018-05-22 | 2018-11-23 | 北京小鱼在家科技有限公司 | 交互信息推送方法、装置、计算机设备及存储介质 |
CN109582822A (zh) * | 2018-10-19 | 2019-04-05 | 百度在线网络技术(北京)有限公司 | 一种基于用户语音的音乐推荐方法及装置 |
US20190164566A1 (en) * | 2017-11-29 | 2019-05-30 | Arobot Innovation Co., Ltd. | Emotion recognizing system and method, and smart robot using the same |
CN110021308A (zh) * | 2019-05-16 | 2019-07-16 | 北京百度网讯科技有限公司 | 语音情绪识别方法、装置、计算机设备和存储介质 |
CN110189754A (zh) * | 2019-05-29 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 语音交互方法、装置、电子设备及存储介质 |
WO2019237354A1 (en) * | 2018-06-15 | 2019-12-19 | Wonder Group Technologies Ltd. | Method and apparatus for computerized matching based on emotional profile |
-
2020
- 2020-02-14 CN CN202010092624.6A patent/CN111371838A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160019569A1 (en) * | 2014-07-18 | 2016-01-21 | Speetra, Inc. | System and method for speech capture and analysis |
CN106658129A (zh) * | 2016-12-27 | 2017-05-10 | 上海智臻智能网络科技股份有限公司 | 基于情绪的终端控制方法、装置及终端 |
CN107705793A (zh) * | 2017-09-22 | 2018-02-16 | 百度在线网络技术(北京)有限公司 | 基于声纹识别的信息推送方法、系统及其设备 |
US20190164566A1 (en) * | 2017-11-29 | 2019-05-30 | Arobot Innovation Co., Ltd. | Emotion recognizing system and method, and smart robot using the same |
CN109841230A (zh) * | 2017-11-29 | 2019-06-04 | 威刚科技股份有限公司 | 语音情绪辨识系统与方法以及使用其的智能机器人 |
CN108874895A (zh) * | 2018-05-22 | 2018-11-23 | 北京小鱼在家科技有限公司 | 交互信息推送方法、装置、计算机设备及存储介质 |
WO2019237354A1 (en) * | 2018-06-15 | 2019-12-19 | Wonder Group Technologies Ltd. | Method and apparatus for computerized matching based on emotional profile |
CN109582822A (zh) * | 2018-10-19 | 2019-04-05 | 百度在线网络技术(北京)有限公司 | 一种基于用户语音的音乐推荐方法及装置 |
CN110021308A (zh) * | 2019-05-16 | 2019-07-16 | 北京百度网讯科技有限公司 | 语音情绪识别方法、装置、计算机设备和存储介质 |
CN110189754A (zh) * | 2019-05-29 | 2019-08-30 | 腾讯科技(深圳)有限公司 | 语音交互方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
TWI553494B (zh) | 基於多模態融合之智能高容錯視頻識別系統及其識別方法 | |
US20040163035A1 (en) | Method for automatic and semi-automatic classification and clustering of non-deterministic texts | |
CN107590172B (zh) | 一种大规模语音数据的核心内容挖掘方法及设备 | |
CN1270361A (zh) | 使用内容和扬声器信息进行音频信息检索的方法和装置 | |
CN1759396A (zh) | 改进的数据检索方法和系统 | |
EP2973034B1 (en) | Methods and systems for arranging and searching a database of media content recordings | |
TW200426622A (en) | Method and apparatus for content representation and retrieval in concept model space | |
CN106250553A (zh) | 一种服务推荐方法及终端 | |
CN108027814B (zh) | 停用词识别方法与装置 | |
KR20060020114A (ko) | 음악 검색 서비스 제공 시스템 및 방법 | |
CN102855317A (zh) | 一种基于演示视频的多模式索引方法及系统 | |
Jakubec et al. | Automatic music genre recognition for in-car infotainment | |
US8200485B1 (en) | Voice interface and methods for improving recognition accuracy of voice search queries | |
CN106294358A (zh) | 一种信息的检索方法及系统 | |
CN110659310A (zh) | 一种车辆信息的智能搜索方法 | |
EP3706014A1 (en) | Methods, apparatuses, devices, and storage media for content retrieval | |
CN115238154A (zh) | 搜索引擎优化系统 | |
CN112035723A (zh) | 资源库的确定方法和装置、存储介质及电子装置 | |
CN109284362B (zh) | 一种内容检索方法及系统 | |
CN114547373A (zh) | 一种基于音频智能识别搜索节目的方法 | |
CN107506407B (zh) | 一种文件分类、调用的方法及装置 | |
CN113761137B (zh) | 一种提取地址信息的方法及装置 | |
CN113268630A (zh) | 一种音频检索方法、设备及介质 | |
CN111371838A (zh) | 基于声纹识别的信息推送方法、系统及移动终端 | |
CN110019921B (zh) | 音频与属性的关联方法及装置、音频搜索方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20200703 |