CN104239456B - 用户特征数据的提取方法和装置 - Google Patents
用户特征数据的提取方法和装置 Download PDFInfo
- Publication number
- CN104239456B CN104239456B CN201410443469.2A CN201410443469A CN104239456B CN 104239456 B CN104239456 B CN 104239456B CN 201410443469 A CN201410443469 A CN 201410443469A CN 104239456 B CN104239456 B CN 104239456B
- Authority
- CN
- China
- Prior art keywords
- user
- data
- feature
- characteristic
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/60—Information retrieval; Database structures therefor; File system structures therefor of audio data
- G06F16/68—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/683—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
Landscapes
- Engineering & Computer Science (AREA)
- Library & Information Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提出一种用户特征数据的提取方法和装置,其中,所述用户特征数据的提取方法包括以下步骤:采集用户通过移动终端输入的日常语音数据;对日常语音数据进行特征识别,以获取用户的多个语音特征数据;以及根据获取的多个语音特征数据建立用户的特征数据库。本发明的用户特征数据的提取方法,根据用户的语音数据进行针对性的分析,能够方便、准确地获取用户的特征数据以及组成结构,因而有利于获取用户的潜在需求和个性化需求。
Description
技术领域
本发明涉及互联网技术领域,特别涉及一种用户特征数据的提取方法和装置。
背景技术
在移动互联网应用中,为了能够满足用户对资源的需求,需要对用户特征数据进行准确、全面分析,从而可根据提取出的用户特征数据提供符合不同用户个性化需求的资源。目前,可对用户在搜索引擎中输入的文本进行采集,并通过数据挖掘技术对采集到的数据中提取用户特征数据;或者直接通过用户问卷调查的方法获取用户的类别、需求等特征数据。
但是,通过采集用户输入的文本来挖掘用户特征,主要是通过对用户输入的文本进行概括后得到词语或者短语,并不能获取用户对这些词语或短语的主观感情色彩(是否喜欢、是否感兴趣等),因而容易因误判而难以准确的获取用户的需求、兴趣点等。另外,通过对用户输入的文本分析用户特征数据的方法,需要与文本对应的用户标识信息等数据进行绑定,因而对于未绑定用户标识信息的用户来说,进行跟踪记录及特征数据的提取的难度很大。而通过用户问卷调查的方法受到人力物力资源的限制,局限性大,仅适用于小范围的调查,并且数据资源过于集中,数据缺乏代表性,不利于对深层次的用户特征的提取。
发明内容
本发明旨在至少在一定程度上解决上述技术问题。
为此,本发明的第一个目的在于提出一种用户特征数据的提取方法,能够方便、准确地获取用户的特征数据以及组成结构,有利于获取用户的潜在需求和个性化需求。
本发明的第二个目的在于提出一种用户特征数据的提取装置。
为达上述目的,根据本发明第一方面实施例提出了一种用户特征数据的提取方法,包括以下步骤:采集用户通过移动终端输入的日常语音数据;对所述日常语音数据进行特征识别,以获取所述用户的多个语音特征数据;以及根据获取的所述多个语音特征数据建立所述用户的特征数据库。
本发明实施例的用户特征数据的提取方法,通过采集用户输入的日常语音数据,并进行特征识别,以获取用户的多个语音特征数据,并据此建立用户的特征数据库,从而根据用户的语音数据进行针对性的分析,能够方便、准确地获取用户的特征数据以及组成结构,并且语音数据本身可用于标识用户,因而有利于获取用户的潜在需求和个性化需求。
本发明第二方面实施例提供了一种用户特征数据的提取装置,包括:第一采集模块,用于采集用户通过移动终端输入的日常语音数据;特征识别模块,用于对所述日常语音数据进行特征识别,以获取所述用户的多个语音特征数据;以及建立模块,用于根据获取的所述多个语音特征数据建立所述用户的特征数据库。
本发明实施例的用户特征数据的提取装置,通过采集用户输入的日常语音数据,并进行特征识别,以获取用户的多个语音特征数据,并据此建立用户的特征数据库,从而根据用户的语音数据进行针对性的分析,能够方便、准确地获取用户的特征数据以及组成结构,并且语音数据本身可用于标识用户,因而有利于获取用户的潜在需求和个性化需求。
本发明的附加方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明的上述和/或附加的方面和优点从结合下面附图对实施例的描述中将变得明显和容易理解,其中:
图1为根据本发明一个实施例的用户特征数据的提取方法的流程图;
图2为根据本发明另一个实施例的用户特征数据的提取方法的流程图;
图3为根据本发明又一个实施例的用户特征数据的提取方法的流程图;
图4为根据本发明一个实施例的用户特征数据的提取装置的结构示意图;
图5为根据本发明另一个实施例的用户特征数据的提取装置的结构示意图;
图6为根据本发明又一个实施例的用户特征数据的提取装置的结构示意图;
图7为根据本发明再一个实施例的用户特征数据的提取装置的结构示意图;
图8为根据本发明另又一个实施例的用户特征数据的提取装置的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能理解为对本发明的限制。
在本发明的描述中,需要理解的是,术语“多个”指两个或两个以上;术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性。
下面参考附图描述根据本发明实施例的用户特征数据的提取方法和装置。
为了更准确的提取用户的特征数据,本发明提出了一种用户特征数据的提取方法,包括以下步骤:采集用户通过移动终端输入的日常语音数据;对日常语音数据进行特征识别,以获取用户的特征数据;以及根据获取的特征数据建立用户的特征数据库。
图1为根据本发明一个实施例的用户特征数据的提取方法的流程图。
如图1所示,根据本发明实施例的用户特征数据的提取方法,包括:
S101,采集用户通过移动终端输入的日常语音数据。
其中,日常语音数据可以是通过安装在移动终端中的各种语音输入装置获取的语音数据。在本发明的一个实施例中,举例来说,可通过移动终端中安装的语音助手、语音SDK(Software Development Kit,软件开发工具包)以及使用语音识别引擎应用程序等对用户输入的日常语音数据进行采集,或者通过在用户使用移动终端进行通话的过程中获取的语音通话数据获取用户日常语音数据。
S102,对日常语音数据进行特征识别,以获取用户的多个语音特征数据。
在本发明的实施例中,用户的语音特征数据可包括用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种。
其中,用户的身份特征数据可包括用户的性别信息;年龄特征数据为用户所属的年龄阶段,如青少年、中年、老年等;可获取所述日常语音数据的基频特征,并根据所述基频特征获取所述用户的身份特征数据和/或年龄特征数据。基频特征是指声音中最低且通常情况下最强的频率,通常被认为是声音的基础音调。男性和女性的声音的基频特征以及不同年龄段的人的声音的基频都具有较大的区别,因此可预先根据不同性别对应的基频特征和不同年龄段对应的基频特征的建立基频特征数据库。从而将据获取的到的用户的日常语音数据的基频特征与基频特征数据库中的基频特征进行比对,以得到该用户的身份特征数据和/或年龄特征数据。
用户所处的地区特征是指用户所在地或者用户的籍贯地区,可根据用户所使用语言种类来判断。语言种类可包括不同语种、方言等,例如、英语、日语、韩语、阿拉伯语、粤语、四川方言等。具体地,可对所述日常语音数据进行语义解析,以获取所述日常语音数据所属的语言种类,并根据所述所属的语言种类获取所述用户所处的地区特征数据。在对日常语音数据进行语义解析后,可得到语音的具体内容。然后,根据具体内容中的词汇、语义等于预先建立的语言词汇数据库进行比对,其中,语言词汇数据库中包括不同语言种类对应的词汇库。从而可根据用户的日常语音数据对应的词汇比对出对应的语言种类,并进一步预测出该用户所处的地区特征数据。例如,如果用户使用的是葡萄牙语,则用户可能为来自葡萄牙语使用国的用户或者用户正处于葡萄牙语使用国,如果用户使用的是粤语,则用户可能为来自广东、香港等地的用户或者用户正处于广东、香港等地。
S103,根据获取的多个语音特征数据建立用户的特征数据库。
对于每个用户来说,可根据该用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种,建立该用户的特征数据库。此外,由于语音数据本身具有声纹特征,因此可针对不同用户分别建立对应的特征数据库。由此,能够准确地获取用户的组成结构,更有利于挖掘不同用户的潜在需求特征和个性化需求特征。
本发明实施例的用户特征数据的提取方法,通过采集用户输入的日常语音数据,并进行特征识别,以获取用户的多个语音特征数据,并据此建立用户的特征数据库,从而根据用户的语音数据进行针对性的分析,能够方便、准确地获取用户的特征数据以及组成结构,并且语音数据本身可用于标识用户,因而有利于获取用户的潜在需求和个性化需求。
图2为根据本发明另一个实施例的用户特征数据的提取方法的流程图。
如图2所示,根据本发明实施例的用户特征数据的提取方法,包括:
S201,采集用户通过移动终端输入的日常语音数据。
其中,日常语音数据可以是通过安装在移动终端中的各种语音输入装置获取的语音数据。在本发明的一个实施例中,举例来说,可通过移动终端中安装的语音助手、语音SDK(Software Development Kit,软件开发工具包)以及使用语音识别引擎应用程序等对用户输入的日常语音数据进行采集,或者通过在用户使用移动终端进行通话的过程中获取的语音通话数据获取用户日常语音数据。
S202,获取用户的声纹特征。
其中,声纹特征是指语音的频率、强度、声压随时间推移的变化特征或者某一时间点上声波强度和频率的特征。具体地,在本发明的实施例中,可通过滤波器等方式对用户的语音进行分析得到该用户的声纹特征,当然也可通过其他声纹获取方法来实现,本发明对获取声纹特征的方式不做具体限定。
S203,根据用户的声纹特征对日常语音数据进行筛选,以滤除非用户的语音数据。
具体地,在本发明的实施例中,可分别获取采集到的日常语音数据的声纹特征,并与用户的声纹特征进行比对,如果一个语音数据的声纹特征与用户的声纹特征不一致,则说明该语音数据不是该用户的语音数据。由此,可根据比对结果从日常语音数据中筛选出与用户的声纹特征不一致的日常语音,并滤除。
S204,对日常语音数据进行特征识别,以获取用户的多个语音特征数据。
在本发明的实施例中,用户的语音特征数据可包括用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种。
其中,用户的身份特征数据可包括用户的性别信息;年龄特征数据为用户所属的年龄阶段,如青少年、中年、老年等;可获取所述日常语音数据的基频特征,并根据所述基频特征获取所述用户的身份特征数据和/或年龄特征数据。基频特征是指声音中最低且通常情况下最强的频率,通常被认为是声音的基础音调。男性和女性的声音的基频特征以及不同年龄段的人的声音的基频都具有较大的区别,因此可预先根据不同性别对应的基频特征和不同年龄段对应的基频特征的建立基频特征数据库。从而将据获取的到的用户的日常语音数据的基频特征与基频特征数据库中的基频特征进行比对,以得到该用户的身份特征数据和/或年龄特征数据。
用户所处的地区特征是指用户所在地或者用户的籍贯地区,可根据用户所使用语言种类来判断。语言种类可包括不同语种、方言等,例如、英语、日语、韩语、阿拉伯语、粤语、四川方言等。具体地,可对所述日常语音数据进行语义解析,以获取所述日常语音数据所属的语言种类,并根据所述所属的语言种类获取所述用户所处的地区特征数据。在对日常语音数据进行语义解析后,可得到语音的具体内容。然后,根据具体内容中的词汇、语义等于预先建立的语言词汇数据库进行比对,其中,语言词汇数据库中包括不同语言种类对应的词汇库。从而可根据用户的日常语音数据对应的词汇比对出对应的语言种类,并进一步预测出该用户所处的地区特征数据。例如,如果用户使用的是葡萄牙语,则用户可能为来自葡萄牙语使用国的用户或者用户正处于葡萄牙语使用国,如果用户使用的是粤语,则用户可能为来自广东、香港等地的用户或者用户正处于广东、香港等地。
S205,根据获取的多个语音特征数据建立用户的特征数据库。
对于每个用户来说,可根据该用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种,建立该用户的特征数据库。此外,由于语音数据本身具有声纹特征,因此可针对不同用户分别建立对应的特征数据库。由此,能够准确地获取用户的组成结构,更有利于挖掘不同用户的潜在需求特征和个性化需求特征。
本发明实施例的用户特征数据的提取方法,可根据用户的声纹特征对采集到的日常语音数据进行筛选,以滤除非用户的语音数据,从而在提取用户的特征数据时,不会被其他用户的语音数据干扰,能够更准确地提取用户的特征数据。
图3为根据本发明又一个实施例的用户特征数据的提取方法的流程图。
如图3所示,根据本发明实施例的用户特征数据的提取方法,包括:
S301,采集用户通过移动终端输入的日常语音数据。
其中,日常语音数据可以是通过安装在移动终端中的各种语音输入装置获取的语音数据。在本发明的一个实施例中,举例来说,可通过移动终端中安装的语音助手、语音SDK(Software Development Kit,软件开发工具包)以及使用语音识别引擎应用程序等对用户输入的日常语音数据进行采集,或者通过在用户使用移动终端进行通话的过程中获取的语音通话数据获取用户日常语音数据。
S302,获取用户的声纹特征。
其中,声纹特征是指语音的频率、强度、声压随时间推移的变化特征或者某一时间点上声波强度和频率的特征。具体地,在本发明的实施例中,可通过滤波器等方式对用户的语音进行分析得到该用户的声纹特征,当然也可通过其他声纹获取方法来实现,本发明对获取声纹特征的方式不做具体限定。
S303,根据用户的声纹特征对日常语音数据进行筛选,以滤除非用户的语音数据。
具体地,在本发明的实施例中,可分别获取采集到的日常语音数据的声纹特征,并与用户的声纹特征进行比对,如果一个语音数据的声纹特征与用户的声纹特征不一致,则说明该语音数据不是该用户的语音数据。由此,可根据比对结果从日常语音数据中筛选出与用户的声纹特征不一致的日常语音,并滤除。
S304,对日常语音数据进行特征识别,以获取用户的多个语音特征数据。
在本发明的实施例中,用户的语音特征数据可包括用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种。
其中,用户的身份特征数据可包括用户的性别信息;年龄特征数据为用户所属的年龄阶段,如青少年、中年、老年等;可获取所述日常语音数据的基频特征,并根据所述基频特征获取所述用户的身份特征数据和/或年龄特征数据。基频特征是指声音中最低且通常情况下最强的频率,通常被认为是声音的基础音调。男性和女性的声音的基频特征以及不同年龄段的人的声音的基频都具有较大的区别,因此可预先根据不同性别对应的基频特征和不同年龄段对应的基频特征的建立基频特征数据库。从而将据获取的到的用户的日常语音数据的基频特征与基频特征数据库中的基频特征进行比对,以得到该用户的身份特征数据和/或年龄特征数据。
用户所处的地区特征是指用户所在地或者用户的籍贯地区,可根据用户所使用语言种类来判断。语言种类可包括不同语种、方言等,例如、英语、日语、韩语、阿拉伯语、粤语、四川方言等。具体地,可对所述日常语音数据进行语义解析,以获取所述日常语音数据所属的语言种类,并根据所述所属的语言种类获取所述用户所处的地区特征数据。在对日常语音数据进行语义解析后,可得到语音的具体内容。然后,根据具体内容中的词汇、语义等于预先建立的语言词汇数据库进行比对,其中,语言词汇数据库中包括不同语言种类对应的词汇库。从而可根据用户的日常语音数据对应的词汇比对出对应的语言种类,并进一步预测出该用户所处的地区特征数据。例如,如果用户使用的是葡萄牙语,则用户可能为来自葡萄牙语使用国的用户或者用户正处于葡萄牙语使用国,如果用户使用的是粤语,则用户可能为来自广东、香港等地的用户或者用户正处于广东、香港等地。
S305,根据获取的多个语音特征数据建立用户的特征数据库。
对于每个用户来说,可根据该用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种,建立该用户的特征数据库。此外,由于语音数据本身具有声纹特征,因此可针对不同用户分别建立对应的特征数据库。由此,能够准确地获取用户的组成结构,更有利于挖掘不同用户的潜在需求特征和个性化需求特征。
S306,采集用户的历史搜索数据。
其中,用户的历史搜索数据可包括用户历史搜索所使用的文本、语音、图像等数据。具体地,可在用户执行搜索时,对用户输入的文本、语音、图像等数据进行记录,从而采集用户的历史搜索数据。
S307,根据历史搜索数据获取用户的需求特征。
其中,用户的需求特征为根据用户喜欢或者感兴趣的内容、类别等信息预测出的用户需求信息。
具体地,在本发明的实施例中,对于文本数据,可对其进行分词、语义分析等以得到用户搜索的关键字,从而可根据采集到的历史文本数据统计挖掘出用户经常搜索的内容、类别等;对于语音数据,可对其进行语音识别,以获取语音数据的内容,进一步对该内容进行语义分析,从而可统计挖掘出用户经常搜索的内容、类别等;对于图像数据,可对其进行图像识别,以获取图像内容,从而可根据采集到的历史图像数据统计挖掘出用户经常搜索的内容、类别等。
由此,可根据用户经常搜索的内容、类别得到用户喜欢或者感兴趣的内容、类别,并预测用户的需求特征。举例来说,如果用户经常搜索机票、风景,可预测用户的需求特征为旅游。
S308,根据用户的需求特征更新用户的特征数据库。
在本发明的实施例中,可将用户的需求特征加入到用户的特征数据库中。
进一步地,还可根据用户的需求特征对用户的身份特征数据、年龄特征数据和用户所处的地区特征数据进一步精细化限定。
举例来说,如果一个用户经常搜索衣服、美容等内容,且该则用户为一个男性,则可知用户对时尚类比较感兴趣,从而可将该用户的身份特征由男性进一步限定为时尚类行业相关人员。
由此,可根据进一步限定后的用户的特征数据更新用户的特征数据库。
应当理解,在本发明的实施例中,步骤S302和S303是可选的。
本发明实施例的用户特征数据的提取方法,可根据用户的历史搜索数据获取用户的需求特征,并根据用户的需求特征对用户的特征数据库进行更新,从而能够提取更精细化的用户特征,有利于挖掘用户省层次的需求。
在本发明的一个实施例中,在建立用户的特征数据库后,可根据用户的特征数据库中用户的特征数据为用户提供搜索结果,或者为用户推送信息。
因此,在本发明的一个实施例中,还可包括获取用户的搜索词,并根据用户的特征数据库和搜索词向用户反馈搜索结果的步骤。其中,用户需要进行搜索,可通过搜索引擎或者其他应用程序输入搜索词,其中,搜索词可以通过文本、语音等形式输入。具体地,可根据搜索结果与搜索词的相关度和匹配度获取多个搜索结果,然后,根据用户的特征数据库中用户的特征数据对获取到的多个搜索结果进步进行筛选、重新排序后提供给用户。由此,能够更有针对性地为用户提供搜索结果,搜索结果更能满足用户需求,提升了用户的搜索体验。
举例来说,对于搜索词“美食”,可获取多个餐饮相关的结果,而根据用户的特征数据库可知,该用户为四川人,则可从多个餐饮结果用筛选出四川美食提供给用户。
在本发明的另一个实施例中,还可包括根据用户的特征数据库向用户推送信息的步骤。具体地,可根据用户的特征数据中用户的特征数据获取符合用户特征的信息,并推送给用户,从而能够智能根据用户需求为用户主动提供信息,且推送的信息更符合用户的需求和兴趣,提升了用户体验。
举例来说,如果用户为天津的孕妇,则可为用户推荐天津比较好的妇产医院,并可定期为用户推荐一些孕妇在不同阶段需要注意的事项等信息。
应当理解,本发明实施例建立的用户的特征数据库,不仅可应用于语音搜索、推荐系统,也可以应用于图像搜索、推荐系统以及传统的文本搜索、推荐系统。从而能够根据用户的特征更准确的预测用户需求,并为用户精准地提供或推荐其需要的信息,降低了用户获取信息的成本,提升了体验。
为了实现上述实施例,本发明还提出一种用户特征数据的提取装置。
一种用户特征数据的提取装置,包括:第一采集模块,用于采集用户通过移动终端输入的日常语音数据;特征识别模块,用于对日常语音数据进行特征识别,以获取用户的多个语音特征数据;以及建立模块,用于根据获取的多个语音特征数据建立用户的特征数据库。
图4为根据本发明一个实施例的用户特征数据的提取装置的结构示意图。
如图4所示,根据本发明实施例的用户特征数据的提取装置,包括:第一采集模块10、特征识别模块20和建立模块30。
具体地,第一采集模块10用于采集用户通过移动终端输入的日常语音数据。其中,日常语音数据可以是第一采集模块10通过安装在移动终端中的各种语音输入装置获取的语音数据。在本发明的一个实施例中,举例来说,第一采集模块10可通过移动终端中安装的语音助手、语音SDK(Software Development Kit,软件开发工具包)以及使用语音识别引擎应用程序等对用户输入的日常语音数据进行采集,或者通过在用户使用移动终端进行通话的过程中获取的语音通话数据获取用户日常语音数据。
特征识别模块20用于对日常语音数据进行特征识别,以获取用户的多个语音特征数据。
在本发明的实施例中,用户的语音特征数据可包括用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种。
其中,用户的身份特征数据可包括用户的性别信息;年龄特征数据为用户所属的年龄阶段,如青少年、中年、老年等;用户所处的地区特征是指用户所在地或者用户的籍贯地区。
在本发明的实施例中,特征识别模块20可具体包括:获取单元21和语义解析单元22。
获取单元21用于获取所述日常语音数据的基频特征,并根据所述基频特征获取所述用户的身份特征数据和/或年龄特征数据。基频特征是指声音中最低且通常情况下最强的频率,通常被认为是声音的基础音调。男性和女性的声音的基频特征以及不同年龄段的人的声音的基频都具有较大的区别,因此可预先根据不同性别对应的基频特征和不同年龄段对应的基频特征的建立基频特征数据库。从而获取单元21将据获取的到的用户的日常语音数据的基频特征与基频特征数据库中的基频特征进行比对,以得到该用户的身份特征数据和/或年龄特征数据。
语义解析单元22用于对所述日常语音数据进行语义解析,以获取所述日常语音数据所属的语言种类,并根据所述所属的语言种类获取所述用户所处的地区特征数据。用户所处的地区特征可根据用户所使用语言种类来判断。语言种类可包括不同语种、方言等,例如、英语、日语、韩语、阿拉伯语、粤语、四川方言等。语义解析单元22可对所述日常语音数据进行语义解析,以获取所述日常语音数据所属的语言种类,并根据所述所属的语言种类获取所述用户所处的地区特征数据。在对日常语音数据进行语义解析后,可得到语音的具体内容。然后,根据具体内容中的词汇、语义等于预先建立的语言词汇数据库进行比对,其中,语言词汇数据库中包括不同语言种类对应的词汇库。从而可根据用户的日常语音数据对应的词汇比对出对应的语言种类,并进一步预测出该用户所处的地区特征数据。例如,如果用户使用的是葡萄牙语,则用户可能为来自葡萄牙语使用国的用户或者用户正处于葡萄牙语使用国,如果用户使用的是粤语,则用户可能为来自广东、香港等地的用户或者用户正处于广东、香港等地。
建立模块30用于根据获取的多个语音特征数据建立用户的特征数据库。对于每个用户来说,建立模块30可根据该用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种,建立该用户的特征数据库。此外,由于语音数据本身具有声纹特征,因此可针对不同用户分别建立对应的特征数据库。由此,能够准确地获取用户的组成结构,更有利于挖掘不同用户的潜在需求特征和个性化需求特征。
本发明实施例的用户特征数据的提取装置,通过采集用户输入的日常语音数据,并进行特征识别,以获取用户的多个语音特征数据,并据此建立用户的特征数据库,从而根据用户的语音数据进行针对性的分析,能够方便、准确地获取用户的特征数据以及组成结构,并且语音数据本身可用于标识用户,因而有利于获取用户的潜在需求和个性化需求。
图5为根据本发明一个实施例的用户特征数据的提取装置的结构示意图。
如图5所示,根据本发明实施例的用户特征数据的提取装置,包括:第一采集模块10、特征识别模块20、建立模块30和筛选模块40。
具体地,筛选模块40用于在对日常语音数据进行特征识别之前,获取用户的声纹特征,并根据用户的声纹特征对日常语音数据进行筛选,以滤除非用户的语音数据。
其中,声纹特征是指语音的频率、强度、声压随时间推移的变化特征或者某一时间点上声波强度和频率的特征。具体地,在本发明的实施例中,筛选模块40可通过滤波器等方式对用户的语音进行分析得到该用户的声纹特征,当然也可通过其他声纹获取方法来实现,本发明对获取声纹特征的方式不做具体限定。然后,筛选模块40可分别获取采集到的日常语音数据的声纹特征,并与用户的声纹特征进行比对,如果一个语音数据的声纹特征与用户的声纹特征不一致,则说明该语音数据不是该用户的语音数据。由此,筛选模块40可根据比对结果从日常语音数据中筛选出与用户的声纹特征不一致的日常语音,并滤除。
本发明实施例的用户特征数据的提取装置,可根据用户的声纹特征对采集到的日常语音数据进行筛选,以滤除非用户的语音数据,从而在提取用户的特征数据时,不会被其他用户的语音数据干扰,能够更准确地提取用户的特征数据。
图6为根据本发明一个实施例的用户特征数据的提取装置的结构示意图。
如图6所示,根据本发明实施例的用户特征数据的提取装置,包括:第一采集模块10、特征识别模块20、建立模块30、筛选模块40、第二采集模块50、获取模块60和更新模块70。其中,筛选模块40是可选的。
具体地,第二采集模块50用于采集用户的历史搜索数据。其中,用户的历史搜索数据可包括用户历史搜索所使用的文本、语音、图像等数据。更具体地,第二采集模块50可在用户执行搜索时,对用户输入的文本、语音、图像等数据进行记录,从而采集用户的历史搜索数据。
获取模块60用于根据历史搜索数据获取用户的需求特征。其中,用户的需求特征为根据用户喜欢或者感兴趣的内容、类别等信息预测出的用户需求信息。
更具体地,在本发明的实施例中,对于文本数据,获取模块60可对其进行分词、语义分析等以得到用户搜索的关键字,从而可根据采集到的历史文本数据统计挖掘出用户经常搜索的内容、类别等;对于语音数据,获取模块60可对其进行语音识别,以获取语音数据的内容,进一步对该内容进行语义分析,从而可统计挖掘出用户经常搜索的内容、类别等;对于图像数据,获取模块60可对其进行图像识别,以获取图像内容,从而可根据采集到的历史图像数据统计挖掘出用户经常搜索的内容、类别等。
由此,获取模块60可根据用户经常搜索的内容、类别得到用户喜欢或者感兴趣的内容、类别,并预测用户的需求特征。举例来说,如果用户经常搜索机票、风景,可预测用户的需求特征为旅游。
更新模块70用于根据用户的需求特征更新用户的特征数据库。在本发明的实施例中,更新模块70可将用户的需求特征加入到用户的特征数据库中。进一步地,更新模块70还可根据用户的需求特征对用户的身份特征数据、年龄特征数据和用户所处的地区特征数据进一步精细化限定。
举例来说,如果一个用户经常搜索衣服、美容等内容,且该则用户为一个男性,则可知用户对时尚类比较感兴趣,从而可将该用户的身份特征由男性进一步限定为时尚类行业相关人员。
由此,可根据进一步限定后的用户的特征数据更新用户的特征数据库。
本发明实施例的用户特征数据的提取装置,可根据用户的历史搜索数据获取用户的需求特征,并根据用户的需求特征对用户的特征数据库进行更新,从而能够提取更精细化的用户特征,有利于挖掘用户省层次的需求。
图7为根据本发明一个实施例的用户特征数据的提取装置的结构示意图。
如图7所示,根据本发明实施例的用户特征数据的提取装置,包括:第一采集模块10、特征识别模块20、建立模块30、筛选模块40、第二采集模块50、获取模块60、更新模块70和搜索模块80。其中,筛选模块40、第二采集模块50、获取模块60和更新模块70是可选的。
具体地,搜索模块80用于获取用户的搜索词,并根据用户的特征数据库和搜索词向用户反馈搜索结果。其中,用户需要进行搜索,可通过搜索引擎或者其他应用程序输入搜索词,其中,搜索词可以通过文本、语音等形式输入。更具体地,搜索模块80可根据搜索结果与搜索词的相关度和匹配度获取多个搜索结果,然后,根据用户的特征数据库中用户的特征数据对获取到的多个搜索结果进步进行筛选、重新排序后提供给用户。
举例来说,对于搜索词“美食”,可获取多个餐饮相关的结果,而根据用户的特征数据库可知,该用户为四川人,则可从多个餐饮结果用筛选出四川美食提供给用户。
本发明实施例的用户特征数据的提取装置,能够更有针对性地为用户提供搜索结果,搜索结果更能满足用户需求,提升了用户的搜索体验。
图8为根据本发明一个实施例的用户特征数据的提取装置的结构示意图。
如图8所示,根据本发明实施例的用户特征数据的提取装置,包括:第一采集模块10、特征识别模块20、建立模块30、筛选模块40、第二采集模块50、获取模块60、更新模块70和推送模块90。其中,筛选模块40、第二采集模块50、获取模块60和更新模块70是可选的。
具体地,推送模块90用于根据用户的特征数据库向用户推送信息。更具体地,推送模块90可根据用户的特征数据中用户的特征数据获取符合用户特征的信息,并推送给用户。
举例来说,如果用户为天津的孕妇,则可为用户推荐天津比较好的妇产医院,并可定期为用户推荐一些孕妇在不同阶段需要注意的事项等信息。
本发明实施例的用户特征数据的提取装置,能够智能根据用户需求为用户主动提供信息,且推送的信息更符合用户的需求和兴趣,提升了用户体验。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现特定逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本发明的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本发明的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,"计算机可读介质"可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本发明各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同限定。
Claims (6)
1.一种用户特征数据的提取方法,其特征在于,包括以下步骤:
采集用户通过移动终端输入的日常语音数据;
对所述日常语音数据进行特征识别,以获取所述用户的多个语音特征数据;以及
根据获取的所述多个语音特征数据建立所述用户的特征数据库;
其中,语音特征数据包括用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种;
所述对所述日常语音数据进行特征识别,以获取所述用户的多个语音特征数据具体包括:
获取所述日常语音数据的基频特征,并根据所述基频特征获取所述用户的身份特征数据和/或年龄特征数据;和/或,
对所述日常语音数据进行语义解析,以获取所述日常语音数据所属的语言种类,并根据所述所属的语言种类获取所述用户所处的地区特征数据;
所述方法还包括:
采集所述用户的历史搜索数据;
根据所述历史搜索数据获取用户的需求特征,其中,所述需求特征为根据所述用户喜欢或者感兴趣的信息预测出的用户需求信息,其中,所述用户喜欢或者感兴趣的信息是通过历史搜索数据得到的;
根据所述用户的需求特征更新所述用户的特征数据库;
所述方法还包括:
获取所述用户的搜索词;
根据所述搜索词获取多个搜索结果,并根据所述用户的特征数据库对所述多个搜索结果筛选,以得到筛选后的搜索结果;
将筛选后的搜索结果提供给所述用户。
2.如权利要求1所述的用户特征数据的提取方法,其特征在于,在对所述日常语音数据进行特征识别之前还包括:
获取所述用户的声纹特征;以及
根据所述用户的声纹特征对所述日常语音数据进行筛选,以滤除非所述用户的语音数据。
3.如权利要求1-2任一项所述的用户特征数据的提取方法,其特征在于,还包括:
根据所述用户的特征数据库向所述用户推送信息。
4.一种用户特征数据的提取装置,其特征在于,包括:
第一采集模块,用于采集用户通过移动终端输入的日常语音数据;
特征识别模块,用于对所述日常语音数据进行特征识别,以获取所述用户的多个语音特征数据;以及
建立模块,用于根据获取的所述多个语音特征数据建立所述用户的特征数据库;
其中,语音特征数据包括用户的身份特征数据、年龄特征数据和用户所处的地区特征数据中的一种或多种;
所述特征识别模块具体包括:
获取单元,用于获取所述日常语音数据的基频特征,并根据所述基频特征获取所述用户的身份特征数据和/或年龄特征数据;
语义解析单元,用于对所述日常语音数据进行语义解析,以获取所述日常语音数据所属的语言种类,并根据所述所属的语言种类获取所述用户所处的地区特征数据;
所述装置还包括:
第二采集模块,用于采集所述用户的历史搜索数据;
获取模块,用于根据所述历史搜索数据获取用户的需求特征;更新模块,用于根据所述用户的需求特征更新所述用户的特征数据库,其中,所述需求特征为根据所述用户喜欢或者感兴趣的信息预测出的用户需求信息,其中,所述用户喜欢或者感兴趣的信息是通过历史搜索数据得到的;
所述装置还包括:
搜索模块,用于获取所述用户的搜索词;根据所述搜索词获取多个搜索结果,并根据所述用户的特征数据库对所述多个搜索结果筛选,以得到筛选后的搜索结果;将筛选后的搜索结果提供给所述用户。
5.如权利要求4所述的用户特征数据的提取装置,其特征在于,还包括:
筛选模块,用于在对所述日常语音数据进行特征识别之前,获取所述用户的声纹特征,并根据所述用户的声纹特征对所述日常语音数据进行筛选,以滤除非所述用户的语音数据。
6.如权利要求4-5任一项所述的用户特征数据的提取装置,其特征在于,还包括:
推送模块,用于根据所述用户的特征数据库向所述用户推送信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410443469.2A CN104239456B (zh) | 2014-09-02 | 2014-09-02 | 用户特征数据的提取方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410443469.2A CN104239456B (zh) | 2014-09-02 | 2014-09-02 | 用户特征数据的提取方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104239456A CN104239456A (zh) | 2014-12-24 |
CN104239456B true CN104239456B (zh) | 2019-05-03 |
Family
ID=52227515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410443469.2A Active CN104239456B (zh) | 2014-09-02 | 2014-09-02 | 用户特征数据的提取方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104239456B (zh) |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105808903A (zh) * | 2014-12-29 | 2016-07-27 | 中兴通讯股份有限公司 | 一种生成健康报告的方法及装置 |
CN104700843A (zh) * | 2015-02-05 | 2015-06-10 | 海信集团有限公司 | 一种年龄识别的方法及装置 |
CN105096938A (zh) * | 2015-06-30 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 一种用于获取用户的用户特征信息的方法和装置 |
CN105096940B (zh) * | 2015-06-30 | 2019-03-08 | 百度在线网络技术(北京)有限公司 | 用于进行语音识别的方法和装置 |
CN105095406A (zh) * | 2015-07-09 | 2015-11-25 | 百度在线网络技术(北京)有限公司 | 一种基于用户特征的语音搜索方法及装置 |
CN105045889B (zh) * | 2015-07-29 | 2018-04-20 | 百度在线网络技术(北京)有限公司 | 一种信息推送方法及装置 |
CN106537493A (zh) * | 2015-09-29 | 2017-03-22 | 深圳市全圣时代科技有限公司 | 语音识别系统及方法、客户端设备及云端服务器 |
CN105786978A (zh) * | 2016-02-05 | 2016-07-20 | 百度在线网络技术(北京)有限公司 | 基于人工智能的移动搜索方法和装置 |
CN106096653B (zh) * | 2016-06-12 | 2019-10-22 | 中国科学院自动化研究所 | 基于跨平台用户社交多媒体行为的人口属性推断方法 |
CN107170457A (zh) * | 2017-06-29 | 2017-09-15 | 深圳市泰衡诺科技有限公司 | 年龄识别方法、装置及终端 |
CN108257604B (zh) * | 2017-12-08 | 2021-01-08 | 平安普惠企业管理有限公司 | 语音识别方法、终端设备及计算机可读存储介质 |
CN108717851B (zh) * | 2018-03-28 | 2021-04-06 | 深圳市三诺数字科技有限公司 | 一种语音识别方法及装置 |
CN108920541A (zh) * | 2018-06-12 | 2018-11-30 | 广东小天才科技有限公司 | 一种基于语音搜索的识别方法及家教机 |
CN108986796A (zh) * | 2018-06-21 | 2018-12-11 | 广东小天才科技有限公司 | 一种语音搜索方法及装置 |
CN109145123B (zh) * | 2018-09-30 | 2020-11-17 | 国信优易数据股份有限公司 | 知识图谱模型的构建方法、智能交互方法、系统及电子设备 |
CN109686367B (zh) * | 2018-12-17 | 2021-02-02 | 科大讯飞股份有限公司 | 一种耳机降噪方法、装置、设备及可读存储介质 |
CN111370001B (zh) * | 2018-12-26 | 2023-10-10 | Tcl科技集团股份有限公司 | 一种发音的纠正方法、智能终端及存储介质 |
CN109919657A (zh) * | 2019-01-24 | 2019-06-21 | 珠海格力电器股份有限公司 | 用户需求信息的获取方法、装置、存储介质及语音设备 |
CN111402931B (zh) * | 2020-03-05 | 2023-05-26 | 云知声智能科技股份有限公司 | 一种利用声音画像辅助的语音边界检测方法及系统 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102802114A (zh) * | 2012-06-20 | 2012-11-28 | 北京语言大学 | 利用语音进行座席筛选的方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4427530B2 (ja) * | 2006-09-21 | 2010-03-10 | 株式会社東芝 | 音声認識装置、プログラムおよび音声認識方法 |
CN102915731B (zh) * | 2012-10-10 | 2019-02-05 | 百度在线网络技术(北京)有限公司 | 一种个性化的语音识别的方法及装置 |
CN103020047A (zh) * | 2012-12-31 | 2013-04-03 | 威盛电子股份有限公司 | 修正语音应答的方法及自然语言对话系统 |
-
2014
- 2014-09-02 CN CN201410443469.2A patent/CN104239456B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102802114A (zh) * | 2012-06-20 | 2012-11-28 | 北京语言大学 | 利用语音进行座席筛选的方法及系统 |
Non-Patent Citations (1)
Title |
---|
"基于MFCC与基频特征贡献度识别说话人性别";庞程 等;《华中科技大学学报(自然科学版)》;20140110;第108-111页 |
Also Published As
Publication number | Publication date |
---|---|
CN104239456A (zh) | 2014-12-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104239456B (zh) | 用户特征数据的提取方法和装置 | |
US11538472B2 (en) | Processing speech signals in voice-based profiling | |
KR102018295B1 (ko) | 구간 영상 검색 및 제공 장치, 방법 및 컴퓨터-판독가능 매체 | |
US20230377312A1 (en) | System and method for neural network orchestration | |
CN105653738B (zh) | 基于人工智能的搜索结果播报方法和装置 | |
CN104239459B (zh) | 语音搜索方法、装置和系统 | |
US20090326947A1 (en) | System and method for spoken topic or criterion recognition in digital media and contextual advertising | |
CN105224581B (zh) | 在播放音乐时呈现图片的方法和装置 | |
CN105206258A (zh) | 声学模型的生成方法和装置及语音合成方法和装置 | |
US20090319513A1 (en) | Similarity calculation device and information search device | |
CN105677927B (zh) | 用于提供搜索结果的方法和装置 | |
CN102280106A (zh) | 用于移动通信终端的语音网络搜索方法及其装置 | |
CN104298658B (zh) | 获取搜索结果的方法和装置 | |
CN109564576A (zh) | 视频管理系统中的视频片段播放列表生成 | |
Stoeger et al. | Age-group estimation in free-ranging African elephants based on acoustic cues of low-frequency rumbles | |
CN109086265A (zh) | 一种语义训练方法、短文本中多语义词消歧方法 | |
Khan | Improved multi-lingual sentiment analysis and recognition using deep learning | |
CN106326386A (zh) | 搜索结果的展示方法和装置 | |
Stanley et al. | Back vowel dynamics and distinctions in Southern American English | |
KR101515413B1 (ko) | 전문분야 검색 지원 방법 및 그 장치 | |
Nandi et al. | Implicit processing of LP residual for language identification | |
Takeuchi et al. | Getting insights from the voices of customers: Conversation mining at a contact center | |
CN113689633A (zh) | 一种景区人机交互方法、装置及系统 | |
KR102422844B1 (ko) | 인공지능에 기반하여 영상 컨텐츠의 언어 위기를 관리하는 방법 | |
Leinonen | Factor analysis of vowel pronunciation in Swedish dialects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |