CN111161741B - 一种个性化信息识别方法、装置、电子设备及存储介质 - Google Patents

一种个性化信息识别方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111161741B
CN111161741B CN201911320518.2A CN201911320518A CN111161741B CN 111161741 B CN111161741 B CN 111161741B CN 201911320518 A CN201911320518 A CN 201911320518A CN 111161741 B CN111161741 B CN 111161741B
Authority
CN
China
Prior art keywords
voiceprint
behavior information
user
information
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911320518.2A
Other languages
English (en)
Other versions
CN111161741A (zh
Inventor
罗景
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuba Co Ltd
Original Assignee
Wuba Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuba Co Ltd filed Critical Wuba Co Ltd
Priority to CN201911320518.2A priority Critical patent/CN111161741B/zh
Publication of CN111161741A publication Critical patent/CN111161741A/zh
Application granted granted Critical
Publication of CN111161741B publication Critical patent/CN111161741B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本申请公开了一种个性化信息识别方法、装置、电子设备及存储介质,对语音交互行为信息对应的语音片段进行声纹识别处理,得到与每个用户对应的个体用户声纹序列。根据个体用户声纹序列的所属时间范围,将该时间范围对应的操作交互行为信息和个体用户声纹序列构建个体用户完整行为序列数据,进而确定每个用户的个性化信息。可见,本发明提供的方法,可以提取多个用户与智能设备在语音交互过程中的声纹片段,根据声纹片段将每个用户的操作交互行为信息进行聚合,构建个体用户完整行为序列数据,进而进行个体用户的个性化偏好生成,该方法可以在多用户与智能设备进行语音交互时,实现针对每个个体用户进行对应的个性化信息识别,准确性好。

Description

一种个性化信息识别方法、装置、电子设备及存储介质
技术领域
本申请涉及计算机技术领域,尤其涉及一种个性化信息识别方法、装置、电子设备及存储介质。
背景技术
随着语音技术的成熟与普及,语音已经成为互联网应用交互的标配,人们通过语音与智能设备进行交互,实现对智能设备的控制,智能设备包括智能电视和智能音箱等。同一个智能设备也可以由多个人同时进行交互,这种应用场景为开放语音交互场景,例如,家庭成员同时使用一个智能电视收看节目,或者,使用同一个智能音箱获取信息收听音乐。
目前,在开放语音交互场景下,智能设备的个性化信息都是基于用户使用智能设备而产生,也就是汇总每个用户使用该智能设备的平均偏好作为个性化数据,进而提供相应的个性化服务,比如信息推荐。
但是,现有的针对智能设备的个性化信息的识别方法,仅能将所有使用同一智能设备的所有用户推定为同一个推定用户,进而识别该推定用户的个性化信息,而当使用同一智能设备的用户较多时,或者用户的喜好差距较大时,基于推定用户确定的个性化信息不仅无法代表个体,而且容易造成偏好偏移,从而损害用户体验。
发明内容
本申请提供了一种个性化信息识别方法、装置、电子设备及存储介质,以解决现有的识别方法无法对用户个体进行准确的个性化信息识别的问题。
第一方面,本申请提供了一种个性化信息识别方法,包括以下步骤:
获取语音交互行为信息和操作交互行为信息;
对所述语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列,所述个体用户声纹序列为同一个用户对应的声纹集合,所述个体用户声纹序列中的声纹片段相同或相似;
确定所述个体用户声纹序列对应的时间范围;
根据所述个体用户声纹序列和所述时间范围内对应的操作交互行为信息,构建个体用户完整行为序列数据;
识别所述个体用户完整行为序列数据,确定用户的个性化信息。
进一步地,所述对语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列,包括:
获取所述语音交互行为信息对应的语音片段;
对所述语音片段进行声纹提取,得到所述语音片段的多个声纹片段;
按照时间划分规则,从当前时间对应的多个所述声纹片段中的第一声纹片段开始,对每个所述声纹片段进行声纹识别,在出现与所述第一声纹片段不同的声纹片段时识别结束;
将与所述第一声纹片段具有相同或相似特性的声纹片段进行聚合,形成个体用户声纹序列。
进一步地,所述根据个体用户声纹序列和所述时间范围内对应的操作交互行为信息,构建个体用户完整行为序列数据,包括:
获取每个所述操作交互行为信息的发生时间和个体用户声纹序列对应的语音交互行为信息;
根据所述个体用户声纹序列对应的时间范围,对每个发生时间与时间范围进行匹配;
将位于所述时间范围内的发生时间对应的操作交互行为信息确定为目标操作交互行为信息;
根据所述目标操作交互行为信息以及与个体用户声纹序列对应的声纹片段和语音交互行为信息,建立声纹片段与用户交互行为信息的映射关系,所述用户交互行为信息包括语音交互行为信息和操作交互行为信息;
根据所述声纹片段与用户交互行为信息的映射关系,构建个体用户完整行为序列数据。
进一步地,所述识别个体用户完整行为序列数据,确定用户的个性化信息,包括:
统计所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;
根据每个所述用户交互行为的行为信息对应的共性行为信息,确定当前用户的个性化信息。
进一步地,所述识别个体用户完整行为序列数据,确定用户的个性化信息,包括:
遍历所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;
根据每个所述用户交互行为的行为信息,确定与所述行为信息产生关联关系的关联行为信息;
根据所述行为信息和关联行为信息,确定当前用户的个性化信息。
第二方面,本申请提供了一种个性化信息识别装置,包括:
交互行为获取模块,用于获取语音交互行为信息和操作交互行为信息;
声纹识别模块,用于对所述语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列,所述个体用户声纹序列为同一个用户对应的声纹集合,所述个体用户声纹序列中的声纹片段相同或相似;
时间范围确定模块,用于确定所述个体用户声纹序列对应的时间范围;
完整行为序列数据构建模块,用于根据所述个体用户声纹序列和所述时间范围内对应的操作交互行为信息,构建个体用户完整行为序列数据;
个性化信息确定模块,用于识别所述个体用户完整行为序列数据,确定用户的个性化信息。
进一步地,所述声纹识别模块,包括:
语音片段获取单元,用于获取所述语音交互行为信息对应的语音片段;
声纹提取单元,用于对所述语音片段进行声纹提取,得到所述语音片段的多个声纹片段;
声纹片段识别单元,用于按照时间划分规则,从当前时间对应的多个所述声纹片段中的第一声纹片段开始,对每个所述声纹片段进行声纹识别,在出现与所述第一声纹片段不同的声纹片段时识别结束;
个体用户声纹序列确定单元,用于将与所述第一声纹片段具有相同或相似特性的声纹片段进行聚合,形成个体用户声纹序列。
进一步地,所述完整行为序列数据构建模块,包括:
交互行为信息获取单元,用于获取每个所述操作交互行为信息的发生时间和个体用户声纹序列对应的语音交互行为信息;
匹配单元,用于根据所述个体用户声纹序列对应的时间范围,对每个发生时间与时间范围进行匹配;
目标操作交互行为信息确定单元,用于将位于所述时间范围内的发生时间对应的操作交互行为信息确定为目标操作交互行为信息;
映射关系建立单元,用于根据所述目标操作交互行为信息以及与个体用户声纹序列对应的声纹片段和语音交互行为信息,建立声纹片段与用户交互行为信息的映射关系,所述用户交互行为信息包括语音交互行为信息和操作交互行为信息;
完整行为序列数据构建单元,用于根据所述声纹片段与用户交互行为信息的映射关系,构建个体用户完整行为序列数据。
进一步地,所述个性化信息确定模块,包括:
信息统计单元,用于统计所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;
个性化信息确定单元,用于根据每个所述用户交互行为的行为信息对应的共性行为信息,确定当前用户的个性化信息。
进一步地,所述个性化信息确定模块,包括:
信息遍历单元,用于遍历所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;
关联行为信息确定单元,用于根据每个所述用户交互行为的行为信息,确定与所述行为信息产生关联关系的关联行为信息;
个性化信息确定单元,用于根据所述行为信息和关联行为信息,确定当前用户的个性化信息。
第三方面,本申请提供了一种电子设备,包括:
存储器,用于存储程序指令;
处理器,用于调用并执行所述存储器中的程序指令,以实现第一方面所述的个性化信息识别方法。
第四方面,本申请提供了一种存储介质,所述存储介质中存储有计算机程序,当个性化信息识别装置的至少一个处理器执行所述计算机程序时,个性化信息识别装置执行第一方面所述的个性化信息识别方法。
由以上技术方案可知,本发明实施例提供的一种个性化信息识别方法、装置、电子设备及存储介质,在与智能设备交互过程中,对语音交互行为信息对应的语音片段进行声纹识别处理,得到与每个用户对应的个体用户声纹序列。根据个体用户声纹序列的所属时间范围,将该时间范围对应的操作交互行为信息和个体用户声纹序列构建个体用户完整行为序列数据,进而确定每个用户的个性化信息。可见,本发明提供的方法,可以提取多个用户与智能设备在语音交互过程中的声纹片段,根据声纹片段将每个用户的操作交互行为信息进行聚合,即将同一用户的声纹片段与具体用户行为对应,构建个体用户完整行为序列数据,进而进行个体用户的个性化偏好生成,该方法可以在多用户与智能设备进行语音交互时,实现针对每个个体用户进行对应的个性化信息识别,准确性好。
附图说明
为了更清楚地说明本申请的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的个性化信息识别方法的流程图;
图2为本发明实施例提供的个性化信息识别方法的流程框图;
图3为本发明实施例提供的识别声纹的方法流程图;
图4为本发明实施例提供的构建个体用户完整行为序列数据的方法流程图;
图5为本发明实施例提供的个性化信息识别装置的结构框图;
图6为本发明实施例提供的电子设备的硬件结构示意图。
具体实施方式
在多个用户共同使用一个智能设备时,为了使得智能设备能够针对不同的用户进行对应的个性化信息推荐,本发明实施例提供了一种个性化信息识别方法,通过持续提取智能设备在语音交互过程中声纹片段,并根据声纹片段将用户的交互行为进行聚类,实现声纹片段与具体用户行为的对应,基于每个个体的用户行为数据进行个体个性化偏好生成,进一步应用于信息推荐,设置偏好切换等。
具体地,利用声纹识别的方法,将同一声纹片段对应的用户交互行为确定为该声纹片段对应的用户的偏好操作行为,进而根据偏好操作行为推断出用户的个性化偏好,以进行准确的个性化信息识别。可见,该个性化信息识别方法,通过提取交互过程中的声纹片段来切分具体个体的交互行为,准确的在个体层面实现个性化,提升用户体验。
图1为本发明实施例提供的个性化信息识别方法的流程图;图2为本发明实施例提供的个性化信息识别方法的流程框图。参见图1和图2,本发明实施例提供的一种个性化信息识别方法,应用于智能设备,该方法包括以下步骤:
S1、获取语音交互行为信息和操作交互行为信息。
语音交互行为信息包括多个语音交互行为,操作交互行为信息包括多个操作交互行为。多用户在与智能设备交互过程中,产生的用户交互行为包括语音交互行为和操作交互行为。语音交互行为是指通过语音控制智能设备实现相应功能的行为,操作交互行为是指通过用户的触摸或遥控等具体行为控制智能设备实现相应功能的行为,如触摸显示屏或点击遥控器等行为。
S2、对语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列,个体用户声纹序列为同一个用户对应的声纹集合,个体用户声纹序列中的声纹片段相同或相似。
对多用户与智能设备进行语音交互时产生的语音片段进行声纹提取,不同的用户对应的声纹片段不同,而同一个用户对应的声纹片段相同或相似。基于声纹片段的这一特性,将提取出的多个声纹片段进行识别,将相同或相似的声纹片段作为同一个个体用户声纹序列。同一个用户的个体用户声纹序列可由一个语音交互行为产生,也可为多个语音交互行为产生。
具体地,如图3所示的识别声纹的方法流程图,本实施例中,按照下述步骤对语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列:
S21、获取语音交互行为信息对应的语音片段。
S22、对语音片段进行声纹提取,得到语音片段的多个声纹片段。
S23、按照时间划分规则,从当前时间对应的多个声纹片段中的第一声纹片段开始,对每个声纹片段进行声纹识别,在出现与第一声纹片段不同的声纹片段时识别结束。
S24、将与第一声纹片段具有相同或相似特性的声纹片段进行聚合,形成个体用户声纹序列。
多用户与智能设备进行语音交互时,每个语音交互行为信息均对应一个语音片段,将多用户产生的多个语音片段进行声纹提取,每个语音片段中会提取出至少一个声纹片段。
在将多个用户对应的多个声纹片段进行识别聚合时,采用的是按照时间条件进行聚类的方式。每个语音片段均对应有发生时间,按照时间顺序,分别识别每个语音片段的声纹片段。具体地,从进行声纹识别的当前时刻对应的当前声纹片段开始进行识别,开始识别的当前声纹片段作为第一声纹片段,以第一声纹片段的特性为识别标准,在接下来的时间里,将与第一声纹片段具有相同或相似特性的声纹片段与第一声纹片段聚合到一起;识别过程结束的标志是识别到与第一声纹片段具有不同特性的声纹片段时止。
将第一声纹片段以及与第一声纹片段相同或相似的声纹片段确定为个体用户声纹序列,该序列为同一用户的声纹序列,个体用户声纹序列为同一个用户对应的声纹片段集合,个体用户声纹序列中的声纹片段相同或相似。
例如,第一语音片段的发生时间为09:45:00,则从当前时间09:45:00开始进行声纹识别,第一声纹片段对应的发生时间为09:45:00,由用户A产生。在声纹识别的过程中,如果时间在09:46:18对应的声纹片段与第一声纹片段不同,则当前识别过程结束,并将09:45:00至09:46:18这一时间段对应的声纹片段进行聚类,形成个体用户声纹序列。个体用户声纹序列中的声纹片段均为用户A产生的声纹片段。
时间为09:46:18以后的第二声纹片段为用户B的声纹片段,采用上述方法,在识别到与第二声纹片段不同的声纹片段时,结束当前识别过程,则将09:46:18至识别结束时刻对应的声纹片段作为用户B的个体用户声纹序列。
S3、确定个体用户声纹序列对应的时间范围。
由于个体用户声纹序列是按照时间划分规则进行识别而形成,因此,每个个体用户声纹序列均对应有识别起始时间(发生时间)和识别结束时间,则将该两个时间所形成的范围确定为个体用户声纹序列对应的时间范围。
以上述实施例为例,用户A的个体用户声纹序列对应的时间范围为09:45:00至09:46:18。
S4、根据个体用户声纹序列和时间范围内对应的操作交互行为信息,构建个体用户完整行为序列数据。
用户在与智能设备进行语音交互时,通常会伴随有操作交互行为,为了更好的识别出每个用户的个性化偏好,将语音交互过程中产生的操作交互行为信息也作为个性化信息识别的标准,并由语音交互行为信息和操作交互行为最终构建当前用户的个体用户完整行为序列数据。
具体地,如图4所示的构建个体用户完整行为序列数据的方法流程图,本实施例中,按照下述步骤根据个体用户声纹序列和时间范围内对应的操作交互行为信息,构建个体用户完整行为序列数据:
S41、获取每个操作交互行为信息的发生时间和个体用户声纹序列对应的语音交互行为信息。
在获取每个用户与智能设备的操作交互行为信息时,同时对应有每个操作交互行为的发生时间,即用户操作智能设备对应的时间。
同一个用户的个体用户声纹序列可由一个语音交互行为信息产生,也可为多个语音交互行为信息产生,因此,为准确确定该用户的个性化偏好,以该用户在个体用户声纹序列对应的至少一个语音交互行为信息进行识别依据。
S42、根据个体用户声纹序列对应的时间范围,对每个发生时间与时间范围进行匹配。
S43、将位于时间范围内的发生时间对应的操作交互行为信息确定为目标操作交互行为信息。
每个用户的个体用户声纹序列对应有一个时间范围,将每个操作交互行为信息的发生时间与个体用户声纹序列对应的时间范围进行匹配。如果存在操作交互行为信息的发生时间位于个体用户声纹序列对应的时间范围内,则将该操作交互行为信息确定为目标操作交互行为信息,即为个体用户声纹序列对应的用户的目标操作交互行为信息。
例如,如果操作交互行为信息1的发生时间为09:45:30,操作交互行为信息2的发生时间为09:46:08,操作交互行为信息3的发生时间为09:46:55,操作交互行为信息4的发生时间为09:47:26。而用户A的个体用户声纹序列对应的时间范围为09:45:00至09:46:18。在将每个操作交互行为信息的发生时间与用户A对应的时间范围进行匹配时,发现操作交互行为信息1和操作交互行为信息2的发生时间位于时间范围内,因此,将操作交互行为信息1和操作交互行为信息2确定为用户A的目标操作交互行为信息。
S44、根据目标操作交互行为信息以及与个体用户声纹序列对应的声纹片段和语音交互行为信息,建立声纹片段与用户交互行为信息的映射关系,用户交互行为信息包括语音交互行为信息和操作交互行为信息。
确定出同一用户的目标操作交互行为信息和个体用户声纹序列后,将目标操作交互行为信息中的操作交互行为信息,以及,与个体用户声纹序列中的声纹片段和对应的语音交互行为信息建立映射关系。参见图2,如果用户A的个体用户声纹序列对应有语音交互行为信息1,则该映射关系为:第一声纹片段—语音交互行为信息1—操作交互行为信息1—操作交互行为信息2。用户B的个体用户声纹序列对应有语音交互行为信息2和语音交互行为信息3,目标操作交互行为信息包括操作交互行为信息3和操作交互行为信息4,则该映射关系为:第二声纹片段—语音交互行为信息2—语音交互行为信息3—操作交互行为信息3—操作交互行为信息4。
S45、根据声纹片段与用户交互行为信息的映射关系,构建个体用户完整行为序列数据。
将根据上述方法确定出的声纹片段与用户交互行为信息的映射关系,即可为对应的用户构建个体用户完整行为序列数据。例如,用户A的个体用户完整行为序列数据为第一声纹片段—语音交互行为信息1—语音交互行为信息2—操作交互行为信息1—操作交互行为信息2。
个体用户完整行为序列数据的构建可以实时进行,也可离线批量计算。实时进行方式是指根据实时获取的用户与智能设备的交互行为信息(语音交互行为信息和操作交互行为信息),采用前述方法进行构建的方式;离线批量计算方式是指根据智能设备存储的历史过程中用户与智能设备的交互行为信息(语音交互行为信息和操作交互行为信息),采用前述方法进行构建的方式。
个体用户完整行为数据可以存储在智能设备的数据库中,或者存储在与智能设备交互的服务器中,便于后续对每个用户的个性化信息进行识别。
S5、识别个体用户完整行为序列数据,确定用户的个性化信息。
个体用户完整行为序列数据可以表征该用户的偏好操作行为,即该用户与智能设备进行交互时的习惯性操作行为。因此,根据声纹特性和用户的习惯性操作行为可以推断出该用户的偏好,即个性化信息。
本实施例中,在根据个体用户完整行为序列数据识别用户的个性化信息时,可采用统计方法或者机器学习方法。
在其中一种可行的具体实施方式中,采用统计方法识别个体用户完整行为序列数据,确定用户的个性化信息,具体过程如下:
S511、统计个体用户完整行为序列数据中的每个用户交互行为的行为信息。
S512、根据每个用户交互行为的行为信息对应的共性行为信息,确定当前用户的个性化信息。
个体用户完整行为序列数据中包括通过声纹识别进行聚合的用户交互行为,用户交互行为包括语音交互行为和操作交互行为,获取到每个语音交互行为和操作交互行为的行为信息,行为信息包括用户的浏览方式、浏览类型等。
如果用户对某一种产品类型产生偏好,那么该用户产生的语音交互行为和操作交互行为对应的行为信息将会具有共性特点,将具有共性特点的共性行为信息确定为当前用户的个性化信息。
如果用户A的经常性操作行为包括浏览化妆品、食品,则说明用户A的喜好为化妆品、食品,因此,可确定用户A的根据语音交互行为和操作交互行为产生的共性行为信息为化妆品、食品,并将化妆品、食品作为用户A的个性化信息。
在另一种可行的具体实施方式中,采用机器学习方法识别个体用户完整行为序列数据,确定用户的个性化信息,具体过程包括:
S521、遍历个体用户完整行为序列数据中的每个用户交互行为的行为信息。
S522、根据每个用户交互行为的行为信息,确定与行为信息产生关联关系的关联行为信息。
S523、根据行为信息和关联行为信息,确定当前用户的个性化信息。
个体用户完整行为序列数据中包括通过声纹识别进行聚合的用户交互行为,用户交互行为包括语音交互行为和操作交互行为,获取到每个语音交互行为和操作交互行为的行为信息,行为信息包括用户的浏览方式、浏览类型等。
遍历每个行为信息,并查找与行为信息相关联的关联行为信息。例如,如果用户A经常性浏览画眉工具,如眉笔等,那么该用户同时还想浏览唇膏的可能性就很大,此时眉笔与唇膏产生关联关系。因此,将与用户经常性浏览的产品产生关联关系的产品作为关系行为信息。
在机器学习方法中,将根据声纹特性聚合的用户实际产生的行为信息和可能产生的关联行为信息作为识别个性化信息的基础,以准确识别出当前用户的个性化信息。
个性化信息的识别过程可以实时增量完成,也可以批量对一段时间的数据离线生成。实时增量完成方式是指根据实时获取的用户与智能设备的交互行为信息(语音交互行为信息和操作交互行为信息),采用前述方法进行识别的方式;离线批量计算方式是指根据智能设备存储的一段历史时间中用户与智能设备的交互行为信息(语音交互行为信息和操作交互行为信息),采用前述方法进行识别的方式。
采用本发明实施例提供的方法为每个用户识别出的个性化信息,是按照声纹片段为key存储在个性化数据库中,该数据库可为智能设备的数据库,也可为与智能设备通信的服务器中的数据库。便于通过声纹片段在线识别出相应个体用户与智能设备进行交互时,检索出对应的个性化信息,进行个性化应用。采用本发明提供的方法识别出个性化信息后,可以但不限于应用在个性化的信息推荐、个性化的设置偏好切换等场景。
在开放场景下,多个用户均可通过语音方式与智能设备进行交互,为便于为推定用户进行准确的信息推荐,需为每个用户识别出相应的个性化信息。本发明实施例提供的方法,通过语音提取声纹片段从而识别不同的交互个体,从而实现个体的个性化信息识别,能大幅提升用户体验。比如,通过个体的个性化信息能够实现更精准的信息推荐,避免设备层面的个性化导致的错误推荐;个体的个性化信息还可以实现精准的设置偏好切换,让每个用户个体能够使用自己偏好的设置与设备交互。
由以上技术方案可知,本发明实施例提供的一种个性化信息识别方法,在与智能设备交互过程中,对语音交互行为信息对应的语音片段进行声纹识别处理,得到与每个用户对应的个体用户声纹序列。根据个体用户声纹序列的所属时间范围,将该时间范围对应的操作交互行为信息和个体用户声纹序列构建个体用户完整行为序列数据,进而确定每个用户的个性化信息。可见,本发明提供的方法,可以提取多个用户与智能设备在语音交互过程中的声纹片段,根据声纹片段将每个用户的操作交互行为信息进行聚合,即将同一用户的声纹片段与具体用户行为信息对应,构建个体用户完整行为序列数据,进而进行个体用户的个性化偏好生成,该方法可以在多用户与智能设备进行语音交互时,实现针对每个个体用户进行对应的个性化信息识别,准确性好。
图5为本发明实施例提供的个性化信息识别装置的结构框图。
如图5所示,本发明实施例提供的一种个性化信息识别装置,用于执行图1所示的个性化信息识别方法,该装置包括:交互行为获取模块10,用于获取语音交互行为信息和操作交互行为信息;声纹识别模块20,用于对所述语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列,所述个体用户声纹序列为同一个用户对应的声纹集合,所述个体用户声纹序列中的声纹片段相同或相似;时间范围确定模块30,用于确定所述个体用户声纹序列对应的时间范围;完整行为序列数据构建模块40,用于根据所述个体用户声纹序列和所述时间范围内对应的操作交互行为信息,构建个体用户完整行为序列数据;个性化信息确定模块50,用于识别所述个体用户完整行为序列数据,确定用户的个性化信息。
进一步地,所述声纹识别模块20,包括:语音片段获取单元,用于获取所述语音交互行为信息对应的语音片段;声纹片段提取单元,用于对所述语音片段进行声纹提取,得到所述语音片段的多个声纹片段;声纹识别单元,用于按照时间划分规则,从当前时间对应的多个所述声纹片段中的第一声纹片段开始,对每个所述声纹片段进行声纹识别,在出现与所述第一声纹片段不同的声纹片段时识别结束;个体用户声纹序列确定单元,用于将与所述第一声纹片段具有相同或相似特性的声纹片段进行聚合,形成个体用户声纹序列。
进一步地,所述完整行为序列数据构建模块40,包括:交互行为信息获取单元,用于获取每个所述操作交互行为信息的发生时间和个体用户声纹序列对应的语音交互行为信息;匹配单元,用于根据所述个体用户声纹序列对应的时间范围,对每个发生时间与时间范围进行匹配;目标操作交互行为信息确定单元,用于将位于所述时间范围内的发生时间对应的操作交互行为信息确定为目标操作交互行为信息;映射关系建立单元,用于根据所述目标操作交互行为信息以及与个体用户声纹序列对应的声纹片段和语音交互行为信息,建立声纹片段与用户交互行为信息的映射关系,所述用户交互行为信息包括语音交互行为信息和操作交互行为信息;完整行为序列数据构建单元,用于根据所述声纹片段与用户交互行为信息的映射关系,构建个体用户完整行为序列数据。
进一步地,所述个性化信息确定模块50,包括:信息统计单元,用于统计所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;个性化信息确定单元,用于根据每个所述用户交互行为的行为信息对应的共性行为信息,确定当前用户的个性化信息。
进一步地,所述个性化信息确定模块50,包括:信息遍历单元,用于遍历所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;关联行为信息确定单元,用于根据每个所述用户交互行为的行为信息,确定与所述行为信息产生关联关系的关联行为信息;个性化信息确定单元,用于根据所述行为信息和关联行为信息,确定当前用户的个性化信息。
图6为本发明实施例提供的电子设备的硬件结构示意图。如图6所示,本发明实施例提供的一种电子设备,包括:存储器601,用于存储程序指令;处理器602,用于调用并执行所述存储器中的程序指令,以实现第一方面所述的个性化信息识别方法。
本实施例中,处理器602和存储器601可通过总线或其他方式连接。处理器可以是通用处理器,例如中央处理器、数字信号处理器、专用集成电路,或者被配置成实施本发明实施例的一个或多个集成电路。存储器可以包括易失性存储器,例如随机存取存储器;存储器也可以包括非易失性存储器,例如只读存储器、快闪存储器、硬盘或固态硬盘。
本发明实施例提供了一种存储介质,所述存储介质中存储有计算机程序,当个性化信息识别装置的至少一个处理器执行所述计算机程序时,个性化信息识别装置执行前述实施例所述的个性化信息识别方法。
所述的存储介质可为磁碟、光盘、只读存储记忆体(英文:read-only memory,简称:ROM)或随机存储记忆体(英文:random access memory,简称:RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中各个实施例之间相同相似的部分互相参见即可。尤其,对于个性化信息识别装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
以上所述的本发明实施方式并不构成对本发明保护范围的限定。

Claims (10)

1.一种个性化信息识别方法,其特征在于,包括以下步骤:
获取语音交互行为信息和操作交互行为信息;
对所述语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列,所述个体用户声纹序列为同一个用户对应的声纹集合,所述个体用户声纹序列中的声纹片段相同或相似;
确定所述个体用户声纹序列对应的时间范围;
获取每个所述操作交互行为信息的发生时间和个体用户声纹序列对应的语音交互行为信息;
根据所述个体用户声纹序列对应的时间范围,对每个发生时间与时间范围进行匹配;
将位于所述时间范围内的发生时间对应的操作交互行为信息确定为目标操作交互行为信息;
根据所述目标操作交互行为信息以及与个体用户声纹序列对应的声纹片段和语音交互行为信息,建立声纹片段与用户交互行为信息的映射关系,所述用户交互行为信息包括语音交互行为信息和操作交互行为信息;
根据所述声纹片段与用户交互行为信息的映射关系,构建个体用户完整行为序列数据;
识别所述个体用户完整行为序列数据,确定用户的个性化信息。
2.根据权利要求1所述的方法,其特征在于,所述对语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列,包括:
获取所述语音交互行为信息对应的语音片段;
对所述语音片段进行声纹提取,得到所述语音片段的多个声纹片段;
按照时间划分规则,从当前时间对应的多个所述声纹片段中的第一声纹片段开始,对每个声纹片段进行声纹识别,在出现与所述第一声纹片段不同的声纹片段时识别结束;
将与所述第一声纹片段具有相同或相似特性的声纹片段进行聚合,形成个体用户声纹序列。
3.根据权利要求1所述的方法,其特征在于,所述识别个体用户完整行为序列数据,确定用户的个性化信息,包括:
统计所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;
根据每个所述用户交互行为的行为信息对应的共性行为信息,确定当前用户的个性化信息。
4.根据权利要求1所述的方法,其特征在于,所述识别个体用户完整行为序列数据,确定用户的个性化信息,包括:
遍历所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;
根据每个所述用户交互行为的行为信息,确定与所述行为信息产生关联关系的关联行为信息;
根据所述行为信息和关联行为信息,确定当前用户的个性化信息。
5.一种个性化信息识别装置,其特征在于,包括:
交互行为获取模块,用于获取语音交互行为信息和操作交互行为信息;
声纹识别模块,用于对所述语音交互行为信息对应的语音片段进行声纹识别处理,得到个体用户声纹序列,所述个体用户声纹序列为同一个用户对应的声纹集合,所述个体用户声纹序列中的声纹片段相同或相似;
时间范围确定模块,用于确定所述个体用户声纹序列对应的时间范围;
交互行为信息获取单元,用于获取每个所述操作交互行为信息的发生时间和个体用户声纹序列对应的语音交互行为信息;
匹配单元,用于根据所述个体用户声纹序列对应的时间范围,对每个发生时间与时间范围进行匹配;
目标操作交互行为信息确定单元,用于将位于所述时间范围内的发生时间对应的操作交互行为信息确定为目标操作交互行为信息;
映射关系建立单元,用于根据所述目标操作交互行为信息以及个体用户声纹序列对应的声纹片段和语音交互行为信息,建立声纹片段与用户交互行为信息的映射关系,所述用户交互行为信息包括语音交互行为信息和操作交互行为信息;
完整行为序列数据构建单元,用于根据所述声纹片段与用户交互行为信息的映射关系,构建个体用户完整行为序列数据;
个性化信息确定模块,用于识别所述个体用户完整行为序列数据,确定用户的个性化信息。
6.根据权利要求5所述的装置,其特征在于,所述声纹识别模块,包括:
语音片段获取单元,用于获取所述语音交互行为信息对应的语音片段;
声纹片段提取单元,用于对所述语音片段进行声纹提取,得到所述语音片段的多个声纹片段;
声纹识别单元,用于按照时间划分规则,从当前时间对应的多个所述声纹片段中的第一声纹片段开始,对每个所述声纹片段进行声纹识别,在出现与所述第一声纹片段不同的声纹片段时识别结束;
个体用户声纹序列确定单元,用于将与所述第一声纹片段具有相同或相似特性的声纹片段进行聚合,形成个体用户声纹序列。
7.根据权利要求5所述的装置,其特征在于,所述个性化信息确定模块,包括:
信息统计单元,用于统计所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;
个性化信息确定单元,用于根据每个所述用户交互行为的行为信息对应的共性行为信息,确定当前用户的个性化信息。
8.根据权利要求5所述的装置,其特征在于,所述个性化信息确定模块,包括:
信息遍历单元,用于遍历所述个体用户完整行为序列数据中的每个用户交互行为的行为信息;
关联行为信息确定单元,用于根据每个所述用户交互行为的行为信息,确定与所述行为信息产生关联关系的关联行为信息;
个性化信息确定单元,用于根据所述行为信息和关联行为信息,确定当前用户的个性化信息。
9.一种电子设备,其特征在于,包括:
存储器,用于存储程序指令;
处理器,用于调用并执行所述存储器中的程序指令,以实现权利要求1~5任一项所述的个性化信息识别方法。
10.一种存储介质,其特征在于,所述存储介质中存储有计算机程序,当个性化信息识别装置的至少一个处理器执行所述计算机程序时,个性化信息识别装置执行权利要求1~5任一项所述的个性化信息识别方法。
CN201911320518.2A 2019-12-19 2019-12-19 一种个性化信息识别方法、装置、电子设备及存储介质 Active CN111161741B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911320518.2A CN111161741B (zh) 2019-12-19 2019-12-19 一种个性化信息识别方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911320518.2A CN111161741B (zh) 2019-12-19 2019-12-19 一种个性化信息识别方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111161741A CN111161741A (zh) 2020-05-15
CN111161741B true CN111161741B (zh) 2023-06-27

Family

ID=70557467

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911320518.2A Active CN111161741B (zh) 2019-12-19 2019-12-19 一种个性化信息识别方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111161741B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113595868B (zh) * 2021-06-28 2023-05-16 深圳云之家网络有限公司 基于即时通讯的语音消息处理方法、装置和计算机设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107331400A (zh) * 2017-08-25 2017-11-07 百度在线网络技术(北京)有限公司 一种声纹识别性能提升方法、装置、终端及存储介质
CN107580237A (zh) * 2017-09-05 2018-01-12 深圳Tcl新技术有限公司 电视的操作方法、装置、系统和存储介质
CN108920640A (zh) * 2018-07-02 2018-11-30 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备
CN110310657A (zh) * 2019-07-10 2019-10-08 北京猎户星空科技有限公司 一种音频数据处理方法及装置
CN110544481A (zh) * 2019-08-27 2019-12-06 华中师范大学 一种基于声纹识别的s-t分类方法、装置及设备终端

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109243444B (zh) * 2018-09-30 2021-06-01 百度在线网络技术(北京)有限公司 语音交互方法、设备及计算机可读存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107331400A (zh) * 2017-08-25 2017-11-07 百度在线网络技术(北京)有限公司 一种声纹识别性能提升方法、装置、终端及存储介质
CN107580237A (zh) * 2017-09-05 2018-01-12 深圳Tcl新技术有限公司 电视的操作方法、装置、系统和存储介质
CN108920640A (zh) * 2018-07-02 2018-11-30 北京百度网讯科技有限公司 基于语音交互的上下文获取方法及设备
CN110310657A (zh) * 2019-07-10 2019-10-08 北京猎户星空科技有限公司 一种音频数据处理方法及装置
CN110544481A (zh) * 2019-08-27 2019-12-06 华中师范大学 一种基于声纹识别的s-t分类方法、装置及设备终端

Also Published As

Publication number Publication date
CN111161741A (zh) 2020-05-15

Similar Documents

Publication Publication Date Title
KR101315970B1 (ko) 오디오 신호를 이용한 콘텐츠 인식 장치 및 방법
TWI733217B (zh) 登入方式的推播、顯示方法、裝置及設備
CN105740268B (zh) 一种信息推送方法和装置
CN107305611B (zh) 恶意账号对应的模型建立方法和装置、恶意账号识别的方法和装置
CN108197336B (zh) 一种视频查找的方法及装置
CN111259231A (zh) 应用程序的推荐方法和装置
CN111984821A (zh) 确定视频动态封面的方法、装置、存储介质及电子设备
CN111161741B (zh) 一种个性化信息识别方法、装置、电子设备及存储介质
CN110457361B (zh) 特征数据获取方法、装置、计算机设备和存储介质
CN110020133B (zh) 内容推荐处理方法和装置、计算机设备和存储介质
CN108563648B (zh) 数据显示方法和装置、存储介质及电子装置
CN111104550A (zh) 视频推荐方法、装置、电子设备及计算机可读存储介质
CN112492397A (zh) 视频处理方法、计算机设备和存储介质
JP2012222569A (ja) 番組推薦装置及び方法及びプログラム
CN110134878B (zh) 基于用户偏好与服务变化双向感知的移动服务推荐方法
CN111107400B (zh) 数据收集方法、装置、智能电视及计算机可读存储介质
CN114677168A (zh) 一种资源推荐方法、装置、设备及介质
CN106709298A (zh) 一种信息处理方法、装置及智能终端
CN110288467B (zh) 数据挖掘方法、装置、电子设备及存储介质
CN112995705A (zh) 用于视频处理的方法、装置及电子设备
CN114003881A (zh) 一种身份验证方法、装置、电子设备及存储介质
CN112259097A (zh) 一种语音识别的控制方法和计算机设备
JP5116811B2 (ja) 番組推薦装置及び方法及びプログラム
CN112423038A (zh) 视频推荐方法、终端及存储介质
CN113297417A (zh) 视频推送方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant