CN117094032B - 一种基于隐私保护的用户信息加密方法及系统 - Google Patents

一种基于隐私保护的用户信息加密方法及系统 Download PDF

Info

Publication number
CN117094032B
CN117094032B CN202311340306.7A CN202311340306A CN117094032B CN 117094032 B CN117094032 B CN 117094032B CN 202311340306 A CN202311340306 A CN 202311340306A CN 117094032 B CN117094032 B CN 117094032B
Authority
CN
China
Prior art keywords
tag
vector
privacy
privacy content
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311340306.7A
Other languages
English (en)
Other versions
CN117094032A (zh
Inventor
涂浩
周阳
蔡翰林
王泽�
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu Lechaoren Technology Co ltd
Original Assignee
Chengdu Lechaoren Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu Lechaoren Technology Co ltd filed Critical Chengdu Lechaoren Technology Co ltd
Priority to CN202311340306.7A priority Critical patent/CN117094032B/zh
Publication of CN117094032A publication Critical patent/CN117094032A/zh
Application granted granted Critical
Publication of CN117094032B publication Critical patent/CN117094032B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/62Protecting access to data via a platform, e.g. using keys or access control rules
    • G06F21/6218Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
    • G06F21/6245Protecting personal data, e.g. for financial or medical purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/60Protecting data
    • G06F21/602Providing cryptographic facilities or services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Bioethics (AREA)
  • Computer Hardware Design (AREA)
  • Computer Security & Cryptography (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请提供一种基于隐私保护的用户信息加密方法及系统,可以确定包含同标签隐私内容衍生向量和跨标签隐私内容衍生向量的衍生向量,并基于衍生向量对标签隐私内容向量进行特征衍生,从而约束标签隐私内容向量向同标签隐私内容向量接近并远离跨标签隐私内容向量,保证了标签隐私内容向量的学习可靠性,从而提高标签隐私内容向量对不同隐私维度标签的区别性能,为网络知识学习提供有效的训练参考依据,从而提高隐私内容预测网络的网络准确性,进而提高后续用户信息加密的可靠性。

Description

一种基于隐私保护的用户信息加密方法及系统
技术领域
本申请涉及数字化信息技术领域,具体而言,涉及一种基于隐私保护的用户信息加密方法及系统。
背景技术
当前,随着社交媒体和在线平台的普及,大量用户行为数据被收集和分析,从而引发了对个人隐私保护的关注。在处理用户行为文本时,理解和预测其中包含的隐私内容变得至关重要。然而,现有的隐私内容预测方法在精确性和效率方面存在一些限制。
例如,在相关技术中通常依赖于手工定义的规则或特征提取器来捕捉隐私内容,这些方法需要大量的人工工作和专业知识,并且往往难以适应不同类型的用户行为文本。此外,由于隐私内容的多样性和复杂性,仅使用规则或特征可能无法充分挖掘文本中蕴含的隐私信息,导致预测结果不准确。并且,用户行为文本可能涉及多个隐私维度和标签,传统方法对于不同标签之间的差异性建模困难,导致预测准确性下降。
因此,需要一种新的技术来克服这些问题,实现对用户行为文本中隐私内容的准确和高效预测,以便于提高后续用户信息加密运用过程中的可靠性。
发明内容
有鉴于此,本申请的目的在于提供一种基于隐私保护的用户信息加密方法及系统。
依据本申请的第一方面,提供一种基于隐私保护的用户信息加密方法,应用于基于隐私保护的用户信息加密系统,所述方法包括:
获取样例用户行为文本序列,并依据隐私内容预测网络对所述样例用户行为文本序列涵盖的各个样例用户行为文本进行隐私内容预测,生成所述各个样例用户行为文本的隐私内容向量;
针对先验隐私内容向量序列中的第一标签隐私内容向量,基于所述第一标签隐私内容向量和所述各个样例用户行为文本的隐私内容向量,确定所述第一标签隐私内容向量的衍生向量,所述衍生向量包括同标签隐私内容衍生向量和跨标签隐私内容衍生向量,所述先验隐私内容向量序列包括一个或多个隐私维度标签对应的标签隐私内容向量,所述第一标签隐私内容向量为所述先验隐私内容向量序列中第一隐私维度标签对应的标签隐私内容向量,所述同标签隐私内容衍生向量是基于所述样例用户行为文本序列中属于所述第一隐私维度标签的样例用户行为文本的隐私内容向量与所述第一标签隐私内容向量之间的同标签区别向量生成的,所述跨标签隐私内容衍生向量是基于第二标签隐私内容向量与所述第一标签隐私内容向量之间的跨标签区别向量生成的,所述第二标签隐私内容向量包括所述先验隐私内容向量序列中除所述第一标签隐私内容向量之外的标签隐私内容向量,所述第一隐私维度标签为所述一个或多个隐私维度标签中的任意一个;
基于所述同标签隐私内容衍生向量和所述跨标签隐私内容衍生向量对所述第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量,所述衍生处理后的第一标签隐私内容向量与所述属于所述第一隐私维度标签的样例用户行为文本的隐私内容向量之间的区别向量小于所述同标签区别向量,所述衍生处理后的第一标签隐私内容向量与所述第二标签隐私内容向量之间的区别向量大于所述跨标签区别向量;
基于所述一个或多个隐私维度标签中每个隐私维度标签对应的衍生处理后的标签隐私内容向量、所述各个样例用户行为文本的隐私内容向量对所述隐私内容预测网络进行网络参数更新,生成更新完成的隐私内容预测网络,并基于所述更新完成的隐私内容预测网络预测任意目标用户行为文本的目标隐私内容向量后,对基于所述目标隐私内容向量进行用户信息加密。
在第一方面的一种可能的实施方式中,所述基于所述第一标签隐私内容向量和所述各个样例用户行为文本的隐私内容向量,确定所述第一标签隐私内容向量的衍生向量,包括:
获取所述样例用户行为文本序列中属于所述第一隐私维度标签的一个或多个样例用户行为文本;
确定所述一个或多个样例用户行为文本中每个样例用户行为文本的隐私内容向量与所述第一标签隐私内容向量之间的第一偏离度,生成一个或多个第一偏离度;
基于所述一个或多个第一偏离度确定同标签区别向量,并将所述同标签区别向量输出为所述第一标签隐私内容向量的同标签隐私内容衍生向量;
基于各个所述第二标签隐私内容向量以及所述第一标签隐私内容向量确定一个或多个跨标签区别向量,并基于所述一个或多个跨标签区别向量确定所述第一标签隐私内容向量的跨标签隐私内容衍生向量。
在第一方面的一种可能的实施方式中,所述基于所述一个或多个第一偏离度确定同标签区别向量,包括:
对所述一个或多个第一偏离度进行分析,生成最大第一偏离度;
计算所述最大第一偏离度对应的样例用户行为文本的隐私内容向量和所述第一标签隐私内容向量之间的区别向量,生成同标签区别向量。
在第一方面的一种可能的实施方式中,所述基于各个所述第二标签隐私内容向量以及所述第一标签隐私内容向量确定一个或多个跨标签区别向量,包括:
对各个所述第二标签隐私内容向量进行显著性向量提取,生成各个所述第二标签隐私内容向量的显著性隐私内容向量;
计算各个所述第二标签隐私内容向量的显著性隐私内容向量与所述第一标签隐私内容向量之间的区别向量,生成一个或多个跨标签区别向量。
在第一方面的一种可能的实施方式中,所述基于所述一个或多个跨标签区别向量确定所述第一标签隐私内容向量的跨标签隐私内容衍生向量,包括:
对所述一个或多个跨标签区别向量进行融合,生成所述第一标签隐私内容向量的跨标签隐私内容衍生向量。
在第一方面的一种可能的实施方式中,所述方法还包括:
在初始网络学习阶段时,依据所述隐私内容预测网络对模板用户行为文本序列涵盖的各个模板用户行为文本进行隐私内容预测,生成所述各个模板用户行为文本的隐私内容向量,并对所述各个模板用户行为文本的隐私内容向量进行上下文融合,生成所述先验隐私内容向量序列;所述样例用户行为文本序列涵盖的各个样例用户行为文本包含于所述模板用户行为文本序列;
在第K次网络学习阶段时,基于第K-1次网络学习阶段时所述各个隐私维度标签对应的衍生处理后的标签隐私内容向量,确定所述先验隐私内容向量序列,K为大于1的正整数。
在第一方面的一种可能的实施方式中,所述对所述各个模板用户行为文本的隐私内容向量进行上下文融合,生成所述先验隐私内容向量序列,包括:
获取所述一个或多个隐私维度标签中任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量;
对所述任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量进行平均化处理,生成所述任意一个隐私维度标签对应的候选隐私内容向量;
对所述任意一个隐私维度标签对应的候选隐私内容向量进行规则化转换,生成所述任意一个隐私维度标签对应的标签隐私内容向量;
基于各个所述隐私维度标签对应的标签隐私内容向量确定所述先验隐私内容向量序列。
在第一方面的一种可能的实施方式中,所述基于所述同标签隐私内容衍生向量和所述跨标签隐私内容衍生向量对所述第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量,包括:
获取第一重要性语义指标信息和第二重要性语义指标信息;
基于所述第一重要性语义指标信息对所述同标签隐私内容衍生向量进行加权,生成加权后的同标签隐私内容衍生向量,并基于所述第二重要性语义指标信息对所述跨标签隐私内容衍生向量进行加权,生成加权后的跨标签隐私内容衍生向量;
对所述加权后的同标签隐私内容衍生向量、所述加权后的跨标签隐私内容衍生向量和所述第一标签隐私内容向量进行融合,生成衍生处理后的第一标签隐私内容向量。
依据本申请的第二方面,提供一种基于隐私保护的用户信息加密系统,所述基于隐私保护的用户信息加密系统包括机器可读存储介质及处理器,所述机器可读存储介质存储有机器可执行指令,所述处理器在执行所述机器可执行指令时,该基于隐私保护的用户信息加密系统实现前述的基于隐私保护的用户信息加密方法。
依据本申请的第三方面,提供提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机可执行指令,当所述计算机可执行指令被执行时,实现前述的基于隐私保护的用户信息加密方法。
依据上述任意一个方面,本申请中,可以确定包含同标签隐私内容衍生向量和跨标签隐私内容衍生向量的衍生向量,并基于衍生向量对标签隐私内容向量进行特征衍生,从而约束标签隐私内容向量向同标签隐私内容向量接近并远离跨标签隐私内容向量,保证了标签隐私内容向量的学习可靠性,从而提高标签隐私内容向量对不同隐私维度标签的区别性能,为网络知识学习提供有效的训练参考依据,从而提高隐私内容预测网络的网络准确性,进而提高后续用户信息加密的可靠性。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以依据这些附图获得其它相关的附图。
图1本申请实施例所提供的基于隐私保护的用户信息加密方法的流程示意图;
图2示出了本申请实施例所提供的用于实现上述的基于隐私保护的用户信息加密方法的基于隐私保护的用户信息加密系统的组件结构示意图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将依据本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了依据本申请实施例的一些实施例实现的操作。应该理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其它操作,也可以从流程图中销毁一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。依据本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其它实施例,都属于本申请保护的范围。
图1示出了本申请实施例提供的基于隐私保护的用户信息加密方法的流程示意图,应当理解,在其它实施例中,本实施例的基于隐私保护的用户信息加密方法其中部分步骤的顺序可以依据实际需要相互共享,或者其中的部分步骤也可以省略或维持。该基于隐私保护的用户信息加密方法的详细包括:
步骤S101、获取样例用户行为文本序列,并依据隐私内容预测网络对所述样例用户行为文本序列涵盖的各个样例用户行为文本进行隐私内容预测,生成所述各个样例用户行为文本的隐私内容向量。
一种可替代的实施方式中,样例用户行为文本序列中可以包括多个样例用户行为文本。样例用户行为文本的类型可以包括文本消息、社交媒体帖子、搜索查询、商品评论、日志记录、笔记和博客、调查问卷、论坛帖子、电子邮件、新闻文章等。
例如,假设一个电子商务网站希望了解用户的购买偏好并保护它们的隐私,那么收集了一系列用户在网站上的购买记录作为样例用户行为文本序列。然后,使用已经训练好的隐私内容预测网络,对这些购买记录进行分析和预测,生成每个购买记录对应的隐私内容向量。例如,如果购买记录包含敏感信息(如性别、年龄),则生成的隐私内容向量可能会表明该记录包含敏感信息。针对一篇用户发表的帖子,使用隐私内容预测模型对其进行分析和预测。模型可能会为该帖子生成一个包含多个维度的隐私内容向量,例如"位置"、"年龄"和"兴趣爱好"。例如,对于一篇带有文本内容 "我今天在纽约的中央公园跑步,非常享受!#运动 #纽约 #健康生活" 的帖子,模型可能为该帖子生成一个隐私内容向量 [0.8,0.2, 0.6],其中:
第一个维度表示与"位置"相关的隐私内容,取值为0.8,表示该帖子涉及的位置信息较明确。
第二个维度表示与"年龄"相关的隐私内容,取值为0.2,表示该帖子未透露或涉及的年龄信息较少。
第三个维度表示与"兴趣爱好"相关的隐私内容,取值为0.6,表示该帖子涉及的兴趣爱好信息较显著。这样,可以使用隐私内容向量来了解和分析用户发表的帖子中涵盖的不同隐私内容,并采取适当的隐私保护措施。注意,实际应用中的隐私内容向量可能有更多维度或其它形式的编码方式,具体取决于所使用的模型和应用需求。
步骤S102、针对先验隐私内容向量序列中的第一标签隐私内容向量,基于所述第一标签隐私内容向量和所述各个样例用户行为文本的隐私内容向量,确定所述第一标签隐私内容向量的衍生向量,所述衍生向量包括同标签隐私内容衍生向量和跨标签隐私内容衍生向量。
一种可替代的实施方式中,先验隐私内容向量序列可以包括一个或多个隐私维度标签对应的标签隐私内容向量,第一标签隐私内容向量可以为先验隐私内容向量序列中属于第一隐私维度标签的标签隐私内容向量,第一隐私维度标签可以为先验隐私内容向量序列中一个或多个隐私维度标签中的任意一个。例如:先验隐私内容向量序列中包括三个隐私维度标签对应的标签隐私内容向量,则第一标签隐私内容向量可以为三个标签隐私内容向量中的任意一个。针对先验隐私内容向量序列中的第一标签隐私内容向量,基于第一标签隐私内容向量和各个样例用户行为文本的隐私内容向量,确定第一标签隐私内容向量的衍生向量,该衍生向量包括同标签隐私内容衍生向量和跨标签隐私内容衍生向量。同标签隐私内容衍生向量可以是基于样例用户行为文本序列中属于第一隐私维度标签的样例用户行为文本的隐私内容向量与第一标签隐私内容向量之间的同标签区别向量生成的,跨标签隐私内容衍生向量可以是基于第二标签隐私内容向量与第一标签隐私内容向量之间的跨标签区别向量生成的,第二标签隐私内容向量包括先验隐私内容向量序列中除第一标签隐私内容向量之外的标签隐私内容向量。例如:先验隐私内容向量序列中包括三个隐私维度标签对应的标签隐私内容向量,该三个隐私维度标签分别为A类、B类和C类;假设第一隐私维度标签为A类,则可以基于样例用户行为文本序列中A类对应的样例用户行为文本的隐私内容向量与第一标签隐私内容向量之间的同标签区别向量确定同标签隐私内容衍生向量;可以基于先验隐私内容向量序列中B类对应的标签隐私内容向量、C类对应的标签隐私内容向量分别与第一标签隐私内容向量之间的跨标签区别向量确定跨标签隐私内容衍生向量。
所述先验隐私内容向量序列可以用来定义和分类不同的隐私维度标签。通过对一组样例用户行为文本进行标注和处理,可以确定每个标签所代表的隐私内容类型,例如年龄、性别、地理位置等。这些标签的定义和分类构成了先验隐私内容向量序列。此外,先验隐私内容向量序列可用于训练隐私内容预测模型。通过将样例用户行为文本与其对应的先验隐私内容向量进行配对,可以构建训练数据集,用于训练模型以识别用户行为文本中涉及的隐私内容。模型学习到的先验知识和特征从先验隐私内容向量中传递,帮助模型更好地理解和预测用户行为文本的隐私内容。并且,还可以用于特征衍生和转换。通过分析先验隐私内容向量之间的关系和相似性,可以进行特征工程,将隐私内容向量转换为更具表达能力的特征表示形式。这些衍生后的特征可以用于隐私内容预测模型的输入,提高预测准确率和性能。总之,先验隐私内容向量序列为隐私内容预测提供了基础和指导。它帮助理解不同隐私内容类型的定义和分类,并在训练模型和进行特征工程时起到重要作用,从而提高对用户行为文本中隐私内容的预测和理解能力。
示例性的,假设在社交媒体平台中,需要分析用户的兴趣爱好和地理位置信息。选择"兴趣爱好"作为第一隐私维度标签,在先验隐私内容向量序列中,第一个标签对应的是"兴趣爱好"的隐私内容向量。通过与属于"兴趣爱好"标签的样例用户行为文本的隐私内容向量进行比较,可以生成同标签隐私内容衍生向量。同时,通过与其它标签(如"地理位置")的隐私内容向量进行比较,可以生成跨标签隐私内容衍生向量。
一种可替代的实施方式中,可以对隐私内容预测网络进行多轮网络知识学习,则在初始网络学习阶段时,可以依据隐私内容预测网络对模板用户行为文本序列涵盖的各个模板用户行为文本进行隐私内容预测,生成各个模板用户行为文本的隐私内容向量,并对各个模板用户行为文本的隐私内容向量进行上下文融合,生成先验隐私内容向量序列;样例用户行为文本序列涵盖的各个样例用户行为文本包含于模板用户行为文本序列;在第K次网络学习阶段时,基于第K-1次网络学习阶段时各个隐私维度标签对应的衍生处理后的标签隐私内容向量,确定先验隐私内容向量序列,N为大于1的正整数。模板用户行为文本序列可以包括多个模板用户行为文本,以及各个模板用户行为文本的隐私维度标签信息;且样例用户行为文本序列包含于模板用户行为文本序列。例如:模板用户行为文本序列可以包含10000个模板用户行为文本,则可以从模板用户行为文本序列中获取100个文本组成样例用户行为文本序列。在初始网络学习阶段时,可以依据隐私内容预测网络对模板用户行为文本包括的各个模板用户行为文本进行隐私内容预测,生成各个模板用户行为文本的隐私内容向量,并对各个模板用户行为文本的隐私内容向量进行上下文融合,生成先验隐私内容向量序列;在第K次网络学习阶段时,可以将第K-1次网络学习阶段时各个隐私维度标签对应的衍生处理后的标签隐私内容向量,输出为先验隐私内容向量序列,K为大于1的正整数。由此,可以使得每轮网络知识学习时,先验隐私内容向量序列中包含的均是前一轮网络知识学习时衍生处理后的标签隐私内容向量,使得标签隐私内容向量随着网络知识学习的进行而变化,有效保证了标签隐私内容向量的有效性;同时,在第一轮网络知识学习时,基于模板用户行为文本的隐私内容向量确定先验隐私内容向量序列,可以使得标签隐私内容向量不仅可以融合样例用户行为文本的隐私内容向量,还可以融合模板用户行为文本的隐私内容向量,从而进一步提高基于标签隐私内容向量确定的训练误差值的准确度,提高网络知识学习的可靠性。
一种可替代的实施方式中,对所述各个模板用户行为文本的隐私内容向量进行上下文融合,生成所述先验隐私内容向量序列的执行步骤,可以为:获取一个或多个隐私维度标签中任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量;对任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量进行平均化处理,生成任意一个隐私维度标签对应的候选隐私内容向量;对任意一个隐私维度标签对应的候选隐私内容向量进行规则化转换,生成任意一个隐私维度标签对应的标签隐私内容向量;基于各个隐私维度标签对应的标签隐私内容向量确定先验隐私内容向量序列。针对多个隐私维度标签中的任意一个隐私维度标签,获取该隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量;对获取到的一个或多个模板用户行为文本的隐私内容向量进行平均化处理,生成该隐私维度标签对应的候选隐私内容向量;再对该隐私维度标签对应的候选隐私内容向量进行规则化转换,生成该隐私维度标签对应的标签隐私内容向量。例如:针对一个或多个隐私维度标签中的A类隐私维度标签,可以获取到A类隐私维度标签对应的10个模板用户行为文本的隐私内容向量,即这10个模板用户行为文本的隐私维度标签信息为A类;对这10个模板用户行为文本的隐私内容向量进行平均化处理,生成A类隐私维度标签对应的候选隐私内容向量;对A类隐私维度标签对应的候选隐私内容向量进行规则化转换,生成A类隐私维度标签对应的标签隐私内容向量。基于各个隐私维度标签对应的标签隐私内容向量确定先验隐私内容向量序列。由此,基于模板用户行为文本确定先验隐私内容向量序列,有利于后续对标签隐私内容向量进行更新操作,进而提高训练误差值的可靠性。
步骤S103、基于所述同标签隐私内容衍生向量和所述跨标签隐私内容衍生向量对所述第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量。
一种可替代的实施方式中,可以基于同标签隐私内容衍生向量和跨标签隐私内容衍生向量对第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量,且衍生处理后的第一标签隐私内容向量与属于第一隐私维度标签的样例用户行为文本的隐私内容向量之间的区别向量小于同标签区别向量,衍生处理后的第一标签隐私内容向量与第二标签隐私内容向量之间的区别向量大于跨标签区别向量。同标签隐私内容衍生向量可以表征第一标签隐私内容向量在同标签特征上的更新方向,跨标签隐私内容衍生向量可以表征第一标签隐私内容向量在跨标签特征上的更新方向,基于同标签隐私内容衍生向量和跨标签隐私内容衍生向量对第一标签隐私内容向量进行特征衍生可以同时在两个维度上约束标签隐私内容向量,使得第一标签隐私内容向量在充分表达第一隐私维度标签的标签向量的同时,与其它隐私维度标签的标签向量之间具有较大的差别,使得第一标签隐私内容向量具有较强的区分能力。
例如,在广告投放系统中,希望根据用户的兴趣爱好和购买历史等信息来定向投放广告。通过将同标签隐私内容衍生向量和跨标签隐私内容衍生向量作为输入,可以使用特征工程技术(如主成分分析、特征组合)对第一标签隐私内容向量进行转换和处理。例如,可以使用主成分分析将多个相关的特征合并为一个表示用户兴趣爱好的衍生特征。
示例性的,当第1轮网络知识学习时,依据隐私内容预测网络对模板用户行为文本序列中的各个模板用户行为文本进行隐私内容预测,生成各个模板用户行为文本的隐私内容向量,并基于模板用户行为文本的隐私内容向量确定包含多个标签隐私内容向量的先验隐私内容向量序列;将样例用户行为文本序列输入隐私内容预测网络进行隐私内容预测,生成各个样例用户行为文本的隐私内容向量,基于各个样例用户行为文本的隐私内容向量和先验隐私内容向量序列确定衍生向量,该衍生向量包括同标签隐私内容衍生向量和跨标签隐私内容衍生向量。利用衍生向量对各个标签隐私内容向量进行特征衍生,生成衍生处理后的标签隐私内容向量,并基于衍生处理后的标签隐私内容向量对隐私内容预测网络进行网络参数更新。在第K次网络学习阶段时(N为大于1的正整数),获取第K-1次网络学习阶段时衍生处理后的标签隐私内容向量,将样例用户行为文本序列输入隐私内容预测网络进行隐私内容预测,生成各个样例用户行为文本的隐私内容向量,基于各个样例用户行为文本的隐私内容向量和第K-1次网络学习阶段时衍生处理后的标签隐私内容向量确定衍生向量,并利用衍生向量对第K-1次网络学习阶段时衍生处理后的标签隐私内容向量进行特征衍生,生成第K轮网络知识学习时衍生处理后的标签隐私内容向量,并利用第K轮网络知识学习时衍生处理后的标签隐私内容向量对隐私内容预测网络进行网络参数更新。
步骤S104、基于所述一个或多个隐私维度标签中每个隐私维度标签对应的衍生处理后的标签隐私内容向量、所述各个样例用户行为文本的隐私内容向量对所述隐私内容预测网络进行网络参数更新,生成更新完成的隐私内容预测网络,并基于所述更新完成的隐私内容预测网络预测任意目标用户行为文本的目标隐私内容向量后,对基于所述目标隐私内容向量进行用户信息加密。
一种可替代的实施方式中,可以基于一个或多个隐私维度标签中每个隐私维度标签对应的衍生处理后的标签隐私内容向量、各个样例用户行为文本的隐私内容向量确定训练误差值,并基于训练误差值对隐私内容预测网络进行网络参数更新,生成更新完成的隐私内容预测网络。对隐私内容预测网络进行多轮网络参数更新,当所述隐私内容预测网络收敛时,网络更新则结束。
基于以上步骤,可以确定包含同标签隐私内容衍生向量和跨标签隐私内容衍生向量的衍生向量,并基于衍生向量对标签隐私内容向量进行特征衍生,从而约束标签隐私内容向量向同标签隐私内容向量接近并远离跨标签隐私内容向量,保证了标签隐私内容向量的学习可靠性,从而提高标签隐私内容向量对不同隐私维度标签的区别性能,为网络知识学习提供有效的训练参考依据,从而提高隐私内容预测网络的网络准确性,进而提高后续用户信息加密的可靠性。
下面介绍进一步的方法实施例,可以包括以下步骤:
步骤S201、获取样例用户行为文本序列,并依据隐私内容预测网络对所述样例用户行为文本序列涵盖的各个样例用户行为文本进行隐私内容预测,生成所述各个样例用户行为文本的隐私内容向量。
一种可替代的实施方式中,隐私内容预测网络的网络结构可以为自然语言处理网络、循环神经网络(Recurrent Neural Network, RNN)、卷积神经网络(ConvolutionalNeural Network, CNN)、注意力机制(AttentionMechanism)、特征提取器和分类器组合(Feature Extractor and Classifier Ensemble)、迁移学习和预训练模型(TransferLearning and Pretrained Models)等。
步骤S202、获取所述样例用户行为文本序列中属于所述第一隐私维度标签的一个或多个样例用户行为文本,先验隐私内容向量序列包括一个或多个隐私维度标签对应的标签隐私内容向量,所述第一隐私维度标签为所述一个或多个隐私维度标签中的任意一个。
一种可替代的实施方式中,先验隐私内容向量序列包括一个或多个隐私维度标签对应的标签隐私内容向量,第一隐私维度标签为一个或多个隐私维度标签中的任意一个。基于第一隐私维度标签,从样例用户行为文本序列中确定第一隐私维度标签对应的一个或多个样例用户行为文本。例如:第一隐私维度标签为X类,则可以基于第一隐私维度标签从样例用户行为文本序列中确定一个或多个隐私维度标签信息为X类的样例用户行为文本。
一种可替代的实施方式中,确定先验隐私内容向量序列的执行步骤,可以为:在初始网络学习阶段时,可以依据隐私内容预测网络对模板用户行为文本序列涵盖的各个模板用户行为文本进行隐私内容预测,生成各个模板用户行为文本的隐私内容向量,并对各个模板用户行为文本的隐私内容向量进行上下文融合,生成先验隐私内容向量序列;样例用户行为文本序列涵盖的各个样例用户行为文本包含于模板用户行为文本序列;在第K次网络学习阶段时,基于第K-1次网络学习阶段时各个隐私维度标签对应的衍生处理后的标签隐私内容向量,确定先验隐私内容向量序列,N为大于1的正整数。模板用户行为文本序列可以包括多个模板用户行为文本以及各个模板用户行为文本的隐私维度标签信息。在初始网络学习阶段时,可以基于各个模板用户行为文本的隐私内容向量确定先验隐私内容向量序列;在第K次网络学习阶段时,可以基于第K-1次网络学习阶段时衍生处理后的标签隐私内容向量确定第N轮网络知识学习时的先验隐私内容向量序列。
一种可替代的实施方式中,对所述各个模板用户行为文本的隐私内容向量进行上下文融合,生成所述先验隐私内容向量序列的执行步骤,可以为:获取一个或多个隐私维度标签中任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量;对任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量进行平均化处理,生成任意一个隐私维度标签对应的候选隐私内容向量;对任意一个隐私维度标签对应的候选隐私内容向量进行规则化转换,生成任意一个隐私维度标签对应的标签隐私内容向量;基于各个隐私维度标签对应的标签隐私内容向量确定先验隐私内容向量序列。
一种可替代的实施方式中,对所述各个模板用户行为文本的隐私内容向量进行上下文融合,生成所述先验隐私内容向量序列的执行步骤,可以为:从任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量中确定任意一个隐私维度标签对应的目标隐私内容向量;对任意一个隐私维度标签对应的目标隐私内容向量进行规则化转换,生成任意一个隐私维度标签对应的标签隐私内容向量;基于各个隐私维度标签对应的标签隐私内容向量确定先验隐私内容向量序列。可以从一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量中基于设定规则确定该隐私维度标签对应的目标隐私内容向量,并基于该隐私维度标签对应的目标隐私内容向量确定该隐私维度标签对应的标签隐私内容向量。
步骤S203、确定所述一个或多个样例用户行为文本中每个样例用户行为文本的隐私内容向量与第一标签隐私内容向量之间的第一偏离度,生成一个或多个第一偏离度,基于所述一个或多个第一偏离度确定同标签区别向量,并将所述同标签区别向量输出为所述第一标签隐私内容向量的同标签隐私内容衍生向量,所述第一标签隐私内容向量为所述先验隐私内容向量序列中第一隐私维度标签对应的标签隐私内容向量。
一种可替代的实施方式中,第一标签隐私内容向量为先验隐私内容向量序列中第一隐私维度标签对应的标签隐私内容向量,一个或多个样例用户行为文本是样例用户行为文本序列中第一隐私维度标签对应的样例用户行为文本,即第一标签隐私内容向量对应的隐私维度标签与一个或多个样例用户行为文本中的各个样例用户行为文本对应的隐私维度标签相同,为同标签特征。可以计算一个或多个样例用户行为文本中每个样例用户行为文本的隐私内容向量与第一标签隐私内容向量之间的第一偏离度(例如:第一偏离度可以为样例用户行为文本的隐私内容向量与第一标签隐私内容向量之间的余弦相似度的倒数),生成一个或多个第一偏离度。基于一个或多个第一偏离度确定同标签区别向量,并将同标签区别向量输出为第一标签隐私内容向量的同标签隐私内容衍生向量。
一种可替代的实施方式中,当一个或多个第一偏离度仅包括一个第一偏离度时,计算该第一偏离度对应样例用户行为文本的隐私内容向量和第一标签隐私内容向量之间的区别向量,生成同标签区别向量;当一个或多个第一偏离度包括多个第一偏离度时,基于所述一个或多个第一偏离度确定同标签区别向量的执行步骤,可以为:对一个或多个第一偏离度进行分析,生成最大第一偏离度;计算最大第一偏离度对应的样例用户行为文本的隐私内容向量和第一标签隐私内容向量之间的区别向量,生成同标签区别向量。
当样例用户行为文本序列包含多个第一隐私维度标签对应的样例用户行为文本时,可以基于该多个样例用户行为文本的隐私内容向量和第一标签隐私内容向量确定出多个第一偏离度,这些第一偏离度表征第一标签隐私内容向量与同标签的样例用户行为文本的隐私内容向量之间的偏离度。为了使第一标签隐私内容向量更加接近同标签隐私内容向量,可以计算多个第一偏离度中最大第一偏离度对应的样例用户行为文本的隐私内容向量与第一标签隐私内容向量之间的区别向量,生成同标签区别向量,并将该同标签区别向量输出为第一标签隐私内容向量的同标签隐私内容衍生向量,使得第一标签隐私内容向量在后续衍生流程中向同标签隐私内容衍生向量所指示的方向接近,从而使得第一标签隐私内容向量更加接近同标签隐私内容向量,更加能够代表第一隐私维度标签的隐私内容向量。由此,可以通过同标签隐私内容衍生向量约束标签隐私内容向量向同标签特征接近,从而使得标签隐私内容向量更具有显著性。
一种可替代的实施方式中,可以确定一个或多个样例用户行为文本中每个样例用户行为文本的隐私内容向量与第一标签隐私内容向量之间的区别向量,生成一个或多个同标签区别向量;将一个或多个同标签区别向量进行融合,生成第一标签隐私内容向量的同标签隐私内容衍生向量。可以将第一隐私维度标签的各个样例用户行为文本的隐私内容向量与第一标签隐私内容向量之间的区别向量进行累加处理,生成第一标签隐私内容向量的同标签隐私内容衍生向量。
步骤S204、基于各个第二标签隐私内容向量以及所述第一标签隐私内容向量确定一个或多个跨标签区别向量,并基于所述一个或多个跨标签区别向量确定所述第一标签隐私内容向量的跨标签隐私内容衍生向量,所述第二标签隐私内容向量包括所述先验隐私内容向量序列中除所述第一标签隐私内容向量之外的标签隐私内容向量。
一种可替代的实施方式中,先验隐私内容向量序列包括多个隐私维度标签对应的标签隐私内容向量;第一标签隐私内容向量是先验隐私内容向量序列中第一隐私维度标签对应的标签隐私内容向量,第二标签隐私内容向量包括先验隐私内容向量序列中除第一标签隐私内容向量之外的标签隐私内容向量,即第一标签隐私内容向量与第二标签隐私内容向量对应的隐私维度标签不相同,第一标签隐私内容向量与第二标签隐私内容向量互为跨标签特征。基于各个第二标签隐私内容向量以及第一标签隐私内容向量可以确定一个或多个跨标签区别向量,并基于确定出的一个或多个跨标签区别向量确定第一标签隐私内容向量的跨标签隐私内容衍生向量。由此,可以利用跨标签隐私内容衍生向量约束标签隐私内容向量远离跨标签隐私内容向量,使得标签隐私内容向量与跨标签隐私内容向量的区分性更大,进而提高基于标签隐私内容向量确定训练误差值的准确性。
一种可替代的实施方式中,基于各个所述第二标签隐私内容向量以及所述第一标签隐私内容向量确定一个或多个跨标签区别向量的执行步骤,可以为:确定各个第二标签隐私内容向量与第一标签隐私内容向量之间的区别向量,生成一个或多个跨标签区别向量。
基于一个或多个跨标签区别向量确定跨标签隐私内容衍生向量后,可以先分别对同标签隐私内容衍生向量和跨标签隐私内容衍生向量进行加权,生成加权后的同标签隐私内容衍生向量和加权后的跨标签隐私内容衍生向量;对加权后的跨标签隐私内容衍生向量进行显著性向量提取,生成取反的加权跨标签隐私内容衍生向量;利用加权后的同标签隐私内容衍生向量和显著性提取后的加权跨标签隐私内容衍生向量对第一标签隐私内容向量进行特征衍生,可以得到衍生处理后的第一标签隐私内容向量。
一种可替代的实施方式中,基于各个第二标签隐私内容向量以及第一标签隐私内容向量确定一个或多个跨标签区别向量的执行步骤,可以为:对各个第二标签隐私内容向量进行显著性向量提取,生成各个第二标签隐私内容向量的显著性隐私内容向量;计算各个第二标签隐私内容向量的显著性隐私内容向量与第一标签隐私内容向量之间的区别向量,生成一个或多个跨标签区别向量。对第二标签隐私内容向量进行显著性向量提取,生成第二标签隐私内容向量的显著性隐私内容向量。
一种可替代的实施方式中,基于所述一个或多个跨标签区别向量确定所述第一标签隐私内容向量的跨标签隐私内容衍生向量的执行步骤,可以为:对一个或多个跨标签区别向量进行融合,生成第一标签隐私内容向量的跨标签隐私内容衍生向量。
步骤S205、基于所述同标签隐私内容衍生向量和所述跨标签隐私内容衍生向量对所述第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量。
一种可替代的实施方式中,可以叠加同标签隐私内容衍生向量和跨标签隐私内容衍生向量这两个维度的衍生向量对第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量,衍生处理后的第一标签隐私内容向量与属于第一隐私维度标签的样例用户行为文本的隐私内容向量之间的区别向量小于上述同标签区别向量,衍生处理后的第一标签隐私内容向量与各个第二标签隐私内容向量之间的区别向量大于第一标签隐私内容向量与对应的第二标签隐私内容向量之间的跨标签区别向量。例如:第一隐私维度标签为A标签,第二隐私维度标签为B标签和C标签,衍生处理后的第一标签隐私内容向量与属于第一隐私维度标签的样例用户行为文本的隐私内容向量之间的区别向量a2,小于第一标签隐私内容向量与属于第一隐私维度标签的样例用户行为文本的隐私内容向量之间的同标签区别向量a1;衍生处理后的第一标签隐私内容向量与B标签的第二标签隐私内容向量之间的区别向量b2,大于第一标签隐私内容向量与B标签的第二标签隐私内容向量之间的跨标签区别向量b1;衍生处理后的第一标签隐私内容向量与C标签的第二标签隐私内容向量之间的区别向量c2,大于第一标签隐私内容向量与C标签的第二标签隐私内容向量之间的跨标签区别向量c1。由此,可以使得衍生处理后的第一标签隐私内容向量在接近同标签隐私内容向量的同时,远离跨标签隐私内容向量,从而提高第一标签隐私内容向量的准确性和区分度。
一种可替代的实施方式中,基于所述同标签隐私内容衍生向量和所述跨标签隐私内容衍生向量对所述第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量的执行步骤,可以为:获取第一重要性语义指标信息和第二重要性语义指标信息;基于第一重要性语义指标信息对同标签隐私内容衍生向量进行加权,生成加权后的同标签隐私内容衍生向量,并基于第二重要性语义指标信息对跨标签隐私内容衍生向量进行加权,生成加权后的跨标签隐私内容衍生向量;对加权后的同标签隐私内容衍生向量、加权后的跨标签隐私内容衍生向量和第一标签隐私内容向量进行融合,生成衍生处理后的第一标签隐私内容向量。一种可替代的实施方式中,利用第二标签隐私内容向量的显著性隐私内容向量确定一个或多个跨标签区别向量,并基于一个或多个跨标签区别向量确定跨标签隐私内容衍生向量后,可以先分别对同标签隐私内容衍生向量和跨标签隐私内容衍生向量进行加权,再利用加权后的同标签隐私内容衍生向量和跨标签隐私内容衍生向量对第一标签隐私内容向量进行特征衍生。
步骤S206、基于所述一个或多个隐私维度标签中每个隐私维度标签对应的衍生处理后的标签隐私内容向量、所述各个样例用户行为文本的隐私内容向量对所述隐私内容预测网络进行网络参数更新,生成更新完成的隐私内容预测网络。
一种可替代的实施方式中,基于一个或多个隐私维度标签中每个隐私维度标签对应的衍生处理后的标签隐私内容向量、各个样例用户行为文本的隐私内容向量确定训练误差值,并基于训练误差值对隐私内容预测网络进行网络参数更新,生成更新完成的隐私内容预测网络。
图2示意性地示出了可被用于实现本申请中所述的各个实施例的基于隐私保护的用户信息加密系统100。
对于一个实施例,图2示出了基于隐私保护的用户信息加密系统100,该基于隐私保护的用户信息加密系统100具有一个或多个处理器102、被耦合到(一个或多个)处理器102中的一个或多个的控制模块(芯片组)104、被耦合到控制模块104的存储器106、被耦合到控制模块104的非易失性存储器(NVM)/存储设备108、被耦合到控制模块104的一个或多个输入/输出设备110,和被耦合到控制模块104的网络接口112。
处理器102可包括一个或多个单核或多核处理器,处理器102可包括通用处理器或专用处理器(例如图形处理器、应用处理器、基频处理器等)的任意组合。一种可替代的实施方式中,基于隐私保护的用户信息加密系统100能够作为本申请实施例中所述网关等服务器设备。
一种可替代的实施方式中,基于隐私保护的用户信息加密系统100可包括具有指令114的一个或多个计算机可读介质(例如,存储器106或NVM/存储设备108)和与该一个或多个计算机可读介质相汇聚被配置为执行指令114以实现模块从而执行本公开中所述的动作的一个或多个处理器102。
对于一个实施例,控制模块104可包括任意适当的接口控制器,以向(一个或多个)处理器102中的一个或多个和/或与控制模块104通信的任意适当的设备或组件提供任意适当的接口。
控制模块104可包括存储器控制器模块,以向存储器106提供接口。存储器控制器模块可以是硬件模块、软件模块和/或固件模块。
存储器106可被用于例如为基于隐私保护的用户信息加密系统100加载和存储数据和/或指令114。对于一个实施例,存储器106可包括任意适当的易失性存储器,例如,适当的DRAM。一种可替代的实施方式中,存储器106可包括双倍数据速率类型四同步动态随机存取存储器(DDR4SDRAM)。
对于一个实施例,控制模块104可包括一个或多个输入/输出控制器,以向NVM/存储设备108及(一个或多个)输入/输出设备110提供接口。
例如,NVM/存储设备108可被用于存储数据和/或指令114。NVM/存储设备108可包括任意适当的非易失性存储器(例如,闪存)和/或可包括任意适当的(一个或多个)非易失性存储设备(例如,一个或多个硬盘驱动器(HDD)、一个或多个光盘(CD)驱动器和/或一个或多个数字通用光盘(DVD)驱动器)。
NVM/存储设备108可包括在物理上作为基于隐私保护的用户信息加密系统100被安装在其上的设备的一部分的存储资源,或者其可被该设备访问可不必作为该设备的一部分。例如,NVM/存储设备108可依据网络经由(一个或多个)输入/输出设备110进行访问。
(一个或多个)输入/输出设备110可为基于隐私保护的用户信息加密系统100提供接口以与任意其它适当的设备通信,输入/输出设备110可以包括通信组件、拼音组件、传感器组件等。网络接口112可为基于隐私保护的用户信息加密系统100提供接口以依据一个或多个网络通信,基于隐私保护的用户信息加密系统100可依据一个或多个无线网络标准和/或协议中的任意标准和/或协议来与无线网络的一个或多个组件进行无线通信,例如接入依据通信标准的无线网络,或它们的组合进行无线通信。
对于一个实施例,(一个或多个)处理器102中的一个或多个可与控制模块104的一个或多个控制器(例如,存储器控制器模块)的逻辑加载在一起。对于一个实施例,(一个或多个)处理器102中的一个或多个可与控制模块104的一个或多个控制器的逻辑加载在一起以形成系统级加载。对于一个实施例,(一个或多个)处理器102中的一个或多个可与控制模块104的一个或多个控制器的逻辑集成在同一模具上。对于一个实施例,(一个或多个)处理器102中的一个或多个可与控制模块104的一个或多个控制器的逻辑集成在同一模具上以形成片上系统(SoC)。
在各个实施例中,基于隐私保护的用户信息加密系统100可以但不限于是:服务器、台式计算设备或移动计算设备(例如,膝上型计算设备、手持计算设备、平板电脑、上网本等)等终端设备。在各个实施例中,基于隐私保护的用户信息加密系统100可具有更多或更少的组件和/或不同的架构。例如,一种可替代的实施方式中,基于隐私保护的用户信息加密系统100包括一个或多个摄像机、键盘、液晶显示器(LCD)屏幕(包括触屏显示器)、非易失性存储器端口、多个天线、图形芯片、专用集成电路(ASIC)和扬声器。
以上对本申请实施例进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (10)

1.一种基于隐私保护的用户信息加密方法,其特征在于,应用于基于隐私保护的用户信息加密系统,所述方法包括:
获取样例用户行为文本序列,并依据隐私内容预测网络对所述样例用户行为文本序列涵盖的各个样例用户行为文本进行隐私内容预测,生成所述各个样例用户行为文本的隐私内容向量;
针对先验隐私内容向量序列中的第一标签隐私内容向量,基于所述第一标签隐私内容向量和所述各个样例用户行为文本的隐私内容向量,确定所述第一标签隐私内容向量的衍生向量,所述衍生向量包括同标签隐私内容衍生向量和跨标签隐私内容衍生向量,所述先验隐私内容向量序列包括一个或多个隐私维度标签对应的标签隐私内容向量,所述第一标签隐私内容向量为所述先验隐私内容向量序列中第一隐私维度标签对应的标签隐私内容向量,所述同标签隐私内容衍生向量是基于所述样例用户行为文本序列中属于所述第一隐私维度标签的样例用户行为文本的隐私内容向量与所述第一标签隐私内容向量之间的同标签区别向量生成的,所述跨标签隐私内容衍生向量是基于第二标签隐私内容向量与所述第一标签隐私内容向量之间的跨标签区别向量生成的,所述第二标签隐私内容向量包括所述先验隐私内容向量序列中除所述第一标签隐私内容向量之外的标签隐私内容向量,所述第一隐私维度标签为所述一个或多个隐私维度标签中的任意一个;
基于所述同标签隐私内容衍生向量和所述跨标签隐私内容衍生向量对所述第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量,所述衍生处理后的第一标签隐私内容向量与所述属于所述第一隐私维度标签的样例用户行为文本的隐私内容向量之间的区别向量小于所述同标签区别向量,所述衍生处理后的第一标签隐私内容向量与所述第二标签隐私内容向量之间的区别向量大于所述跨标签区别向量;
基于所述一个或多个隐私维度标签中每个隐私维度标签对应的衍生处理后的标签隐私内容向量、所述各个样例用户行为文本的隐私内容向量对所述隐私内容预测网络进行网络参数更新,生成更新完成的隐私内容预测网络,并基于所述更新完成的隐私内容预测网络预测任意目标用户行为文本的目标隐私内容向量后,对基于所述目标隐私内容向量进行用户信息加密。
2.根据权利要求1所述的基于隐私保护的用户信息加密方法,其特征在于,所述基于所述第一标签隐私内容向量和所述各个样例用户行为文本的隐私内容向量,确定所述第一标签隐私内容向量的衍生向量,包括:
获取所述样例用户行为文本序列中属于所述第一隐私维度标签的一个或多个样例用户行为文本;
确定所述一个或多个样例用户行为文本中每个样例用户行为文本的隐私内容向量与所述第一标签隐私内容向量之间的第一偏离度,生成一个或多个第一偏离度;
基于所述一个或多个第一偏离度确定同标签区别向量,并将所述同标签区别向量输出为所述第一标签隐私内容向量的同标签隐私内容衍生向量;
基于各个所述第二标签隐私内容向量以及所述第一标签隐私内容向量确定一个或多个跨标签区别向量,并基于所述一个或多个跨标签区别向量确定所述第一标签隐私内容向量的跨标签隐私内容衍生向量。
3.根据权利要求2所述的基于隐私保护的用户信息加密方法,其特征在于,所述基于所述一个或多个第一偏离度确定同标签区别向量,包括:
对所述一个或多个第一偏离度进行分析,生成最大第一偏离度;
计算所述最大第一偏离度对应的样例用户行为文本的隐私内容向量和所述第一标签隐私内容向量之间的区别向量,生成同标签区别向量。
4.根据权利要求2所述的基于隐私保护的用户信息加密方法,其特征在于,所述基于各个所述第二标签隐私内容向量以及所述第一标签隐私内容向量确定一个或多个跨标签区别向量,包括:
对各个所述第二标签隐私内容向量进行显著性向量提取,生成各个所述第二标签隐私内容向量的显著性隐私内容向量;
计算各个所述第二标签隐私内容向量的显著性隐私内容向量与所述第一标签隐私内容向量之间的区别向量,生成一个或多个跨标签区别向量。
5.根据权利要求2所述的基于隐私保护的用户信息加密方法,其特征在于,所述基于所述一个或多个跨标签区别向量确定所述第一标签隐私内容向量的跨标签隐私内容衍生向量,包括:
对所述一个或多个跨标签区别向量进行融合,生成所述第一标签隐私内容向量的跨标签隐私内容衍生向量。
6.根据权利要求1所述的基于隐私保护的用户信息加密方法,其特征在于,在针对先验隐私内容向量序列中的第一标签隐私内容向量,基于所述第一标签隐私内容向量和所述各个样例用户行为文本的隐私内容向量,确定所述第一标签隐私内容向量的衍生向量的步骤之前,所述方法还包括:
在初始网络学习阶段时,依据所述隐私内容预测网络对模板用户行为文本序列涵盖的各个模板用户行为文本进行隐私内容预测,生成所述各个模板用户行为文本的隐私内容向量,并对所述各个模板用户行为文本的隐私内容向量进行上下文融合,生成所述先验隐私内容向量序列;所述样例用户行为文本序列涵盖的各个样例用户行为文本包含于所述模板用户行为文本序列;
在第K次网络学习阶段时,基于第K-1次网络学习阶段时各个所述隐私维度标签对应的衍生处理后的标签隐私内容向量,确定所述先验隐私内容向量序列,K为大于1的正整数。
7.根据权利要求6所述的基于隐私保护的用户信息加密方法,其特征在于,所述对所述各个模板用户行为文本的隐私内容向量进行上下文融合,生成所述先验隐私内容向量序列,包括:
获取所述一个或多个隐私维度标签中任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量;
对所述任意一个隐私维度标签对应的一个或多个模板用户行为文本的隐私内容向量进行平均化处理,生成所述任意一个隐私维度标签对应的候选隐私内容向量;
对所述任意一个隐私维度标签对应的候选隐私内容向量进行规则化转换,生成所述任意一个隐私维度标签对应的标签隐私内容向量;
基于各个所述隐私维度标签对应的标签隐私内容向量确定所述先验隐私内容向量序列。
8.根据权利要求1-7任意一个项所述的基于隐私保护的用户信息加密方法,其特征在于,所述基于所述同标签隐私内容衍生向量和所述跨标签隐私内容衍生向量对所述第一标签隐私内容向量进行特征衍生,生成衍生处理后的第一标签隐私内容向量,包括:
获取第一重要性语义指标信息和第二重要性语义指标信息;
基于所述第一重要性语义指标信息对所述同标签隐私内容衍生向量进行加权,生成加权后的同标签隐私内容衍生向量,并基于所述第二重要性语义指标信息对所述跨标签隐私内容衍生向量进行加权,生成加权后的跨标签隐私内容衍生向量;
对所述加权后的同标签隐私内容衍生向量、所述加权后的跨标签隐私内容衍生向量和所述第一标签隐私内容向量进行融合,生成衍生处理后的第一标签隐私内容向量。
9.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有机器可执行指令,所述机器可执行指令被处理器执行时实现权利要求1-8中任意一项所述的基于隐私保护的用户信息加密方法。
10.一种基于隐私保护的用户信息加密系统,其特征在于,包括处理器以及计算机可读存储介质,所述计算机可读存储介质存储有机器可执行指令,所述机器可执行指令被处理器执行时实现权利要求1-8中任意一项所述的基于隐私保护的用户信息加密方法。
CN202311340306.7A 2023-10-17 2023-10-17 一种基于隐私保护的用户信息加密方法及系统 Active CN117094032B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311340306.7A CN117094032B (zh) 2023-10-17 2023-10-17 一种基于隐私保护的用户信息加密方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311340306.7A CN117094032B (zh) 2023-10-17 2023-10-17 一种基于隐私保护的用户信息加密方法及系统

Publications (2)

Publication Number Publication Date
CN117094032A CN117094032A (zh) 2023-11-21
CN117094032B true CN117094032B (zh) 2024-02-09

Family

ID=88773716

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311340306.7A Active CN117094032B (zh) 2023-10-17 2023-10-17 一种基于隐私保护的用户信息加密方法及系统

Country Status (1)

Country Link
CN (1) CN117094032B (zh)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109784092A (zh) * 2019-01-23 2019-05-21 北京工业大学 一种基于标签和差分隐私保护的推荐方法
WO2020035075A1 (zh) * 2018-08-17 2020-02-20 第四范式(北京)技术有限公司 在数据隐私保护下执行机器学习的方法和系统
CN111245610A (zh) * 2020-01-19 2020-06-05 浙江工商大学 基于ntru同态加密的数据隐私保护深度学习方法
CN112507372A (zh) * 2021-02-05 2021-03-16 支付宝(杭州)信息技术有限公司 实现隐私保护的多方协同更新模型的方法及装置
CN113032838A (zh) * 2021-05-24 2021-06-25 易商征信有限公司 基于隐私计算的标签预测模型生成方法、预测方法、模型生成装置、系统及介质
CN114663149A (zh) * 2022-03-24 2022-06-24 润联软件系统(深圳)有限公司 一种基于隐私保护的产品投放方法及其相关设备
CN116310920A (zh) * 2023-03-20 2023-06-23 重庆邮电大学 一种基于场景上下文感知的图像隐私预测方法
CN116705008A (zh) * 2023-07-11 2023-09-05 支付宝(杭州)信息技术有限公司 保护隐私的意图理解模型的训练方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10826707B2 (en) * 2017-10-16 2020-11-03 Assa Abloy Ab Privacy preserving tag
US11138333B2 (en) * 2018-03-07 2021-10-05 Private Identity Llc Systems and methods for privacy-enabled biometric processing
US11763093B2 (en) * 2020-04-30 2023-09-19 Arizona Board Of Regents On Behalf Of Arizona State University Systems and methods for a privacy preserving text representation learning framework

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020035075A1 (zh) * 2018-08-17 2020-02-20 第四范式(北京)技术有限公司 在数据隐私保护下执行机器学习的方法和系统
CN109784092A (zh) * 2019-01-23 2019-05-21 北京工业大学 一种基于标签和差分隐私保护的推荐方法
CN111245610A (zh) * 2020-01-19 2020-06-05 浙江工商大学 基于ntru同态加密的数据隐私保护深度学习方法
CN112507372A (zh) * 2021-02-05 2021-03-16 支付宝(杭州)信息技术有限公司 实现隐私保护的多方协同更新模型的方法及装置
CN113032838A (zh) * 2021-05-24 2021-06-25 易商征信有限公司 基于隐私计算的标签预测模型生成方法、预测方法、模型生成装置、系统及介质
CN114663149A (zh) * 2022-03-24 2022-06-24 润联软件系统(深圳)有限公司 一种基于隐私保护的产品投放方法及其相关设备
CN116310920A (zh) * 2023-03-20 2023-06-23 重庆邮电大学 一种基于场景上下文感知的图像隐私预测方法
CN116705008A (zh) * 2023-07-11 2023-09-05 支付宝(杭州)信息技术有限公司 保护隐私的意图理解模型的训练方法及装置

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Huajie Chen 等.Privacy-Preserving SVM on Outsourced Genomic Data via Secure Multi-party Computation.IWSPA'20: Proceedings of the Sixth International Workshop on Security and Privacy Analytics.2020,61-63. *
User Behavior Clustering Scheme With Automatic Tagging Over Encrypted Data;Minghui Gao 等;IEEE Access;第7卷;170648-170657 *
一种带隐私保护的基于标签的推荐算法研究;曹春萍 等;计算机科学;第44卷(第08期);134-139 *
基于多层加密机制的内容中心网络隐私保护策略;柳毅 等;计算机工程与应用;第53卷(第05期);1-5 *
移动终端的多维度隐私泄露评估模型研究;李涛 等;计算机学报;第41卷(第09期);2134-2147 *
融合标签相似度的差分隐私矩阵分解推荐算法;郑剑 等;计算机应用研究;第37卷(第03期);851-855 *

Also Published As

Publication number Publication date
CN117094032A (zh) 2023-11-21

Similar Documents

Publication Publication Date Title
CA3129745C (en) Neural network system for text classification
CN108418825B (zh) 风险模型训练、垃圾账号检测方法、装置以及设备
CN109271493B (zh) 一种语言文本处理方法、装置和存储介质
CN111966914B (zh) 基于人工智能的内容推荐方法、装置和计算机设备
Li et al. Multimodal architecture for video captioning with memory networks and an attention mechanism
CN111666766B (zh) 数据处理方法、装置和设备
CN110619044A (zh) 一种情感分析方法、系统、存储介质及设备
CN113222022A (zh) 一种网页分类识别方法及装置
US20230368003A1 (en) Adaptive sparse attention pattern
CN116150367A (zh) 一种基于方面的情感分析方法及系统
MacDermott et al. Using deep learning to detect social media ‘trolls’
CN111310065A (zh) 一种社交推荐方法、装置、服务器及存储介质
Fu et al. Region‐based fully convolutional networks with deformable convolution and attention fusion for steel surface defect detection in industrial Internet of Things
CN116542673B (zh) 应用于机器学习的欺诈行为识别方法及系统
Zhao et al. Efficient multiple biomedical events extraction via reinforcement learning
Chen et al. Dag-based long short-term memory for neural word segmentation
CN113051910A (zh) 一种用于预测人物角色情绪的方法和装置
CN111950265A (zh) 一种领域词库构建方法和装置
Fu et al. Attribute‐Sentiment Pair Correlation Model Based on Online User Reviews
CN117094032B (zh) 一种基于隐私保护的用户信息加密方法及系统
CN116561592A (zh) 文本情感识别模型的训练方法和文本情感识别方法及装置
CN116089605A (zh) 基于迁移学习和改进词袋模型的文本情感分析方法
CN115168575A (zh) 应用于审计领域的主语补全方法及相关设备
Shim et al. Fast and accurate interpretation of workload classification model
KR102348368B1 (ko) 머신러닝 모델의 학습 데이터 생성과 머신러닝 모델을 이용한 유사 이미지 생성을 위한 장치, 방법, 시스템 및 컴퓨터 판독가능 저장 매체

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant