CN114372263A - 一种匿名数据攻击风险检测与评估方法 - Google Patents
一种匿名数据攻击风险检测与评估方法 Download PDFInfo
- Publication number
- CN114372263A CN114372263A CN202111603705.9A CN202111603705A CN114372263A CN 114372263 A CN114372263 A CN 114372263A CN 202111603705 A CN202111603705 A CN 202111603705A CN 114372263 A CN114372263 A CN 114372263A
- Authority
- CN
- China
- Prior art keywords
- attack
- identification
- data
- probability
- risk
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title abstract description 10
- 238000011156 evaluation Methods 0.000 title abstract description 8
- 238000000586 desensitisation Methods 0.000 claims abstract description 49
- 238000000034 method Methods 0.000 claims abstract description 40
- 238000012502 risk assessment Methods 0.000 claims description 21
- 238000003066 decision tree Methods 0.000 claims description 5
- 238000011867 re-evaluation Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 5
- 238000013503 de-identification Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 1
- 230000008676 import Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/50—Monitoring users, programs or devices to maintain the integrity of platforms, e.g. of processors, firmware or operating systems
- G06F21/55—Detecting local intrusion or implementing counter-measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/60—Protecting data
- G06F21/62—Protecting access to data via a platform, e.g. using keys or access control rules
- G06F21/6218—Protecting access to data via a platform, e.g. using keys or access control rules to a system of files or objects, e.g. local or distributed file system or database
- G06F21/6245—Protecting personal data, e.g. for financial or medical purposes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Security & Cryptography (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Bioethics (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种匿名数据攻击风险检测与评估方法,包括:获取已脱敏数据,并对已脱敏数据进行重识别风险评估和常用攻击风险评估,获得风险值;若风险值大于设定的风险阈值,则需重新调整脱敏参数再次评估,若合格则无需调整脱敏参数。本发明主要是检测及评估已脱敏数据在不同攻击下的攻击风险。主要包括检察官攻击,记者攻击以及营销者攻击。匿名数据集的攻击风险,可作为评估匿名数据方法的因素之一,以折线图的形式展示通过不同匿名参数产生的匿名数据集的攻击风险比较。
Description
技术领域
本发明属于数据安全评估领域,特别是涉及一种匿名数据攻击风险检测与评估方法。
背景技术
隐私数据的去标识化(Deidentification)技术是实现数据脱敏的重要手段,包括各种抑制技术、泛化技术、随机化技术等,通过去除数据集中隐私属性和数据主题直接的关联关系,能够有效预防隐私推理攻击及各种联合多敏属性推理攻击(如链接攻击、同性质攻击、背景知识攻击、近似攻击等)。其中K-匿名模型及差分隐私模型就是去标识化技术中的典型脱敏技术,可以避免由于数据加密产生的密文数据的杂乱无序,从而在保证隐私数据安全性(Privacy Protection)的同时提高数据的可用性(Data Utilization),对敏感数据通过替换、失真等变换降低数据的敏感度,同时保留一定的可用性、统计性特征。
在隐私数据脱敏处理中,隐私推理攻击和联合多敏感属性推理攻击,如链接攻击,同性质攻击,背景知识攻击,近似攻击以及统计攻击等是较为常见的攻击技术。目前已有不少脱敏数据重识别风险评估相关的工作,但对数据脱敏算法的评估及检测方面的工作非常少。
现有的方法为多是据匿名数据的数量、被抑制数据的数量、匿名化程度以及待评估数据的L-多样性、T-相似性及HIPAA标识符,对评估数据集进行记录数目、最大风险、平均风险进行分析;从而进一步对匿名数据隐私泄露风险进行评估。现有的数据脱敏方法为:数据脱敏系统的链接地址、数据源地址、分析符合的敏感字段数据与所述数据操作,形成AST语法树并进行脱敏处理,最终输出脱敏数据。
但是现有的方法在目前的数据隐私保护中具有很大的局限性,仅对身份识别信息进行脱敏,而对其他信息没有进行相应的脱敏,因此,脱敏结果容易受链接攻击、背景知识攻击等方法攻击,从而造成隐私信息泄露,因此并未真正体现匿名数据的重识别风险;而现有的自动脱敏方法仅采用“字段”脱敏方法,因此不能有效抵御背景知识攻击,脱敏结果也不能真正意义上保证数据隐私。
发明内容
本发明的目的是提供一种匿名数据攻击风险检测与评估方法,以解决上述现有技术存在的问题。
一方面为实现上述目的,本发明提供了一种匿名数据攻击风险检测与评估方法,包括:
获取已脱敏数据,并对所述已脱敏数据进行重识别风险评估和常用攻击风险评估,获得风险值;
若所述风险值大于设定的风险阈值,则需重新调整脱敏参数再次评估,若合格则无需调整脱敏参数。
可选的,获取已脱敏数据之前,所述方法还包括:
采用混淆、置换、K-匿名、L-多样性或差分隐私法中的一种或多种方法对数据进行脱敏处理。
可选的,对所述已脱敏数据进行重识别风险评估和常用攻击风险评估,获得风险值的过程中,通过决策树对风险进行综合评估。
可选的,所述重识别风险评估包括检察官攻击、记者攻击和营销者攻击。
可选的,所述常用攻击风险评估包括:链接攻击、同性质攻击、背景知识攻击、近似攻击、偏态攻击和差分攻击。
可选的,对所述检察官攻击进行重识别的过程中包括:计算检察官攻击重识别概率大于阈值的比例、检察官攻击的最大重识别概率和检察官攻击平均重识别概率;
其中,采用公式(1)计算检察官攻击重识别概率大于阈值的比例:
pRa表示匿名数据集中重识别概率大于阈值τ的记录数量占总数据的比例,在K-匿名或L-多样性匿名处理中,如果每个等价类中记录的数量则控制pRa=0,n代表数据集中记录的数量,J表示数据集中等价组的集合,fj代表数据集中,等价组为j∈J中的数据数量,I(·)代表真为1,否则为0;
采用公式(2)计算检察官攻击的最大重识别概率:
pRb表示所有等价组的最大的重识别概率;
采用公式(3)计算检察官攻击平均重识别概率:
pRc表示平均重识别概率,|J|代表等价组的数量。
可选的,对所述记者攻击进行重识别的过程中包括:计算记者攻击重识别概率大于阈值的比例、记者攻击的最大重识别概率和记者攻击平均重识别概率;
其中,采用公式(1)计算记者攻击重识别概率大于阈值的比例:
jRa表示重识别概率大于τ的数据集记录占总体的比例,Fj代表身份数据集中,等价组为j∈J的数据数量;
采用公式(5)计算记者攻击的最大重识别概率:
jRb表示数据集中所有记录的最大重识别概率;
采用公式(6)计算记者攻击平均重识别概率:
jRc表示平均重识别率。
可选的,对所述营销者攻击进行重识别的过程中包括:计算第一营销者平均重识别概率和第二营销者平均重识别概率;
其中,采用公式(7)计算第一营销者平均重识别概率:
mR1表示识别数据集与匿名数据集的主体相同情况下的平均重识别概率,mR1的值一般适用于N=n的情况,N代表身份数据集记录数量;
采用公式(8)计算第二营销者平均重识别概率:
mR2表示匿名数据集是识别数据集的一部分的情况下,来计算将匿名数据匹配到识别数据的平均重识别概率。
可选的,重识别风险评估结果通过折线图的方式进行可视化。
本发明的技术效果为:
本发明采用基于决策树的脱敏效果对相应的脱敏技术进行评估。对于结构化数据的脱敏,如数值类型数据、日期、等脱敏后仍然具有较高的重标识风险,尤其是检察官攻击发生的风险等级较高。基于评估结果,通过重新调整脱敏参数并重新进行脱敏处理后,能够有效降低平均重标识风险。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例中的风险评估系统结构示意图;
图2为本发明实施例中的脱敏数据预处理流程图;
图3为本发明实施例中的检察官攻击风险检测流程图;
图4为本发明实施例中的营销者攻击风险检测流程图;
图5为本发明实施例中的记者攻击风险风险监测流程图;
图6为本发明实施例中的重识别攻击风险折线图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
如图1所示,本实施例中提供一种匿名数据攻击风险检测与评估方法,包括:
首先本发明主要针对发布的数据集的重标识攻击风险分析,通过对潜在的攻击方式进行建模,并针对特定脱敏算法、数据类型的重标识攻击风险进行检测、评估。本发明主要目的是检测及评估匿名数据集(已脱敏数据)在不同攻击下的攻击风险。主要包括检察官攻击,记者攻击以及营销者攻击。匿名数据集的攻击风险,可作为评估匿名数据方法的因素之一。本发明以折线图的形式展示通过不同匿名参数产生的匿名数据集的攻击风险比较。
本发明计算攻击风险理论主要基于De-identification理论,计算匿名数据集在对重识别攻击风险概率,尤其是对如下三种重攻击风险进行评估:1)检察官攻击、2)记者攻击、3)营销者攻击下的攻击风险。
脱敏数据预处理流程图如图2所示,另外,对于常用脱敏技术处理的脱敏数据的攻击风险也进行详细的分析及评估,主要包括如下六类:
1)链接攻击(Linkage Attack),针对结果脱敏处理的数据表,通过准将脱敏数据与其他获得的数据集通过准标识符进行链接查询后,就有可能获得对应人的敏感信息,从而实施攻击。
2)同性质攻击Homogeneity Attack(一致性攻击),主要针对基于k-匿名方法进行脱敏的数据。在某个k-匿名组内对应的敏感属性值完全相同,那么该k-匿名组内所有对象均具有同样的敏感属性。l-多样性模型可解决此问题,因为l-多样性模型中要求每个等价类中都有l种不同的敏感属性,即使得知某记录满足某等价类的准标识符要求,由于等价类中敏感属性不同,所以无法推测出该条记录的敏感信息。
3)背景知识攻击(Background Knowledge Attack),依据攻击者已有的背景知识,进行推测。即使k-匿名组内的敏感属性值并不相同,攻击者也有可能依据其已有的背景知识以高概率获取到其隐私信息。
4)近似攻击(Similarity Attack),l-多样性未考虑敏感属性的语义。如果某一等价类中,敏感属性的值都是近似的,攻击者就能获取额外信息。
5)偏态攻击(Skewness Attack),l-多样性每组中的敏感信息分布情况可能与整体数据的分布情况不同,泄露隐私的概率会变大。
6)差分攻击(Differential Attack),差分隐私算法通过在数据中加入随机性,可以使得对于差别只有一条数据的两个数据集,攻击者查询所得到的结果相同的概率非常大。从而无法进行差分攻击。
通过对以上攻击风险、指标进行综合分析,能够有效地评估脱敏数据所的潜在风险,并与可接受的风险阀值进行比较。如果脱敏数据被攻击分析低于阀值,则无需进一步处理;但如果脱敏数据的被攻击风险高于阀值,则需要进一步指导数据控制者(DataController)对数据进行再脱敏处理,主要通过风险源调整选择合适的脱敏技术及调整相关参数以降低风险。
本技术方案中的相关符号如表1所示。
表1
n | 数据集中记录的数量 |
J | 数据集中,等价组的集合(比如K-匿名组,L-等价类) |
|J| | 等价组的数量 |
f<sub>j</sub> | 数据集中,等价组为j∈J中的数据数量 |
τ | 阈值 |
I(·) | 真为1,否则为0 |
N | 身份数据集记录数量 |
F<sub>j</sub> | 身份数据集中,等价组为j∈J的数据数量 |
针对已脱敏数据,基于不同目的攻击者可以通过实施重标识攻击,从而造成窃取隐私。对于重新识别身份攻击风险,可以通过多个指标和模型进行评估,本系发明计算攻击风险理论主要基于De-identification理论,计算匿名数据集在对重识别攻击风险概率,采用如下三种重识别攻击风险评估:
1)检察官攻击。检察官攻击风险检测流程图如图3所示,检察官攻击是指攻击者已知某个特定人员在公开数据集中,并且已知目标的一些信息,攻击者目的是重新识别此人员。
其中pRb表示所有等价组的最大的重识别概率,即最小等价类的数量倒数。
其中pRc表示平均重识别概率。
2)重识别记者攻击。记者攻击风险风险监测流程图如图5所示,记者攻击是指攻击者已知一个较大的识别数据库,并且匿名数据库是识别数据库的一个样本产生的。
其中jRa表示重识别概率大于τ的数据集记录占总体的比例。
其中jRb表示数据集中所有记录的最大重识别概率
其中jRc表示平均重识别率。
3)重识别营销者攻击。营销者攻击风险检测流程图如图4所示,营销者攻击是指攻击者拥有一个识别数据集,其目的是尽可能还原出公开数据的身份。
其中mR1表示识别数据集与匿名数据集的主体相同情况下的平均重识别概率,mR1的值一般适用于N=n的情况(即攻击者已知识别数据库和匿名数据库大小相同,想要匹配两个数据集)
其中mR2表示匿名数据集是识别数据集的一部分的情况下,来计算将匿名数据匹配到识别数据的平均重识别概率。
针对常用的数据脱敏技术(如混淆、置换、K-匿名、L-多样性、差分隐私等),本发明分别进行如下重识别风险分析:
1)链接攻击(Linkage Attack),针对结果脱敏处理的数据表,通过准将脱敏数据与其他获得的背景知识数据集通过准标识符进行链接查询后,就有可能获得对应人的敏感信息,从而实施攻击。
2)同性质攻击(Homogeneity Attack),也称“一致性攻击”,主要针对基于k-匿名方法进行脱敏的数据。在某个k-匿名组内对应的敏感属性值完全相同,那么该k-匿名组内所有对象均具有同样的敏感属性。l-多样性模型可解决此问题,因为l-多样性模型中要求每个等价类中都有l种不同的敏感属性,即使得知某记录满足某等价类的准标识符要求,由于等价类中敏感属性不同,所以无法推测出该条记录的敏感信息。
3)背景知识攻击(Background Knowledge Attack),依据攻击者已有的背景知识,进行推测。即使k-匿名组内的敏感属性值并不相同,攻击者也有可能依据其已有的背景知识以高概率获取到其隐私信息。
4)近似攻击(Similarity Attack),主要针对L-多样性脱敏技术未考虑敏感属性的语义的缺点。如果某一等价类中,敏感属性的值都是近似的,攻击者就能获取额外信息。
5)偏态攻击(Skewness Attack),针对L-多样性每组中的敏感信息分布情况可能与整体数据的分布情况不同,泄露隐私的概率会变大。
6)差分攻击(Differential Attack),差分隐私算法通过在数据中加入随机性,可以使得对于差别只有一条数据的两个数据集,攻击者查询所得到的结果相同的概率非常大,从而无法进行差分攻击。
评估经过不同数据脱敏方法的匿名数据集在不同攻击下(主要包括检察官攻击、记者攻击以及营销者攻击)的攻击风险,最后通过决策树进行风险评级。本发明采用如下5步骤重识别风险分析方法进行评估:
1)确定归一化的可接受的重识别风险阀值,并基于该阀值对数据脱敏技术给出指导参数;
2)导入源数据,
3)计算实际重识别风险;
4)比较实际重识别风险与阀值;
5)如果计算的重识别风险在可接受的范围,则说明该脱敏算法及效果参数无需调整;如实际重识别风险过高,则需要调整参数并重新执行脱敏过程;
6)输出脱敏数据,并出具相关报告。
重识别风险评估结果可通过折线图等方法对结果进行可视化,。
基于上述评估指标,本发明采用基于决策树的脱敏效果对相应的脱敏技术进行评估。对于结构化数据的脱敏,如数值类型数据、日期、等脱敏后仍然具有较高的重标识风险,尤其是检察官攻击发生的风险等级较高。基于评估结果,通过重新调整脱敏参数并重新进行脱敏处理后,能够有效降低平均重标识风险。针对具体的攻击风险可以通过上述方法进行计算。如图6所示,当K取较大值(k=25)时,其检察官攻击风险、记者攻击风险、以及营销者攻击风险均要较K值取值较小(K=10)时要小的多。
对攻击方式5-9,其计算过程比较复杂,需要综合考虑多种因素,如同一数据集中个体的特殊性、脱敏算法、链接数据的可得性(Availability),重识别攻击的范围等,攻击方式5-9包括同性质攻击、背景知识攻击和近似攻击。其具体攻击风险分析如表2所示。另外,本发明考虑两种风险:(1)所有主体的重识别风险;(2)1-k个个体的重识别风险。
表2
总体而言,脱敏强度越强,重标识风险越低。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (9)
1.一种匿名数据攻击风险检测与评估方法,其特征在于,包括以下步骤:
获取已脱敏数据,并对所述已脱敏数据进行重识别风险评估和常用攻击风险评估,获得风险值;
若所述风险值大于设定的风险阈值,则需重新调整脱敏参数再次评估,若合格则无需调整脱敏参数。
2.根据权利要求1所述的方法,其特征在于,获取已脱敏数据之前,所述方法还包括:
采用混淆、置换、K-匿名、L-多样性或差分隐私法中的一种或多种方法对数据进行脱敏处理。
3.根据权利要求1所述的方法,其特征在于,对所述已脱敏数据进行重识别风险评估和常用攻击风险评估,获得风险值的过程中,通过决策树对风险进行综合评估。
4.根据权利要求3所述的方法,其特征在于,所述重识别风险评估包括检察官攻击、记者攻击和营销者攻击。
5.根据权利要求3所述的方法,其特征在于,所述常用攻击风险评估包括:链接攻击、同性质攻击、背景知识攻击、近似攻击、偏态攻击和差分攻击。
6.根据权利要求4所述的方法,其特征在于,对所述检察官攻击进行重识别的过程中包括:计算检察官攻击重识别概率大于阈值的比例、检察官攻击的最大重识别概率和检察官攻击平均重识别概率;
其中,采用公式(1)计算检察官攻击重识别概率大于阈值的比例:
pRa表示匿名数据集中重识别概率大于阈值τ的记录数量占总数据的比例,在K-匿名或L-多样性匿名处理中,如果每个等价类中记录的数量则控制pRa=0,n代表数据集中记录的数量,J表示数据集中等价组的集合,fj代表数据集中,等价组为j∈J中的数据数量,I(·)代表真为1,否则为0;
采用公式(2)计算检察官攻击的最大重识别概率:
pRb表示所有等价组的最大的重识别概率;
采用公式(3)计算检察官攻击平均重识别概率:
pRc表示平均重识别概率,|J|代表等价组的数量。
9.根据权利要求6-8中任意一项所述的方法,其特征在于,重识别风险评估结果通过折线图的方式进行可视化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111603705.9A CN114372263A (zh) | 2021-12-24 | 2021-12-24 | 一种匿名数据攻击风险检测与评估方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111603705.9A CN114372263A (zh) | 2021-12-24 | 2021-12-24 | 一种匿名数据攻击风险检测与评估方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114372263A true CN114372263A (zh) | 2022-04-19 |
Family
ID=81142300
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111603705.9A Pending CN114372263A (zh) | 2021-12-24 | 2021-12-24 | 一种匿名数据攻击风险检测与评估方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114372263A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114758423A (zh) * | 2022-04-29 | 2022-07-15 | 支付宝(杭州)信息技术有限公司 | 一种生物识别方法、装置及设备 |
CN115174070A (zh) * | 2022-07-11 | 2022-10-11 | 中国银行股份有限公司 | 一种个人信息的处理方法及装置 |
-
2021
- 2021-12-24 CN CN202111603705.9A patent/CN114372263A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114758423A (zh) * | 2022-04-29 | 2022-07-15 | 支付宝(杭州)信息技术有限公司 | 一种生物识别方法、装置及设备 |
CN115174070A (zh) * | 2022-07-11 | 2022-10-11 | 中国银行股份有限公司 | 一种个人信息的处理方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114372263A (zh) | 一种匿名数据攻击风险检测与评估方法 | |
Zhong et al. | Understanding disparate effects of membership inference attacks and their countermeasures | |
Saito et al. | Improving lime robustness with smarter locality sampling | |
Zia et al. | Application of differential privacy approach in healthcare data–a case study | |
KR20210110765A (ko) | 인공지능 기반 빅데이터 비식별화 솔루션 제공방법 | |
Rajaei et al. | Ambiguity in social network data for presence, sensitive-attribute, degree and relationship privacy protection | |
Kotal et al. | Privacy-preserving data sharing in agriculture: Enforcing policy rules for secure and confidential data synthesis | |
Ning et al. | Dp-agm: a differential privacy preserving method for binary relationship in mobile networks | |
CN116956347B (zh) | 一种隐私保护下的可交互微数据发布系统 | |
Liu et al. | Differential Privacy Protection of Face Images Based on Region Growing. | |
Houssiau et al. | A framework for auditable synthetic data generation | |
Lee et al. | De-identification and privacy issues on bigdata transformation | |
Zhang et al. | Data Privacy Quantification and De-identification Model Based on Information Theory | |
CN117407908A (zh) | 一种对多关系数据集进行匿名化的方法 | |
Podoliaka et al. | Privacy attacks based on correlation of dataset identifiers: Assessing the risk | |
Patel et al. | Privacy preservation for big data healthcare management | |
Torra | Data privacy for machine learning and statistics | |
Carey et al. | Randomized response has no disparate impact on model accuracy | |
Bargh et al. | Towards an Integrated Approach for Preserving Data Utility, Privacy and Fairness | |
Latenko et al. | A review of frequency table disclosure control from a microdata perspective | |
Bargh et al. | On Usage Control in Relational Database Management Systems-Obligations and Their Enforcement in Joining Datasets | |
Dombrowski et al. | Quantifying Anonymity in Score-Based Generators with Adversarial Fingerprinting | |
Dombrowski et al. | Quantifying sample anonymity in score-based generative models with adversarial fingerprinting | |
Badr et al. | Data transparency and fairness analysis of the NYPD stop-and-frisk program | |
Aufschläger et al. | Anonymization Procedures for Tabular Data: An Explanatory Technical and Legal Synthesis. Information 2023, 14, 487 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |