JP6978385B2 - Anonymization device, anonymization method and anonymization program - Google Patents

Anonymization device, anonymization method and anonymization program Download PDF

Info

Publication number
JP6978385B2
JP6978385B2 JP2018140085A JP2018140085A JP6978385B2 JP 6978385 B2 JP6978385 B2 JP 6978385B2 JP 2018140085 A JP2018140085 A JP 2018140085A JP 2018140085 A JP2018140085 A JP 2018140085A JP 6978385 B2 JP6978385 B2 JP 6978385B2
Authority
JP
Japan
Prior art keywords
tensor
anonymization
anonymized
factors
factor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018140085A
Other languages
Japanese (ja)
Other versions
JP2020017101A (en
Inventor
知明 三本
清良 披田野
晋作 清本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2018140085A priority Critical patent/JP6978385B2/en
Publication of JP2020017101A publication Critical patent/JP2020017101A/en
Application granted granted Critical
Publication of JP6978385B2 publication Critical patent/JP6978385B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、データセットを匿名化する匿名化装置、匿名化方法及び匿名化プログラムに関する。 The present invention relates to an anonymization device, anonymization method and anonymization program for anonymizing a data set.

従来、ユーザ情報を含むデータセットを活用する際に、個人のプライバシを保護するために、データの匿名化が行われている。
匿名化手法として、例えば、非特許文献1〜3ではk−匿名化手法が、非特許文献4〜6ではデータにノイズを付加する手法が提案されている。
Conventionally, when utilizing a data set containing user information, data anonymization is performed in order to protect personal privacy.
As anonymization methods, for example, the k-anonymization method is proposed in Non-Patent Documents 1 to 3, and the method of adding noise to data is proposed in Non-Patent Documents 4 to 6.

P. Samarati and L. Sweeney, “Generalizing data to provide anonymity when disclosing information,” in Proc. of PODS 1998, 1998, p. 188.P. Samari and L. Sweeney, "Generalization data to provid anonymity when disclosing information," in Proc. of PODS 1998, 1998, p. 188. P. Samarati, “Protecting respondents’ identities in microdata release,” IEEE Trans. on Knowledge and Data Engineering, vol. 13, no. 6, pp. 1010−1027, 2001.P. Samariti, “Protecting repondents' identities in microdata releases,” IEEE Trans. on Knowledge and Data Engineering, vol. 13, no. 6, pp. 1010-1027, 2001. L. Sweeney, “Achieving k−anonymity privacy protection using generalization and suppression,” in J. Uncertainty, Fuzziness, and Knowledge−Base Systems, vol. 10(5), 2002, pp. 571−588.L. Sweeney, "Achieving k-anonymity privacy promotion using generalization and support," in J. et al. Uncertainty, Fuzzines, and Knowledge-Base Systems, vol. 10 (5), 2002, pp. 571-588. K. Mivule, “Utilizing noise addition for data privacy, an overview,” arXiv preprint arXiv:1309.3958, 2013.K. Mivule, "Utilizing noise addition for data privacy, an overflow," arXiv preprint arXiv: 1309.3958, 2013. J. J. Kim, “A method for limiting disclosure in microdata based on random noise and transformation,” in Proceedings of the section on survey research methods. American Statistical Association, 1986, pp. 303−308.J. J. Kim, "A method for limiting discrosure in microdata based on random noise and transformation," in Proceedings of the second method. American Statistical Association, 1986, pp. 303-308. T. Yu and S. Jajodia, “Secure data management in decentralized systems,” Springer Science & Business Media, 2007, vol. 33.T. Yu and S. Jajodia, "Secure data management in decentralized systems," Springer Science & Business Media, 2007, vol. 33.

データの匿名化の目的は、個人のプライバシを守ることと、データの有用性を維持することとの相反する二つの両立にある。しかしながら、従来の匿名化手法では、データの匿名性を向上させると、有用性が大きく低下してしまう場合があった。 The purpose of data anonymization is to protect the privacy of individuals and to maintain the usefulness of the data. However, in the conventional anonymization method, if the anonymity of the data is improved, the usefulness may be greatly reduced.

本発明は、データセットの有用性を維持して匿名化できる匿名化装置、匿名化方法及び匿名化プログラムを提供することを目的とする。 An object of the present invention is to provide an anonymization device, anonymization method, and anonymization program capable of maintaining the usefulness of a data set and anonymizing it.

本発明に係る匿名化装置は、ユーザ情報のデータセットが記述されたテンソルの入力を受け付ける入力部と、前記テンソルを、所定のテンソル分解のアルゴリズムにより、複数の因子の積に分解するテンソル分解部と、前記複数の因子のうち、ユーザ毎の特徴を示す特定の因子に対して、匿名化の演算を行う匿名化演算部と、匿名化された因子で前記特定の因子を置き換え、前記テンソルに近似した匿名化テンソルを算出して出力する出力部と、を備える。 The anonymization device according to the present invention has an input unit that accepts an input of a tensor in which a data set of user information is described, and a tensor decomposition unit that decomposes the tensor into a product of a plurality of factors by a predetermined tensor decomposition algorithm. And, among the plurality of factors, the anonymization calculation unit that performs an anonymization calculation for a specific factor showing the characteristics of each user, and the anonymized factor replace the specific factor with the tensor. It includes an output unit that calculates and outputs an approximate anonymized tensor.

前記匿名化演算部は、前記特定の因子に対して、k−匿名化の演算を行ってもよい。 The anonymization calculation unit may perform a k-anonymization calculation for the specific factor.

前記匿名化演算部は、前記特定の因子に対して、ノイズを付加する演算を行ってもよい。 The anonymization calculation unit may perform a calculation for adding noise to the specific factor.

前記匿名化装置は、前記テンソル分解におけるランク、及び前記匿名化の強度をパラメータとして受け付けて設定する設定部を備えてもよい。 The anonymization device may include a setting unit that accepts and sets the rank in the tensor decomposition and the strength of the anonymization as parameters.

本発明に係る匿名化方法は、ユーザ情報のデータセットが記述されたテンソルの入力を受け付ける入力ステップと、前記テンソルを、所定のテンソル分解のアルゴリズムにより、複数の因子の積に分解するテンソル分解ステップと、前記複数の因子のうち、ユーザ毎の特徴を示す特定の因子に対して、匿名化の演算を行う匿名化演算ステップと、匿名化された因子で前記特定の因子を置き換え、前記テンソルに近似した匿名化テンソルを算出して出力する出力ステップと、をコンピュータが実行する。 The anonymization method according to the present invention includes an input step that accepts an input of a tensor in which a data set of user information is described, and a tensor decomposition step that decomposes the tensor into a product of a plurality of factors by a predetermined tensor decomposition algorithm. And, among the plurality of factors, the anonymization calculation step for performing an anonymization operation for a specific factor showing the characteristics of each user, and the anonymized factor replaces the specific factor with the tensor. The computer executes an output step that calculates and outputs an approximate anonymized tensor.

本発明に係る匿名化プログラムは、ユーザ情報のデータセットが記述されたテンソルの入力を受け付ける入力ステップと、前記テンソルを、所定のテンソル分解のアルゴリズムにより、複数の因子の積に分解するテンソル分解ステップと、前記複数の因子のうち、ユーザ毎の特徴を示す特定の因子に対して、匿名化の演算を行う匿名化演算ステップと、匿名化された因子で前記特定の因子を置き換え、前記テンソルに近似した匿名化テンソルを算出して出力する出力ステップと、をコンピュータに実行させるためのものである。 The anonymization program according to the present invention has an input step that accepts an input of a tensor in which a data set of user information is described, and a tensor decomposition step that decomposes the tensor into a product of a plurality of factors by a predetermined tensor decomposition algorithm. And, among the plurality of factors, the anonymization calculation step for performing an anonymization operation for a specific factor showing the characteristics of each user, and the anonymized factor replaces the specific factor with the tensor. The purpose is to have a computer execute an output step that calculates and outputs an approximate anonymized tensor.

本発明によれば、データセットの有用性を維持して匿名化できる。 According to the present invention, the usefulness of the data set can be maintained and anonymized.

実施形態に係る匿名化装置の機能構成を示すブロック図である。It is a block diagram which shows the functional structure of the anonymization apparatus which concerns on embodiment. 実施形態に係る匿名化方法のアルゴリズムを例示する図である。It is a figure which illustrates the algorithm of the anonymization method which concerns on embodiment. 実施形態に係る匿名化方法の従来との比較実験結果を示す図である。It is a figure which shows the comparative experiment result with the prior art of the anonymization method which concerns on embodiment.

以下、本発明の実施形態の一例について説明する。
図1は、本実施形態に係る匿名化装置1の機能構成を示すブロック図である。
匿名化装置1は、サーバ装置又はパーソナルコンピュータ等の情報処理装置(コンピュータ)であり、制御部10、記憶部20、及び各種の入出力デバイスを備える。
Hereinafter, an example of the embodiment of the present invention will be described.
FIG. 1 is a block diagram showing a functional configuration of the anonymization device 1 according to the present embodiment.
The anonymization device 1 is an information processing device (computer) such as a server device or a personal computer, and includes a control unit 10, a storage unit 20, and various input / output devices.

制御部10は、匿名化装置1の全体を制御する部分であり、記憶部20に記憶された各種プログラムを適宜読み出して実行することにより、本実施形態における機能を実現している。制御部10は、CPUであってよい。 The control unit 10 is a part that controls the entire anonymization device 1, and realizes the function in the present embodiment by appropriately reading and executing various programs stored in the storage unit 20. The control unit 10 may be a CPU.

記憶部20は、ハードウェア群を匿名化装置1として機能させるための各種プログラム、及び各種データ等の記憶領域であり、ROM、RAM、フラッシュメモリ又はハードディスク(HDD)等であってよい。具体的には、記憶部20は、本実施形態の機能を制御部10に実行させるための匿名化プログラムの他、処理対象のデータセット及び各種パラメータ等を記憶する。 The storage unit 20 is a storage area for various programs and various data for making the hardware group function as the anonymization device 1, and may be a ROM, RAM, flash memory, hard disk (HDD), or the like. Specifically, the storage unit 20 stores the data set to be processed, various parameters, and the like, in addition to the anonymization program for causing the control unit 10 to execute the function of the present embodiment.

また、制御部10は、入力部11と、テンソル分解部12と、匿名化演算部13と、出力部14と、設定部15とを備える。これらの機能部は、記憶部20に記憶された匿名化プログラムを制御部10が実行することにより実現される。 Further, the control unit 10 includes an input unit 11, a tensor decomposition unit 12, an anonymization calculation unit 13, an output unit 14, and a setting unit 15. These functional units are realized by the control unit 10 executing the anonymization program stored in the storage unit 20.

入力部11は、ユーザの個人情報を含んだデータセットが記述されたテンソルの入力を受け付ける。
なお、本実施形態では、入力されるテンソルは、一例として2階テンソルである行列として説明するが、これには限られない。
The input unit 11 accepts the input of the tensor in which the data set including the personal information of the user is described.
In the present embodiment, the input tensor is described as a matrix which is a second-order tensor as an example, but the present invention is not limited to this.

匿名化の対象とするデータセットは、例えば、ある期間におけるユーザの移動履歴、購買履歴、アクセス履歴等である。このようなデータセットは、n人のユーザに対してm個の位置、商品、サイト等のうち実績のあり/なしがn行m列の行列において各要素の1/0として記述される。 The data set to be anonymized is, for example, a user's movement history, purchase history, access history, etc. in a certain period. Such a data set is described as 1/0 of each element in a matrix of n rows and m columns with or without actual results among m positions, products, sites, etc. for n users.

テンソル分解部12は、入力されたテンソルを、所定のテンソル分解のアルゴリズムにより、複数の因子の積に分解する。
テンソル分解には、既知のアルゴリズムが利用可能である。例えば、2階テンソルの場合には、SVD(Singular Value Decomposition)又はNMF(Non−negative Matrix Factorization)等の行列分解アルゴリズムが利用可能である。
The tensor decomposition unit 12 decomposes the input tensor into a product of a plurality of factors by a predetermined tensor decomposition algorithm.
Known algorithms are available for tensor decomposition. For example, in the case of a second-order tensor, a matrix factorization algorithm such as SVD (Singular Value Decomposition) or NMF (Non-negative Matrix Factorization) can be used.

これにより、行列M∈Rn×mは、U∈Rn×r及びV∈Rr×mという2つの行列に分割される。Uは、行の特徴、すなわちユーザ毎の特徴を示す行列である。一方、Vは、列の特徴、すなわち履歴データ等の特徴を示しており、ユーザ固有の情報を含まない。
ここで、行列分解のパラメータであるランクrが小さくなるほど、特徴量の数が削減され、分解された行列U及びVの積UVの元の行列Mとの近似精度が低くなる。
As a result, the matrix M ∈ R n × m is divided into two matrices, U ∈ R n × r and V ∈ R r × m. U is a matrix showing the characteristics of the row, that is, the characteristics of each user. On the other hand, V indicates the characteristics of the column, that is, the characteristics such as historical data, and does not include user-specific information.
Here, as the rank r, which is a parameter of matrix factorization, becomes smaller, the number of feature quantities is reduced, and the approximation accuracy of the product UV of the decomposed matrices U and V with the original matrix M becomes lower.

匿名化演算部13は、分解された複数の因子のうち、ユーザ毎の特徴を示す特定の因子に対して、匿名化の演算を行う。
例えば、匿名化の対象とする行列MがUとVとに分解された場合、匿名化演算部13は、ユーザ毎の特徴を示す行列Uのみに匿名化の演算を行う。
匿名化の演算には、例えば、k−匿名化、又はノイズを付加する演算が採用されてよい。
The anonymization calculation unit 13 performs anonymization calculation for a specific factor showing the characteristics of each user among the plurality of decomposed factors.
For example, when the matrix M to be anonymized is decomposed into U and V, the anonymization calculation unit 13 performs the anonymization operation only on the matrix U showing the characteristics of each user.
For the anonymization operation, for example, k-anonymization or an operation for adding noise may be adopted.

出力部14は、匿名化された因子で特定の因子を置き換え、元のテンソルに近似した匿名化テンソルを算出して出力する。
例えば、行列に対する匿名化関数をA()とすると、出力部14は、元の行列Mの近似行列A(U)Vを算出することで、ユーザの特徴のみを匿名化した行列を出力する。
The output unit 14 replaces a specific factor with an anonymized factor, calculates and outputs an anonymized tensor that is close to the original tensor.
For example, assuming that the anonymization function for the matrix is A (), the output unit 14 outputs a matrix in which only the user's characteristics are anonymized by calculating the approximate matrix A (U) V of the original matrix M.

設定部15は、テンソル分解におけるランク、及び匿名化の強度をパラメータとして受け付けて設定する。
匿名化の強度とは、k−匿名化におけるkの値、又はノイズの大きさ、例えばノイズの一例であるラプラス分布における分散2φの値等である。
The setting unit 15 accepts and sets the rank in the tensor decomposition and the strength of anonymization as parameters.
The intensity of anonymization is the value of k in k-anonymization, or the magnitude of noise, for example, the value of variance 2φ 2 in the Laplace distribution, which is an example of noise.

図2は、本実施形態に係る匿名化方法のアルゴリズムを例示する図である。
この例は、NMFのアルゴリズムに対して、匿名化の演算を組み入れたものである。
まず、匿名化の対象となる元の行列Mに対して、ランクrと、交互最適化の繰り返し回数Iとが与えられる。
FIG. 2 is a diagram illustrating an algorithm of the anonymization method according to the present embodiment.
This example incorporates an anonymization operation into the NMF algorithm.
First, the rank r and the number of iterations I of the alternate optimization are given to the original matrix M to be anonymized.

ステップ1〜2において、テンソル分解部12は、行列Mの分解後の行列U及びVの初期値として、t=0,U∈Rn×r及びV∈Rr×mをランダムに生成する。 In step 1-2, the tensor decomposition unit 12 as the initial value of the matrix U and V after the decomposition of the matrix M, randomly generates a t = 0, U t ∈R n × r and V t ∈R r × m do.

ステップ3〜7において、テンソル分解部12は、交互最適化により、Ut+1=U・(MV )/(U )及びVt+1=V・(Ut+1 M)/(Ut+1 t+1)を計算し、tをカウントアップする処理を繰り返し、U及びVを算出する。 In step 3-7, the tensor decomposition section 12, by alternating optimization, U t + 1 = U t · (MV t T) / (U t V t V t T) and V t + 1 = V t · (U t + 1 T M ) / a (U t + 1 T U t + 1 V t) is calculated and repeats the process of counting up the t, and calculates the U I and V I.

ステップ8〜9において、匿名化演算部13は、Uに対して匿名化の演算を行い、t=I,U’t+1=A(ano)(U)及びV’t+1=V・(U’t+1 M)/(U’t+1 U’t+1)を算出する。 In step 8-9, the anonymizing calculation unit 13 performs calculation of the anonymous with respect to U I, t = I, U 't + 1 = A (ano) (U t) and V' t + 1 = V t · ( U calculates the 't + 1 T M) / (U' t + 1 T U 't + 1 V t).

このアルゴリズムにより、匿名化された行列U’t+1と、元の行列Mを近似するためのV’t+1とが得られるので、出力部14は、U’t+1V’t+1を、行列Mを匿名化した結果として出力する。 This algorithm 'and t + 1, V for approximating the original matrix M' matrix U which is anonymous since the t + 1 is obtained, the output unit 14, U a 't + 1 V' t + 1, anonymizing matrix M Is output as a result of.

図3は、本実施形態に係る匿名化方法の従来との比較実験結果を示す図である。
ここでは、匿名化の演算としてノイズ付加を採用した場合に、元の行列M全体を匿名化する従来の手法と、ノイズの大きさとランクとを調整してユーザ行列Uのみを匿名化する本実施形態の手法とを示している。
FIG. 3 is a diagram showing the results of comparative experiments of the anonymization method according to the present embodiment with the conventional ones.
Here, when noise addition is adopted as the operation of anonymization, the conventional method of anonymizing the entire original matrix M and the present implementation of adjusting the magnitude and rank of noise to anonymize only the user matrix U. It shows the method of morphology.

この実験に用いた匿名化の対象は、n×m=200×1000の行列Mである。行列Mにφ=1.5のノイズを付加した場合、ランクr=40の行列Uにφ=1.5のノイズを付加した場合、ランクr=80の行列Uにφ=2.5のノイズを付加した場合、ランクr=120の行列Uにφ=3.5のノイズを付加した場合の4パターンの有用性Utility(D)を算出した。
なお、これらの4パターンのデータセットは、匿名化の前後で同一ユーザをマッチング、すなわち再識別(re−identification)できる確率が同等(約0.63)のものである。
The object of anonymization used in this experiment is a matrix M of n × m = 200 × 1000. When the noise of φ = 1.5 is added to the matrix M, when the noise of φ = 1.5 is added to the matrix U of rank r = 40, the noise of φ = 2.5 is added to the matrix U of rank r = 80. When the noise of φ = 3.5 was added to the matrix U of rank r = 120, the usefulness (D) of the four patterns was calculated.
It should be noted that these four patterns of data sets have the same probability (about 0.63) that the same user can be matched, that is, re-identified before and after anonymization.

有用性の評価には、データセットを教師データとした機械学習による予測精度であるF値を用い、匿名化前の元の行列MのF値に対する比を評価値Utility(D)とした。
従来の手法に比べて、本実施形態の手法では、特に、ランクr=40の行列Uにφ=1.5のノイズを付加した場合には、高い有用性が認められる。
For the evaluation of usefulness, the F value, which is the prediction accuracy by machine learning using the data set as the teacher data, was used, and the ratio of the original matrix M before anonymization to the F value was defined as the evaluation value Utility (D).
Compared with the conventional method, the method of the present embodiment is particularly useful when noise of φ = 1.5 is added to the matrix U of rank r = 40.

ランクを小さくすることで、元の行列からの近似精度が低くなることから、テンソル分解自体にも匿名化の効果がある。ノイズ付加等の匿名化の演算と組み合わせることにより、これらのパラメータを適切に選択することで、同程度の安全性を持つ有用性の高い匿名化データセットが得られた。 By reducing the rank, the approximation accuracy from the original matrix becomes low, so the tensor decomposition itself has the effect of anonymization. By properly selecting these parameters in combination with anonymization operations such as noise addition, a highly useful anonymization dataset with the same degree of security was obtained.

本実施形態によれば、匿名化装置1は、行列等のテンソルで記述されたデータセットを、テンソル分解するによって、ユーザ毎の特徴を示す特定の因子(行列等のテンソル)を抽出する。匿名化装置1は、この特定の因子のみに対して匿名化の演算を行うことにより、ユーザ情報である履歴データ等、他の情報(特徴量)間の相関を維持しつつ、ユーザの特徴のみを匿名化できる。
したがって、匿名化装置1は、データセットの有用性を維持して匿名化できる。
According to the present embodiment, the anonymization device 1 extracts a specific factor (tensor such as a matrix) showing characteristics for each user by decomposing a data set described by a tensor such as a matrix into a tensor. The anonymization device 1 performs anonymization calculation only for this specific factor, so that only the user's characteristics are maintained while maintaining the correlation between other information (features) such as historical data which is user information. Can be anonymized.
Therefore, the anonymization device 1 can maintain the usefulness of the data set and anonymize it.

匿名化装置1は、匿名化の演算として、既知の手法を適用でき、例えば、k−匿名化又はノイズ付加といった手法を容易に組み合わせて用いることができる。
また、匿名化装置1は、テンソル分解におけるランク、及び匿名化の強度をパラメータとして受け付けることにより、匿名化の対象とするデータセットに応じて、適切な設定により演算可能であり、データの匿名性と有用性とを高度に両立できる。
The anonymization device 1 can apply a known method as an anonymization operation, and for example, a method such as k-anonymization or noise addition can be easily combined and used.
Further, the anonymization device 1 accepts the rank in the tensor decomposition and the strength of anonymization as parameters, so that it can be calculated with appropriate settings according to the data set to be anonymized, and the anonymity of the data. And usefulness are highly compatible.

以上、本発明の実施形態について説明したが、本発明は前述した実施形態に限るものではない。また、前述した実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、実施形態に記載されたものに限定されるものではない。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments. Moreover, the effects described in the above-described embodiments are merely a list of the most suitable effects resulting from the present invention, and the effects according to the present invention are not limited to those described in the embodiments.

匿名化装置1による匿名化方法は、ソフトウェアにより実現される。ソフトウェアによって実現される場合には、このソフトウェアを構成するプログラムが、情報処理装置(コンピュータ)にインストールされる。また、これらのプログラムは、CD−ROMのようなリムーバブルメディアに記録されてユーザに配布されてもよいし、ネットワークを介してユーザのコンピュータにダウンロードされることにより配布されてもよい。さらに、これらのプログラムは、ダウンロードされることなくネットワークを介したWebサービスとしてユーザのコンピュータに提供されてもよい。 The anonymization method by the anonymization device 1 is realized by software. When realized by software, the programs that make up this software are installed in the information processing device (computer). Further, these programs may be recorded on a removable medium such as a CD-ROM and distributed to the user, or may be distributed by being downloaded to the user's computer via a network. Further, these programs may be provided to the user's computer as a Web service via a network without being downloaded.

1 匿名化装置
10 制御部
11 入力部
12 テンソル分解部
13 匿名化演算部
14 出力部
15 設定部
20 記憶部
1 Anonymization device 10 Control unit 11 Input unit 12 Tensor decomposition unit 13 Anonymization calculation unit 14 Output unit 15 Setting unit 20 Storage unit

Claims (6)

ユーザ情報のデータセットが記述されたテンソルの入力を受け付ける入力部と、
前記テンソルを、所定のテンソル分解のアルゴリズムにより、複数の因子の積に分解するテンソル分解部と、
前記複数の因子のうち、ユーザ毎の特徴を示す特定の因子に対して、匿名化の演算を行うと共に、当該匿名化された因子との積により前記テンソルを近似するために、前記特定の因子を除く他の因子を変換する匿名化演算部と、
前記匿名化された因子、及び変換された前記他の因子の積により、前記テンソルに近似した匿名化テンソルを算出して出力する出力部と、を備える匿名化装置。
An input unit that accepts input from a tensor that describes a data set of user information,
A tensor decomposition unit that decomposes the tensor into a product of a plurality of factors by a predetermined tensor decomposition algorithm, and a tensor decomposition unit.
Among the plurality of factors, the specific factor indicating the characteristics of each user is anonymized, and the specific factor is used to approximate the tensor by the product of the anonymized factor. Anonymization calculation unit that converts other factors except
An anonymization device including an output unit that calculates and outputs an anonymized tensor similar to the tensor by the product of the anonymized factor and the converted other factors.
前記匿名化演算部は、前記特定の因子に対して、k−匿名化の演算を行う請求項1に記載の匿名化装置。 The anonymization device according to claim 1, wherein the anonymization calculation unit performs a k-anonymization calculation for the specific factor. 前記匿名化演算部は、前記特定の因子に対して、ノイズを付加する演算を行う請求項1に記載の匿名化装置。 The anonymization device according to claim 1, wherein the anonymization calculation unit performs an operation of adding noise to the specific factor. 前記テンソル分解におけるランク、及び前記匿名化の強度をパラメータとして受け付けて設定する設定部を備える請求項1から請求項3のいずれかに記載の匿名化装置。 The anonymization device according to any one of claims 1 to 3, further comprising a setting unit that accepts and sets the rank in the tensor decomposition and the strength of the anonymization as parameters. ユーザ情報のデータセットが記述されたテンソルの入力を受け付ける入力ステップと、
前記テンソルを、所定のテンソル分解のアルゴリズムにより、複数の因子の積に分解するテンソル分解ステップと、
前記複数の因子のうち、ユーザ毎の特徴を示す特定の因子に対して、匿名化の演算を行うと共に、当該匿名化された因子との積により前記テンソルを近似するために、前記特定の因子を除く他の因子を変換する匿名化演算ステップと、
前記匿名化された因子、及び変換された前記他の因子の積により、前記テンソルに近似した匿名化テンソルを算出して出力する出力ステップと、をコンピュータが実行する匿名化方法。
An input step that accepts input from a tensor that describes a dataset of user information,
A tensor decomposition step that decomposes the tensor into a product of a plurality of factors by a predetermined tensor decomposition algorithm, and
Among the plurality of factors, the specific factor indicating the characteristics of each user is anonymized, and the specific factor is used to approximate the tensor by the product of the anonymized factor. Anonymization operation steps that transform other factors except
An anonymization method in which a computer executes an output step of calculating and outputting an anonymized tensor similar to the tensor by the product of the anonymized factor and the converted other factors.
ユーザ情報のデータセットが記述されたテンソルの入力を受け付ける入力ステップと、
前記テンソルを、所定のテンソル分解のアルゴリズムにより、複数の因子の積に分解するテンソル分解ステップと、
前記複数の因子のうち、ユーザ毎の特徴を示す特定の因子に対して、匿名化の演算を行うと共に、当該匿名化された因子との積により前記テンソルを近似するために、前記特定の因子を除く他の因子を変換する匿名化演算ステップと、
前記匿名化された因子、及び変換された前記他の因子の積により、前記テンソルに近似した匿名化テンソルを算出して出力する出力ステップと、をコンピュータに実行させるための匿名化プログラム。
An input step that accepts input from a tensor that describes a dataset of user information,
A tensor decomposition step that decomposes the tensor into a product of a plurality of factors by a predetermined tensor decomposition algorithm, and
Among the plurality of factors, the specific factor indicating the characteristics of each user is anonymized, and the specific factor is used to approximate the tensor by the product of the anonymized factor. Anonymization operation steps that transform other factors except
The anonymized factor, and the product of the transformed the other factors, anonymizing program to execute an output step, to a computer which calculates and outputs the anonymous tensor approximate to the tensor.
JP2018140085A 2018-07-26 2018-07-26 Anonymization device, anonymization method and anonymization program Active JP6978385B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018140085A JP6978385B2 (en) 2018-07-26 2018-07-26 Anonymization device, anonymization method and anonymization program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140085A JP6978385B2 (en) 2018-07-26 2018-07-26 Anonymization device, anonymization method and anonymization program

Publications (2)

Publication Number Publication Date
JP2020017101A JP2020017101A (en) 2020-01-30
JP6978385B2 true JP6978385B2 (en) 2021-12-08

Family

ID=69581518

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140085A Active JP6978385B2 (en) 2018-07-26 2018-07-26 Anonymization device, anonymization method and anonymization program

Country Status (1)

Country Link
JP (1) JP6978385B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112668054B (en) * 2021-01-15 2024-07-19 长沙理工大学 Tensor decomposition-based data traffic privacy protection and restoration method and device

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5944268B2 (en) * 2012-08-24 2016-07-05 Kddi株式会社 User information management apparatus, program, and method for notifying provision record of user non-specific information
JP2017027137A (en) * 2015-07-16 2017-02-02 日本電気株式会社 Information processing device, information processing method, and program
JP6532849B2 (en) * 2016-09-30 2019-06-19 日本電信電話株式会社 Data disturbance apparatus, method and program

Also Published As

Publication number Publication date
JP2020017101A (en) 2020-01-30

Similar Documents

Publication Publication Date Title
Iyer et al. Attack robustness and centrality of complex networks
EP3401828A1 (en) Information processing device, information processing system, information processing method and program
Mirestean et al. Growth determinants revisited using limited‐information Bayesian model averaging
Arce et al. Identifying web sessions with simulated annealing
Aljably et al. Anomaly detection over differential preserved privacy in online social networks
US11615209B2 (en) Big data k-anonymizing by parallel semantic micro-aggregation
Goslee Correlation analysis of dissimilarity matrices
Rogerson Maximum G etis–O rd Statistic Adjusted for Spatially Autocorrelated Data
JP6978385B2 (en) Anonymization device, anonymization method and anonymization program
Mansour et al. Quasi‐Identifier Recognition Algorithm for Privacy Preservation of Cloud Data Based on Risk Reidentification
Tong et al. Learning fractional white noises in neural stochastic differential equations
Van Daalen et al. Privacy Preserving $ n $ n-Party Scalar Product Protocol
JP6532849B2 (en) Data disturbance apparatus, method and program
Ekin et al. Augmented nested sampling for stochastic programs with recourse and endogenous uncertainty
WO2019073913A1 (en) Pseudo-data generating device, method and program
Pardalos et al. Global equilibrium search applied to the unconstrained binary quadratic optimization problem
Gu et al. Nonparametric regression with cross‐classified responses
JPWO2019225531A1 (en) Secret batch approximation system, secret calculator, secret batch approximation method, and program
Crumpton et al. Statistics of the largest eigenvalues and singular values of low-rank random matrices with non-negative entries
Shlomo Integrating differential privacy in the statistical disclosure control tool-kit for synthetic data production
JP2019114053A (en) Recommending apparatus, recommending method and recommending program
Dandekar et al. Comparative evaluation of synthetic data generation methods
JP7158175B2 (en) Information processing device, system, information processing method and program
Tassaddiq et al. Unified Approach to Fractional Calculus Images Involving the Pathway Transform of Extended k‐Gamma Function and Applications
Bhat et al. A privacy preserved data mining approach based on k-partite graph theory

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200619

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210326

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211111

R150 Certificate of patent or registration of utility model

Ref document number: 6978385

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150