ES2478824T3 - Método de gestión de políticas de privacidad para un dispositivo de usuario - Google Patents

Método de gestión de políticas de privacidad para un dispositivo de usuario Download PDF

Info

Publication number
ES2478824T3
ES2478824T3 ES09740098.0T ES09740098T ES2478824T3 ES 2478824 T3 ES2478824 T3 ES 2478824T3 ES 09740098 T ES09740098 T ES 09740098T ES 2478824 T3 ES2478824 T3 ES 2478824T3
Authority
ES
Spain
Prior art keywords
user
users
similarity
policy
privacy policy
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09740098.0T
Other languages
English (en)
Inventor
Miklos Tamas Bodi
Gabor Marton
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Solutions and Networks Oy
Original Assignee
Nokia Solutions and Networks Oy
Nokia Siemens Networks Oy
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Solutions and Networks Oy, Nokia Siemens Networks Oy filed Critical Nokia Solutions and Networks Oy
Application granted granted Critical
Publication of ES2478824T3 publication Critical patent/ES2478824T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/10Network architectures or network communication protocols for network security for controlling access to devices or network resources
    • H04L63/105Multiple levels of security
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L63/00Network architectures or network communication protocols for network security
    • H04L63/20Network architectures or network communication protocols for network security for managing network security; network security policies in general

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Information Transfer Between Computers (AREA)
  • Storage Device Security (AREA)

Abstract

Método de gestión de políticas de privacidad que comprende: proporcionar una determinación de similitud entre un primer usuario y otros usuarios; determinar, basándose en dicha determinación de similitud, al menos un vecino más próximo al primer usuario; estando el método caracterizado por proporcionar uno o más parámetros de política de privacidad recomendados al primer usuario basándose en parámetros de política de privacidad de dicho al menos un vecino más próximo determinado

Description

DESCRIPCIÓN
Método de gestión de políticas de privacidad para un dispositivo de usuario.
La invención se refiere a la gestión de políticas, tales como políticas de privacidad que pueden definir, por ejemplo, 5 la medida en la que una aplicación (tal como una aplicación de Internet) puede acceder a detalles de usuario.
Existe un número creciente de servicios y aplicaciones (tales como aplicaciones de Internet) que almacenan datos personales de usuarios. Dado que los individuos usan cada vez más servicios, una cantidad creciente de datos personales quedan expuestos a tales aplicaciones y, por tanto, quedan expuestos potencialmente fuera de esas 10 aplicaciones. Muchos usuarios no son conscientes (o al menos son conscientes sólo parcialmente) de quién tiene acceso a sus datos personales, y para qué fines, y quién puede revelar su identidad personal y otros datos. Como resultado, existe una demanda creciente de protección de la identidad y privacidad.
Un enfoque en la protección de la privacidad es formular políticas de control de acceso para datos personales. Las 15 políticas están constituidas por reglas que definen los derechos de acceso de entidades de un sistema a los atributos personales de los usuarios. Tales políticas pueden formarse en lenguajes de política tales como el lenguaje de marcado de control de acceso extensible (XACML), el proyecto de plataforma para la protección de la privacidad (P3P) y la política común.
20
Sin embargo, dado que la exposición de datos personales a múltiples aplicaciones y servicios ha aumentado, las políticas de privacidad se han vuelto cada vez más complejas y confusas para el usuario. En un sistema sofisticado, la políticas incluso pueden generarse y modificarse automáticamente.
Es difícil para los usuarios seguir políticas de privacidad que cambian regularmente y estar pendientes de qué 25 servicios (u otras entidades) tienen acceso a qué atributo y por qué. El seguimiento de tales políticas requiere una cantidad de tiempo y esfuerzo que muchos usuarios no están dispuestos a emplear.
La publicación US-2006/212924-A1 da a conocer un método de gestión de políticas con características resumidas en los preámbulos de las reivindicaciones independientes adjuntas. 30
Sigue existiendo la necesidad de permitir que los usuarios establezcan y modifiquen políticas de privacidad según sus necesidades y deseos, sin que el establecimiento y la modificación de tales políticas no sean excesivamente complejos.
35
La presente invención busca abordar al menos algunos de los problemas explicados anteriormente.
La presente invención proporciona un método de gestión de políticas de privacidad que comprende: determinar una similitud entre un primer usuario y cada uno de una pluralidad de otros usuarios; determinar, basándose en dicha similitud, cuáles de la pluralidad de otros usuarios son los vecinos más próximos al primer usuario; y proporcionar 40 uno o más parámetros de política de privacidad recomendados al primer usuario basándose en parámetros de política de privacidad de dichos vecinos más próximos determinados.
La presente invención también proporciona un aparato que comprende: una primera entrada para recibir datos en relación con una pluralidad de usuarios; un primer procesador para determinar, basándose en dichos datos, una 45 similitud entre un primer usuario y cada uno de una pluralidad de otros usuarios (a menudo aplicando una o más funciones de distancia); un segundo procesador para determinar, basándose en dicha similitud, cuáles de la pluralidad de otros usuarios son los vecinos más próximos al primer usuario; y un tercer procesador para generar uno o más parámetros de política de privacidad recomendados al primer usuario basándose en parámetros de política de privacidad de dichos vecinos más próximos determinados. 50
Por tanto, la presente invención proporciona un aparato y un método que buscan ayudar a usuarios a establecer y modificar políticas de privacidad y similares. La invención pretende proporcionar una mejor experiencia de usuario permitiendo que un usuario establezca tales políticas según sus necesidades y deseos, pero con un esfuerzo reducido en comparación con las soluciones conocidas. La invención busca evitar la necesidad de que los usuarios 55 monitoricen continuamente conjuntos de políticas complejas y cambien reglas de política una por una, sin requerir que el usuario acepte conjuntos de políticas globales. La invención pretende proponer parámetros de control de acceso que son los más apropiados para el usuario, mientras se proporciona la flexibilidad para permitir que los usuarios decidan si deben aceptarse parámetros propuestos o no.
60
Determinar la similitud entre el primer usuario y cada uno de la pluralidad de otros usuarios comprende normalmente determinar, para cada uno de la pluralidad de otros usuarios, la similitud de un primer conjunto de datos asociados con el primer usuario y un segundo conjunto de datos asociados con cada uno de la pluralidad de otros usuarios. Puede definirse una función de distancia para convertir las diferencias entre los conjuntos de datos en una clasificación numérica. 65
Determinar la similitud entre un primer usuario y uno de dicha pluralidad de otros usuarios puede comprender aplicar una o más funciones de distancia (tal como una función de distancia de atributo de usuario). Las funciones de distancia expresan la similitud entre los datos y, por tanto, entre los usuarios. La función de distancia puede proporcionar un resultado indicativo de la similitud que tiene un valor numérico entre -1 (que indica disimilitud total) y +1 (que indica similitud total). 5
La invención también puede incluir definir al menos una de dichas una o más funciones de distancia. La función de distancia puede estar relacionada con una variedad de factores, tales como las direcciones particulares de los usuarios o las edades de los usuarios. Las funciones de distancia pueden ponderarse, de manera que las funciones de distancia más importantes tienen más impacto sobre la medida general de similitud entre usuarios que los 10 factores menos importantes.
Determinar la similitud entre usuarios puede incluir considerar la similitud entre al menos algunos de los atributos de usuario de dichos usuarios. Alternativa o adicionalmente, determinar la similitud entre usuarios puede incluir considerar la similitud entre al menos algunas de las decisiones de política de privacidad de dichos usuarios. Los 15 atributos de usuario y las decisiones de política de privacidad son a menudo particularmente relevantes en un entorno de gestión de políticas y perfectamente pueden estar disponibles fácilmente. Naturalmente pueden usarse otras variables además de, o en lugar de, atributos de usuario y/o decisiones de política de privacidad.
En algunas formas de la invención, el vecino más próximo al primer usuario de dicha pluralidad de otros usuarios es 20 aquél de los otros usuarios que tiene la mayor similitud con el primer usuario.
Determinar cuáles de la pluralidad de otros usuarios son los vecinos más próximos al primer usuario puede comprender determinar un número predeterminado de dicha pluralidad de otros usuarios que tienen la mayor similitud con el primer usuario. 25
En algunas formas de la invención, proporcionar parámetros de política de privacidad recomendados comprende determinar, para una política potencial, si más de una primera proporción predeterminada de dichos vecinos más próximos han establecido dicha política. Por ejemplo puede recomendarse una política de privacidad si más de una primera proporción (por ejemplo dos tercios) de los vecinos más próximos han seleccionado la política. 30
Alternativa o adicionalmente, proporcionar parámetros de política de privacidad recomendados puede comprender determinar, para una política potencial, si menos de una segunda proporción predeterminada de dichos vecinos más próximos han establecido dicha política. Por ejemplo, puede recomendarse no establecer una política de privacidad particular si menos de una segunda proporción (por ejemplo un tercio) de los vecinos más próximos han 35 seleccionado la política.
En algunas formas de la invención, la etapa de determinar, para una política potencial, si una proporción de dichos vecinos más próximos han establecido dicha política considera sólo los vecinos más próximos que han tomado una decisión con respecto a si establecer dicha política o no. Puede considerarse un número predeterminado de los 40 vecinos más próximos. Si algunos se omiten de la consideración basándose en que estos usuarios no han tomado una decisión sobre la política en cuestión, entonces el número de los vecinos más próximos relevantes puede ser menor. Alternativamente pueden considerarse más vecinos más próximos, incluyendo usuarios adicionales con una similitud ligeramente menor con el primer usuario que los vecinos más próximos.
45
La invención puede incluir comparar una política de privacidad recomendada para el primer usuario con una actitud principal de dicho primer usuario. Si la actitud principal parece entrar en conflicto con la política de privacidad recomendada, esto puede indicarse al usuario.
La presente invención puede proporcionar un programa informático que comprende: un código (o algún otro medio) 50 para determinar una similitud entre un primer usuario y cada uno de una pluralidad de otros usuarios; un código (o algún otro medio) para determinar, basándose en dicha similitud, cuáles de la pluralidad de otros usuarios son los vecinos más próximos al primer usuario; y un código (o algún otro medio) para proporcionar uno o más parámetros de política de privacidad recomendados al primer usuario basándose en parámetros de política de privacidad de dichos vecinos más próximos determinados. El programa informático puede ser un producto de programa 55 informático que comprende un medio legible por ordenador que porta un código de programa informático incorporado en el mismo para su uso con un ordenador.
A continuación se describen realizaciones ilustrativas de la invención, sólo a modo de ejemplo, con referencia a los siguientes dibujos numerados. 60
La figura 1 es un diagrama de flujo que muestra un algoritmo según un aspecto de la presente invención;
la figura 2 es una tabla que muestra datos de usuario ilustrativos;
65
la figura 3 es un diagrama de flujo que muestra un algoritmo según un aspecto de la presente invención;
la figura 4 es un diagrama de flujo que muestra un algoritmo según un aspecto de la presente invención; y
la figura 5 es un diagrama de flujo que muestra un algoritmo según un aspecto de la presente invención.
La presente invención propone un sistema y un método que ayuda a que los usuarios establezcan o modifiquen 5 políticas de privacidad haciendo recomendaciones al usuario con respecto a cómo establecer o modificar tales políticas. Las recomendaciones se basan en información que se conoce sobre el usuario en cuestión, tal como propiedades y preferencias de usuario del usuario, y posiblemente también las propiedades y preferencias usuario de otros, tales como amigos del usuario. Proporcionar recomendaciones dependiendo de las propiedades o preferencias de usuario conocidas hace más fácil que los usuarios formulen sus políticas y conduce así a políticas 10 que reflejan apropiadamente requerimientos de usuario, mientras se reduce la carga para el usuario.
La figura 1 es un diagrama de flujo que muestra un algoritmo, indicado en general mediante el número de referencia 1, según un aspecto de la presente invención. Tal como se describe detalladamente a continuación, el algoritmo 1 busca hacer recomendaciones a un usuario basadas en identificar usuarios similares, determinar políticas aplicadas 15 por los usuarios similares identificados y recomendar que el usuario elija opciones establecidas en las políticas de esos usuarios similares.
Para hacer recomendaciones a un usuario basadas en determinar políticas aplicadas por usuarios similares, en primer lugar el algoritmo debe determinar qué usuarios son usuarios similares. Por tanto, el algoritmo 1 se inicia en 20 la etapa 2, en la que se definen funciones de distancia relacionadas con un número de atributos de usuario. Las funciones de distancia determinan la metodología para representar la distancia entre dos usuarios en relación con un atributo de usuario dado en una escala numérica, tal como se describe adicionalmente a continuación.
Luego, en la etapa 4 se usan datos de usuario para determinar la similitud entre usuarios aplicando las funciones de 25 distancia definidas en la etapa 2. Una vez que se ha determinado la similitud entre un usuario particular y otros usuarios en la etapa 4, el algoritmo pasa a la etapa 6, en la que se determina un número de los vecinos más próximos al usuario. Un vecino próximo es simplemente un usuario que obtiene una calificación alta en las pruebas de similitud de usuario explicadas anteriormente.
30
Finalmente, en la etapa 8, se hacen recomendaciones de política basadas en las preferencias del/de los vecino(s) más próximo(s) determinado(s).
Tal como se indicó anteriormente, el algoritmo 1 se inicia en la etapa 2, con la definición de funciones de distancia relacionadas con cada uno de un número de atributos. Los atributos de usuario, que perfectamente pueden ser 35 conocidos en un entorno de parámetro de privacidad, pueden usarse para obtener una indicación del nivel de similitud entre dos usuarios diferentes.
Los siguientes son ejemplos del tipo de atributos de usuario que pueden usarse para determinar la similitud entre dos usuarios: 40
• atributos de perfil tales como nombre, número de teléfono, edad, dirección, puesto laboral, etc.
• atributos de comunidad tales como grupos de comunidad preferidos en sitios web sociales, clubes deportivos favoritos del usuario, religión, etc. 45
• atributos de identidad tales como identificación de usuario, nombre, sobrenombre, seudónimos del usuario en proveedores de servicio diferentes, etc.
• atributos de contexto tales como ubicación geográfica, actividad, tipo de dispositivo de usuario final, entorno de 50 vida, etc.
La distancia entre dos usuarios según un atributo dado puede definirse de maneras diferentes. Consideremos, por ejemplo, el atributo “dirección particular” de dos usuarios diferentes. Por un lado podemos definir la distancia entre los dos usuarios a partir del aspecto de distancia física de los domicilios de los usuarios. Por otro lado, la “dirección 55 particular” puede hacer referencia al entorno de vida de los usuarios y, a partir de este aspecto, un pueblo en el campo puede representarse muy lejos de una ciudad en otra escala; sin embargo, los dos asentamientos pueden ser relativamente próximos entre sí físicamente.
Los diferentes aspectos del mismo atributo de usuario pueden tratarse como atributos de usuario diferentes. De esta 60 manera, el conjunto de atributos de usuario se extiende con atributos de usuario “nuevos” que representan los diferentes aspectos del mismo atributo.
La presente invención define una función de distancia (d) relacionada con cada atributo de usuario y con los diferentes aspectos del mismo atributo con la restricción de que el codominio de la función de distancia es el 65 conjunto de (-1,+1). El valor de -1 indica disimilitud total y +1 indica similitud total.
En el caso del ejemplo anterior, la función de distancia (d) del atributo “dirección particular” a partir del aspecto de distancia física puede definirse tal como se muestra en la tabla 10 de la figura 2.
La tabla 10 tiene dos columnas. La primera columna muestra la distancia entre la dirección particular de dos usuarios, que se expresa matemáticamente como: |aki - akj|, donde aki y akj son el atributo “dirección particular” del 5 primer usuario (i) y del segundo usuario (j) respectivamente.
La tabla 10 tiene cinco filas. La primera fila indica que si la distancia física entre las direcciones de los usuarios primero y segundo es mayor que 20.000 km, entonces la función de distancia se establece en -1 (lo que indica disimilitud total). La segunda fila indica que si la distancia física es mayor que 5.000 km, pero menos que o igual a 10 20.000 km, entonces la función de distancia se establece en -0,5 (disimilitud moderada). La tercera fila indica que si la distancia física es mayor que 100 km, pero menos que o igual a 5000 km, entonces la función de distancia se establece en 0 (ni similar ni disimilar). La cuarta fila indica que si la distancia física es mayor que 0, pero menos que o igual a 100 km, entonces la función de distancia se establece en 0,5 (similitud moderada). Finalmente, la quinta fila indica que si la distancia física es 0, entonces la función de distancia se establece en 1 (similitud total). 15
Para dar otro ejemplo, en el caso del atributo “edad” podemos dividir el ciclo de vida humano en grupos de edad y asignar a cada grupo de edad un número en una escala.
Una vez definidos los métodos sobre cómo definir la distancia entre dos usuarios en relación con cada atributo (y los 20 diferentes aspectos del mismo atributo), puede compararse la similitud entre usuarios diferentes en relación con cada atributo en una escala numérica. Por ejemplo, en el caso de los atributos “dirección particular” tratados anteriormente con referencia a la tabla 10, si los usuarios están separados 12.000 km entre sí, entonces el atributo según la tabla 10 tiene un valor de distancia de -0,5. Naturalmente, la tabla de la figura 2 es uno de muchos ejemplos. Por ejemplo, la tabla puede reemplazarse por una fórmula que define la función de manera que una 25 distancia de 12.000 km puede dar como resultado un valor de función de distancia de entre -0,5 y -1, tal como se define mediante esa fórmula.
Cuantos más aspectos se encuentran para medir la distancia entre dos usuarios, más exactamente puede estimarse la similitud entre usuarios. Los diferentes atributos y aspectos del mismo atributo pueden calcularse con pesos 30 diferentes en la definición de similitud entre dos usuarios. Al configurar pesos es posible afinar la medición de similitudes de usuario a usuario. Por ejemplo, la distancia física entre los atributos “dirección particular” de dos usuarios puede considerarse más importante (y, por tanto, tener un peso mayor) que la diferencia en el atributo “edad” de dos usuarios, cuando se hacen recomendaciones de política de privacidad.
35
Los atributos de usuario personales no proporcionan las únicas variables que pueden usarse para determinar una similitud de usuario. Cuando se registran en un servicio nuevo, los usuarios normalmente deben tomar decisiones relacionadas con la privacidad tales como si desean compartir algunos de sus atributos personales con el servicio o no. En la mayoría de los casos deben aceptar compartir atributos que son obligatorios para el servicio y habitualmente pueden tomar decisiones sobre compartir atributos que son voluntarios. Basándose en estas 40 decisiones es posible medir similitudes entre dos usuarios diferentes. Podemos asumir que es probable que personas que han tomado decisiones similares en el pasado tomen decisiones similares en el futuro. Como enfoque simple, si dos usuarios compartieron un atributo con un servicio, entonces su similitud desde el punto de vista de este par de atributos de servicio es máxima; de lo contrario la similitud es mínima. Usando este enfoque pueden ubicarse decisiones de usuario en una escala binaria desde puntos de vista de atributo de servicio diferentes. 45
En el contexto de la presente invención, los atributos de usuario y las decisiones de política de privacidad son medidas convenientes para determinar una similitud de usuario; sin embargo no son las únicas medidas disponibles. Pueden usarse otras medidas además de, o en lugar de, atributos de usuario y/o decisiones de política de privacidad cuando se determina una similitud de usuario. Por ejemplo, un servicio que busca hacer recomendaciones de 50 política a un usuario puede indagar en las relaciones sociales del usuario desde un sitio web de red social usado por el usuario (con el consentimiento del usuario). Puede usarse información dentro de un sitio web de red social de este tipo para medir similitudes entre dos usuarios (por ejemplo determinando si ambos son miembros de una comunidad particular dentro del sitio web de red social).
55
Una vez que se ha elegido la metodología de definición de distancia con respecto a cada atributo (u otras medidas), la siguiente etapa (etapa 4 del algoritmo 1) es determinar realmente las similitudes entre usuarios.
El mecanismo propuesto para determinar la similitud entre un primer usuario (i) y un segundo usuario (j) es calcular la suma ponderada (k) de las diferentes distancias de usuario a usuario (d) con respecto a cada atributo de usuario 60 (a).
La definición anterior determina la siguiente fórmula:
, ),ad(askjkinkkij1
donde:
k es el peso del atributo de usuario correspondiente o de diferentes aspectos del mismo atributo de usuario con la 5 restricción de que ; y 11nkk
d(aki, akj) es la distancia entre el atributo ak del usuario (i) y el atributo ak del usuario (j) definida por la metodología de definición de función de distancia (etapa 2 del algoritmo 1) con la restricción de que d(aki, akj) = (-1,+1).
10
El resultado de la fórmula anterior (sij) representa la similitud entre los dos usuarios. El valor de +1 indica similitud total y el valor de -1 indica disimilitud total.
Tal como se describió anteriormente, la distancia física entre la dirección particular de dos usuarios y la edad de esos usuarios son dos de muchos atributos posibles que pueden usarse para determinar una similitud. Tal como se 15 sugirió anteriormente, en una implementación ilustrativa de la invención, la distancia física entre las dos direcciones particulares se considera más importante cuando se define una similitud entre dos usuarios. Por consiguiente, el atributo “dirección particular” puede tener un peso mayor que el atributo “edad”. Por tanto, la similitud general entre los usuarios puede darse, por ejemplo, como: 21ijdds32+31
20
donde d1 es la función de distancia “edad” y d2 es la función de distancia “dirección particular”.
Tal como se trató anteriormente con referencia a la figura 1, una vez que se han definido las definiciones de funciones de distancia en relación con cada atributo de usuario (etapa 2 del algoritmo 1) y se han determinado las similitudes de usuario según las funciones de distancia definidas (etapa 4), se determinan los vecinos más próximos 25 (etapa 6).
Determinar los vecinos más próximos al usuario implica seleccionar los otros usuarios que tienen el mayor valor de similitud (es decir más cercano a +1). Normalmente, la etapa 6 implica seleccionar un conjunto de k vecinos más próximos, donde k es un valor predefinido. Por ejemplo, si k=10, entonces la etapa 6 implica seleccionar los otros 10 30 usuarios con el mayor valor de similitud, determinado en la etapa 4.
Una vez que se ha determinado el conjunto de los vecinos más próximos, la siguiente etapa (etapa 8) es hacer recomendaciones al usuario. Una recomendación puede hacerse, por ejemplo, cuando un usuario llega a un punto de decisión (por ejemplo cuando un usuario se registra en un servicio o, por ejemplo, cuando un servicio se modifica 35 en una medida en la que requiere una entrada de política de usuario adicional).
La figura 3 muestra un algoritmo, indicado generalmente mediante el número de referencia 20, que puede usarse para hacer recomendaciones. El algoritmo 20 se activa cuando se requiere una decisión con respecto a si debe activarse un parámetro de privacidad particular o no. 40
El algoritmo 20 se inicia en la etapa 22, en la que se verifica el parámetro de privacidad correspondiente de cada uno del grupo predefinido de los vecinos más próximos. El algoritmo 20 pasa entonces a la etapa 24, en la que se determina si al menos dos tercios de los vecinos más próximos han activado el parámetro de privacidad relevante o no. 45
Si al menos dos tercios de los vecinos más próximos han activado el parámetro de privacidad, entonces el algoritmo 20 pasa a la etapa 26, en la que se recomienda activar el parámetro de privacidad. Si menos de dos tercios de los vecinos más próximos han activado el parámetro de privacidad, entonces el algoritmo pasa a la etapa 28, en la que no se recomienda activar el parámetro de privacidad. Naturalmente, los detalles del algoritmo 20 variarán de caso en 50 caso. Por ejemplo puede seleccionarse una proporción diferente de dos tercios.
Naturalmente, el algoritmo 20 puede ser más sofisticado que el ejemplo descrito anteriormente.
La figura 4 muestra un algoritmo, indicado generalmente mediante el número de referencia 30, que muestra una 55 variante del algoritmo 20. El algoritmo 30 se inicia en la etapa 32, en la que se verifica el parámetro de privacidad correspondiente de cada uno del grupo predefinido de los vecinos más próximos. El algoritmo 30 pasa entonces a la etapa 34, en la que se determina si al menos una primera proporción (por ejemplo dos tercios) de los vecinos más próximos han activado el parámetro de privacidad relevante o no.
Si al menos la primera proporción de los vecinos más próximos han activado el parámetro de privacidad, entonces el algoritmo 30 pasa a la etapa 36, en la que se recomienda activar el parámetro de privacidad. Entonces, el algoritmo 30 termina. Si menos de dos tercios de los vecinos más próximos han activado el parámetro de privacidad, entonces el algoritmo 30 pasa a la etapa 38.
5
En la etapa 38 se determina si menos de una segunda proporción de los vecinos más próximos han activado el parámetro de privacidad. La segunda proporción es menor que la primera y puede ser, por ejemplo, un tercio. Si menos de la segunda proporción de los vecinos más próximos han activado el parámetro de privacidad, entonces el algoritmo pasa a la etapa 40, en la que se recomienda que el parámetro de privacidad no se active. Entonces, el algoritmo 30 termina. Si más de la segunda proporción de los vecinos más próximos han activado el parámetro de 10 privacidad, entonces el algoritmo 30 termina en la etapa 42, en la que no se hace ninguna recomendación con respecto a si el usuario debe activar ese parámetro de privacidad o no.
Naturalmente, los algoritmos 20 y 30 son dos de muchos ejemplos de maneras en las que pueden hacerse recomendaciones, basándose en los parámetros de los vecinos más próximos. 15
En muchas circunstancias, cuando está haciéndose una recomendación con respecto a si un usuario debe aceptar un parámetro particular o no, al menos algunos de los vecinos más próximos determinados en la etapa 6 descrita anteriormente pueden no haber tomado una decisión sobre el punto. Por ejemplo, asúmase que un usuario se registra en un servicio y debe hacerse una recomendación con respecto a si el usuario debe compartir un atributo 20 con el servicio o no. Se determina un número de los vecinos más próximos a ese usuario, pero muchos de (o todos) los vecinos más próximos no han decidido si el atributo debe compartirse o no (por ejemplo porque los usuarios similares aún no se han registrado en el servicio en cuestión). En este caso, la política para compartir del usuario similar con respecto al atributo puede encontrarse en el estado por defecto determinado mediante las políticas por defecto del usuario similar. Esta cuestión puede abordarse de varias maneras, algunas de las cuales se explican a 25 continuación.
Los usuarios similares descubiertos en la etapa 6 pueden simplemente ignorarse cuando se hacen recomendaciones si no han tomado una decisión sobre la cuestión considerada. Por tanto, la etapa 24 del algoritmo 20 descrito anteriormente puede determinar si una primera proporción de los vecinos más próximos que han tomado 30 una decisión con respecto al parámetro de privacidad relevante han activado ese parámetro.
Otro enfoque sería encontrar otros atributos o parámetros similares a aquél para el que está solicitándose una recomendación y hacer una recomendación partiendo de esa base. Este enfoque sería más sofisticado que el anterior, pero sería más difícil de implementar. 35
Un enfoque adicional sería seleccionar un número predeterminado de los vecinos más próximos que han tomado una decisión con respecto al parámetro de privacidad relevante. Por tanto, si un número sustancial de los vecinos cercanos no han tomado una decisión del parámetro de privacidad en cuestión, entonces se consideran vecinos que están menos cerca (es decir tienen una medida de similitud menor). 40
La figura 5 muestra un algoritmo, indicado en general mediante el número de referencia 50, según un aspecto de la presente invención. El algoritmo 50 muestra una implementación ilustrativa de la presente invención por parte de un operador de telecomunicaciones.
45
El algoritmo 50 se inicia en la etapa 52, en la que usuarios nuevos hacen uso del sistema proporcionado por el operador de telecomunicaciones. En la etapa 52, el usuario nuevo establece parámetros de perfil iniciales. Por ejemplo, en la etapa 52, un usuario puede proporcionar información tal como su nombre, género, etc. y también debe elegir el nivel de protección de sus datos. Por ejemplo puede elegirse uno de tres conjuntos de políticas predefinidos marcados como “paranoico”, “precavido” o “exhibicionista”. 50
El algoritmo 50 pasa entonces a la etapa 54, en la que se establece una política por defecto para el usuario. La política por defecto puede contener políticas con respecto a los servicios más populares y refleja la actitud principal del usuario. Por ejemplo puede asumirse que los usuarios “paranoicos” nunca desearán compartir su atributo de ubicación con ningún servicio. 55
Tras el estado inicial, el algoritmo 50 pasa a la etapa 56, en la que el sistema hace recomendaciones a los usuarios sobre cómo cambiar sus conjuntos de políticas basándose en los algoritmos de los vecinos más próximos descritos anteriormente. En este momento, la determinación de similitudes de usuario a usuario no sólo se basa en el perfil y conjunto de políticas real de los usuarios, sino también en su historia de telecomunicaciones (que usa datos tal como 60 número marcados, ubicación, frecuencia de llamadas, etc.) porque el operador de telecomunicaciones puede acceder a estos datos. La clasificación de estos atributos específicos de telecomunicaciones puede hacerse de manera similar a la que se hizo en el caso de los atributos de usuario anteriores. Por ejemplo, si dos usuarios marcan el mismo número frecuentemente (por ejemplo su restaurante favorito), pueden desear tener otras similitudes en sus políticas de privacidad (por ejemplo ambos desean compartir su dirección de correo electrónico 65 con el restaurante para obtener el menú semanal).
En la etapa 56, el usuario puede elegir aceptar una recomendación o no, tal como se describió anteriormente con referencia a los algoritmos 1, 20 y 30.
En esta fase se ha establecido una política por defecto inicial en la etapa 54 y pueden haberse hecho modificaciones basadas en recomendaciones en la etapa 56. El usuario puede proceder entonces a hacer uso de los servicios 5 proporcionados por el operador de telecomunicaciones, con los parámetros de seguridad y privacidad elegidos.
En algún punto en el futuro se llega a un punto de decisión (etapa 58). Cuando los usuarios llegan a un punto de decisión (por ejemplo registrarse en un servicio nuevo), el sistema recomienda la política establecida por la mayoría de los vecinos más próximos de los usuarios. Al mismo tiempo, esta recomendación se compara con la actitud 10 principal de los usuarios (realmente con el conjunto de políticas por defecto) y se destaca cualquier diferencia al usuario. Por ejemplo, si la actitud principal del usuario es “paranoico”, entonces el usuario presumiblemente no desea compartir su atributo de ubicación. Sin embargo, si la mayoría de sus vecinos más próximos comparten los datos de ubicación, entonces el sistema también le recomendará compartir datos de ubicación, pero destacará la diferencia con respecto a su actitud principal. 15
Nuevamente, el usuario puede elegir si aceptar las recomendaciones hechas en la etapa 56 o no. El algoritmo 50 avanza entonces a la etapa 58 hasta que se llega a otro punto de decisión.
La presente invención proporciona sistemas y métodos para ayudar a usuarios a establecer y modificar políticas de 20 privacidad y similares. La invención pretende proporcionar una mejor experiencia de usuario permitiendo que un usuario establezca tales políticas según sus necesidades y deseos, pero con un esfuerzo reducido en comparación con las soluciones conocidas. La invención busca evitar la necesidad de que los usuarios monitoricen continuamente conjuntos de políticas complejas y cambien reglas de política una por una, sin requerir que el usuario acepte conjuntos de políticas globales. La invención pretende proponer parámetros de control de acceso que son los más 25 apropiados para el usuario, mientras se proporciona la flexibilidad para permitir que los usuarios decidan si deben aceptarse parámetros propuestos o no.
Las realizaciones de la invención descrita anteriormente son ilustrativas más que restrictivas. Resultará evidente para los expertos en la técnica que los dispositivos y métodos anteriores puede incorporar varias modificaciones sin 30 desviarse del alcance general de la invención. Se pretende incluir todas estas modificaciones dentro del alcance de la invención en la medida en que se encuentren dentro del alcance de las reivindicaciones adjuntas.

Claims (16)

  1. REIVINDICACIONES
    1. Método de gestión de políticas de privacidad que comprende:
    proporcionar una determinación de similitud entre un primer usuario y otros usuarios; 5
    determinar, basándose en dicha determinación de similitud, al menos un vecino más próximo al primer usuario; estando el método caracterizado por
    proporcionar uno o más parámetros de política de privacidad recomendados al primer usuario basándose 10 en parámetros de política de privacidad de dicho al menos un vecino más próximo determinado.
  2. 2. Método según la reivindicación 1, en el que la determinación de similitud entre el primer usuario y uno de dichos otros usuarios comprende aplicar una o más funciones de distancia.
    15
  3. 3. Método según la reivindicación 2, que comprende además definir al menos una de dichas una o más funciones de distancia.
  4. 4. Método según cualquier reivindicación anterior, en el que la determinación de similitud entre usuarios incluye considerar la similitud entre al menos un atributo de usuario de dichos usuarios. 20
  5. 5. Método según cualquier reivindicación anterior, en el que la determinación de similitud entre usuarios incluye considerar la similitud entre al menos algunas de las decisiones de política de privacidad de dichos usuarios.
    25
  6. 6. Método según cualquier reivindicación anterior, en el que determinar el al menos un vecino más próximo comprende determinar un número predeterminado de dichos otros usuarios que tienen la mayor similitud con el primer usuario.
  7. 7. Método según cualquier reivindicación anterior, en el que proporcionar parámetros de política de privacidad 30 recomendados comprende determinar, para una política potencial, si más de una primera proporción predeterminada de los vecinos más próximos han establecido dicha política.
  8. 8. Método según cualquier reivindicación anterior, en el que proporcionar parámetros de política de privacidad recomendados comprende determinar, para una política potencial, si menos de una segunda proporción 35 predeterminada de los vecinos más próximos han establecido dicha política.
  9. 9. Método según la reivindicación 7 u 8, en el que la etapa de determinar, para una política potencial, si una proporción de dichos vecinos más próximos han establecido dicha política considera sólo los vecinos más próximos que han tomado una decisión con respecto a si establecer dicha política o no. 40
  10. 10. Método según cualquier reivindicación anterior, que comprende además comparar una política de privacidad recomendada para el primer usuario con una actitud principal de dicho primer usuario.
  11. 11. Aparato que comprende: 45
    una primera entrada para recibir datos en relación con una pluralidad de usuarios; y
    al menos un procesador para una determinación de similitud, basándose en dichos datos, entre un primer usuario y otros usuarios, para determinar, basándose en dicha determinación de similitud, al menos un 50 vecino más próximo al primer usuario, y estando el aparato caracterizado porque el procesador está adaptado para
    generar uno o más parámetros de política de privacidad recomendados al primer usuario basándose en parámetros de política de privacidad de dicho al menos un vecino más próximo determinado. 55
  12. 12. Aparato según la reivindicación 11, que comprende además una primera salida para proporcionar dichos parámetros de política de privacidad recomendados a dicho primer usuario.
  13. 13. Aparato según la reivindicación 11 ó 12, en el que el al menos un procesador determina la similitud entre 60 usuarios aplicando una o más funciones de distancia.
  14. 14. Aparato según una cualquiera de las reivindicaciones 11 a 13, en el que cuando se determina la similitud entre usuarios, dicho al menos un procesador considera la similitud entre al menos un atributo de usuario de dichos usuarios. 65
  15. 15. Aparato según una cualquiera de las reivindicaciones 11 a 14, en el que cuando se determina la similitud entre usuarios, dicho al menos un procesador considera la similitud entre al menos algunas de las decisiones de política de privacidad de dichos usuarios.
  16. 16. Producto de programa informático que comprende: 5
    medios para una determinación de similitud entre un primer usuario y otros usuarios;
    medios para determinar, basándose en dicha determinación de similitud, al menos un vecino más próximo al primer usuario; y estando el producto de programa informático caracterizado por 10
    medios para proporcionar uno o más parámetros de política de privacidad recomendados al primer usuario basándose en parámetros de política de privacidad de dicho al menos un vecino más próximo determinado.
ES09740098.0T 2009-10-16 2009-10-16 Método de gestión de políticas de privacidad para un dispositivo de usuario Active ES2478824T3 (es)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/EP2009/063536 WO2011044944A1 (en) 2009-10-16 2009-10-16 Privacy policy management method for a user device

Publications (1)

Publication Number Publication Date
ES2478824T3 true ES2478824T3 (es) 2014-07-23

Family

ID=42408063

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09740098.0T Active ES2478824T3 (es) 2009-10-16 2009-10-16 Método de gestión de políticas de privacidad para un dispositivo de usuario

Country Status (5)

Country Link
US (1) US9794268B2 (es)
EP (1) EP2489153B1 (es)
ES (1) ES2478824T3 (es)
HK (1) HK1171302A1 (es)
WO (1) WO2011044944A1 (es)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2011205223C1 (en) 2011-08-09 2013-03-28 Microsoft Technology Licensing, Llc Physical interaction with virtual objects for DRM
US9153195B2 (en) 2011-08-17 2015-10-06 Microsoft Technology Licensing, Llc Providing contextual personal information by a mixed reality device
US10019962B2 (en) 2011-08-17 2018-07-10 Microsoft Technology Licensing, Llc Context adaptive user interface for augmented reality display
WO2013028813A1 (en) * 2011-08-23 2013-02-28 Microsoft Corporation Implicit sharing and privacy control through physical behaviors using sensor-rich devices
WO2013028908A1 (en) 2011-08-24 2013-02-28 Microsoft Corporation Touch and social cues as inputs into a computer
US8949232B2 (en) * 2011-10-04 2015-02-03 Microsoft Corporation Social network recommended content and recommending members for personalized search results
WO2013121790A1 (ja) * 2012-02-17 2013-08-22 日本電気株式会社 プライバシ情報を扱う情報処理装置、プライバシ情報を扱う情報処理システム、プライバシ情報を扱う情報処理方法及びプログラム
US20150312263A1 (en) * 2012-12-06 2015-10-29 Thomson Licensing Social network privacy auditor
US9369872B2 (en) * 2013-03-14 2016-06-14 Vonage Business Inc. Method and apparatus for configuring communication parameters on a wireless device
US9390285B1 (en) * 2015-06-09 2016-07-12 Hortonworks, Inc. Identifying inconsistent security policies in a computer cluster
US10560419B2 (en) * 2017-01-07 2020-02-11 International Business Machines Corporation Message presentation management in a social networking environment
CN107517216B (zh) * 2017-09-08 2020-02-21 瑞达信息安全产业股份有限公司 一种网络安全事件关联方法
US10970471B2 (en) * 2018-04-23 2021-04-06 International Business Machines Corporation Phased collaborative editing
US11341838B1 (en) * 2019-04-11 2022-05-24 United Services Automobile Association (Usaa) Security sharing systems and methods

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001265809A (ja) * 2000-03-23 2001-09-28 Nec Corp コミュニケーションシステムおよびコミュニケーション方法並びに記録媒体
EP1362457A1 (en) * 2001-02-19 2003-11-19 BRITISH TELECOMMUNICATIONS public limited company Forwarding tree generation in a communications network
US6845241B2 (en) * 2002-01-07 2005-01-18 International Business Machines Corporation Relevance assessment for location information received from multiple sources
EP1602214B1 (de) * 2003-03-04 2016-11-02 Lukas Wunner Verfahren, system und speichermedium um kompatibilität zwischen IPsec und dynamischem routing herzustellen
US7689432B2 (en) * 2003-06-06 2010-03-30 Hayley Logistics Llc System and method for influencing recommender system & advertising based on programmed policies
US20050071223A1 (en) * 2003-09-30 2005-03-31 Vivek Jain Method, system and computer program product for dynamic marketing strategy development
US7389285B2 (en) * 2004-01-22 2008-06-17 International Business Machines Corporation Process for distributed production and peer-to-peer consolidation of subjective ratings across ad-hoc networks
US8595347B2 (en) 2004-09-30 2013-11-26 Cisco Technology, Inc. Method and apparatus for device based policy configuration in a network
US7346340B2 (en) * 2004-12-23 2008-03-18 Spyder Navigations L.L.C. Provision of user policy to terminal
GB0428553D0 (en) * 2004-12-31 2005-02-09 British Telecomm Method PF operating a network
US9137251B2 (en) * 2005-03-16 2015-09-15 Fortinet, Inc. Inheritance based network management
US20060277591A1 (en) * 2005-06-01 2006-12-07 Arnold William C System to establish trust between policy systems and users
US7894433B2 (en) * 2005-08-08 2011-02-22 Cisco Technology, Inc. Default gateway router supplying IP address prefixes ordered for source address selection by host device
JP4166778B2 (ja) * 2005-11-14 2008-10-15 インターナショナル・ビジネス・マシーンズ・コーポレーション 情報処理システムに設けられたコミュニティを管理するシステム、および、その方法
US8255985B2 (en) * 2006-11-13 2012-08-28 At&T Intellectual Property I, L.P. Methods, network services, and computer program products for recommending security policies to firewalls
EP2109976B1 (en) * 2006-12-29 2018-09-12 Telecom Italia S.p.A. METHOD AND SYSTEM FOR ENFORCING SECURITY POLICIES IN MANETs
US8020191B2 (en) * 2007-06-19 2011-09-13 International Business Machines Corporation Method and system for determining policy similarities
US8352550B2 (en) 2007-07-27 2013-01-08 Research In Motion Limited Wireless communication systems
CN101393550A (zh) * 2007-09-19 2009-03-25 日电(中国)有限公司 用于计算对象之间竞争性度量的方法与系统
US7996510B2 (en) * 2007-09-28 2011-08-09 Intel Corporation Virtual clustering for scalable network control and management
US8396988B2 (en) * 2007-12-19 2013-03-12 At&T Intellectual Property I, L.P. Method and system for survival of data plane through a total control plane failure
US8875306B2 (en) * 2008-02-12 2014-10-28 Oracle International Corporation Customization restrictions for multi-layer XML customization
US8423483B2 (en) * 2008-05-16 2013-04-16 Carnegie Mellon University User-controllable learning of policies
US20100077484A1 (en) * 2008-09-23 2010-03-25 Yahoo! Inc. Location tracking permissions and privacy
US20100076777A1 (en) * 2008-09-23 2010-03-25 Yahoo! Inc. Automatic recommendation of location tracking privacy policies
US8943081B2 (en) * 2008-11-17 2015-01-27 At&T Intellectual Property I, L.P. User-powered recommendation system
US8434126B1 (en) * 2009-02-02 2013-04-30 Symantec Corporation Methods and systems for aiding parental control policy decisions
US8266673B2 (en) * 2009-03-12 2012-09-11 At&T Mobility Ii Llc Policy-based privacy protection in converged communication networks
US8750839B1 (en) * 2009-06-18 2014-06-10 Sprint Communications Company L.P. Mobile access terminal with local call session control function
US8918834B1 (en) * 2010-12-17 2014-12-23 Amazon Technologies, Inc. Creating custom policies in a remote-computing environment

Also Published As

Publication number Publication date
EP2489153B1 (en) 2014-05-14
EP2489153A1 (en) 2012-08-22
US20120204222A1 (en) 2012-08-09
HK1171302A1 (en) 2013-03-22
US9794268B2 (en) 2017-10-17
WO2011044944A1 (en) 2011-04-21

Similar Documents

Publication Publication Date Title
ES2478824T3 (es) Método de gestión de políticas de privacidad para un dispositivo de usuario
US7707413B2 (en) Systems and methods for protecting private information in a mobile environment
KR102257604B1 (ko) 정책 및 권한 프로파일 관리 기법
Hartzog et al. Obscurity by design
Tang et al. The implications of offering more disclosure choices for social location sharing
JP5796574B2 (ja) 情報処理装置、制御方法及びプログラム
Aldhafferi et al. Personal information privacy settings of online social networks and their suitability for mobile internet devices
US20130097162A1 (en) Method and system for generating and presenting search results that are based on location-based information from social networks, media, the internet, and/or actual on-site location
KR101692500B1 (ko) 컨텐츠 공유 서버, 컨텐츠 공유 서버의 컨텐츠 리스트 제공 방법 및 컴퓨터 프로그램
Mun et al. PDVLoc: A personal data vault for controlled location data sharing
Kobsa et al. Let's do it at my place instead? attitudinal and behavioral study of privacy in client-side personalization
KR20140057580A (ko) 사용자 개인 데이터의 액세스를 제어하는 방법
Sacco et al. A Privacy Preference Manager for the Social Semantic Web.
Ardagna et al. Landscape-aware location-privacy protection in location-based services
Dini Kounoudes et al. Enhancing user awareness on inferences obtained from fitness trackers data
Malala Communication Privacy Management and the Digital Footprint in Pervasive Computer-Mediated Communication.
Sadeh et al. Understanding and capturing people’s privacy policies in a people finder application
Silva et al. Health Information, Human Factors and Privacy Issues in Mobile Health Applications.
Yılmaz Resources versus capabilities in social justice
Theodorakopoulos et al. On-the-fly privacy for location histograms
Celdrán et al. MASTERY: A multicontext-aware system that preserves the users' privacy
McDarby et al. An overview of the role of social network sites in the treatment of adolescent diabetes
Pierse et al. Exploratory pilot study on resource allocation along the dementia continuum under constrained and unconstrained budget scenarios
Celdrán et al. What private information are you disclosing? a privacy-preserving system supervised by yourself
Campbell In defense of (some) online echo chambers